跳转到主要内容

在这篇真知灼见文章中,来自Cooley LLP的Travis LeBlanc、Randy Sabett、Mari Dugas和Natassia Velez探讨了人工智能(AI)带来的挑战和机遇,重点介绍了美国国家标准与技术研究所(NIST)的人工智能风险管理框架(AI RMF 1.0)的发展和影响。

概述

人工智能给寻求监管和制定快速发展技术标准的政府带来了重大挑战。虽然我们将继续看到政府立法,但自愿标准也可以在发展和推进人工智能治理方面发挥重要作用,类似于网络安全标准的制定。NIST开发了AI RMF,并于2023年1月发布了第一个版本。人工智能RMF是一种自愿资源,旨在帮助“在人工智能系统生命周期中发挥积极作用的人工智能参与者”识别和管理人工智能的风险,同时促进人工智能系统的可信和负责任的开发和使用。

NIST人工智能RMF是《2020年国家人工智能倡议法案》(NAIA)的产物,该法案是国会的一项法案,授权行政部门制定一种协调的政府人工智能方法。NIST被赋予与其他公共和私营部门组织合作“开发并定期更新”的任务[…]人工智能系统可信度的自愿风险管理框架。“NIST指令的结果是AI RMF。

这篇关于人工智能RMF的洞察文章探讨了一些关键的人工智能RMF.利益相关者,人工智能RMF-基本风险分析原则,以及利用或开发人工智能的公司的潜在用途。人工智能RMF仍处于早期阶段,但如果私营公司自愿采用,它可能会成为负责任开发和使用人工智能的普遍标准。

利益相关者

NIST AI RMF试图平衡相互竞争的利益相关者的利益。与所有颠覆性技术一样,政府有兴趣规范和标准化人工智能的开发和使用。然而,人工智能主要由私营部门开发。因此,监管应与促进创新相平衡。人工智能RMF的创建过程突出了NIST对实现利益相关者之间平衡的承诺:人工智能RMF.是在240多个不同组织的投入下开发的,包含了对草案版本的400条正式意见。该框架还旨在成为一份活的文件,并计划进行更新,以进一步完善和融入行业经验。作为一份自愿指导文件,AI RMF整合了政府实体的专业知识,包括国防高级研究计划局(DARPA)、美国国家航空航天局(NASA)、美国国际开发署(USAID)以及国务院和国土安全部,并提供了一个公司可以整合和适应其实践的框架。

风险分析

在其核心,人工智能RMF为人工智能参与者提供了一种基于风险的方法,并挑战参与者全面界定风险。风险计算应考虑人工智能的预期负面影响,同时创造机会最大限度地发挥技术的积极影响。NIST认为,更稳健的风险分析将改善人工智能的运营,并在技术上建立更多的信任,从而使人工智能得到更有益的使用。人工智能RMF的灵活性允许人工智能参与者根据自己的风险承受能力采取行动,优先考虑自己的风险,并采取相应行动。

AI RMF确定了三个关键的潜在危害:对个人、组织和生态系统的危害。对人的伤害包括个人、社区和社会层面的伤害。例子包括侵犯公民权利、歧视和损害受教育机会。对组织的伤害包括对业务运营、安全漏洞或声誉的伤害。最后,对生态系统的危害集中在大规模和相关的问题上,包括对自然资源和全球金融系统的危害。

NIST在对人工智能进行风险评估时确定了几个关键挑战。首先,障碍可能只是未知的。公司可能正在整合第三方开发的人工智能,但可能不了解该第三方自己对人工智能的开发和使用。人工智能参与者在衡量风险和危害时所依赖的指标也有限。

人工智能风险管理的核心是可信度。NIST将值得信赖的人工智能定义为有效可靠、安全、有保障和弹性、负责透明、可解释和可解释、增强隐私、公平并管理有害偏见。NIST指出,人类的判断和组织行为将影响这些因素的平衡以及人工智能系统的整体可信度。

核心功能

AI RMF围绕四个关键功能构建,公司可以将合规性映射到这些功能,并分解支持AI RMF的各种任务和行动。这四个功能是:治理、映射、测量和管理。这些功能是从NIST的网络安全框架(CSF)中借用的概念,该框架目前正在更新到版本2)。这些功能允许公司采用“通用语言和系统方法”,无论是在CSF还是AI RMF环境中。这些职能有助于为公司实施风险管理行动,并提高这些操作过程的效率。通用语言概念允许在组织内的所有级别和角色之间进行一致的沟通。每个功能都由一个动词表示,代表风险管理(在AI RMF中)或网络安全(在CSF中)特定领域的最高抽象。然后将每个功能划分为行动的类别和子类别,为AI RMF的遵守提供更精细的细节。

治理

在AI RMF和NIST的CSF 2.0工作草案中引入了Govern功能。Govern解决了整个组织对总体治理结构的需求,该结构可以简化政策、实践和规范,并就人工智能风险“指导组织的使命、目标、价值观、文化和风险承受能力”。关键治理类别包括计划/政策/程序、问责制结构、多样性、公平性、包容性流程和第三方供应链管理。

映射

Map功能将组织内的各种人工智能参与者连接起来,因为与人工智能相关的活动通常可以分散在各个组织中,而没有太多的可见性或协调性。Map鼓励实体了解人工智能系统的“相互关联性”,以实现更稳健的决策和风险评估。Map的分类围绕着为人工智能活动建立组织范围的上下文,对人工智能系统进行分类;记录人工智能系统的能力、目标、使用、目标和成本,绘制人工智能系统中嵌入的第三方风险,并了解人工智能系统对更广泛的社区和社会的影响。

测量

Measure功能侧重于分析和基准风险的定量、定性和混合方法机制。NIST建议跟踪与可信度、社会影响和人类人工智能配置相关的指标。Measure功能列出了与测试和开发、独立审查和缓解相关的类别。子类别侧重于了解和测试对安全、弹性、环境、隐私、公平和偏见风险的影响。公司还可能注意到,Measure功能与测试、评估、验证和验证(TEVV)过程密切相关,组织应使用这些过程来跟踪和了解人工智能系统的风险并减轻其潜在危害。

管理

Measure中建立的TEVV流程直接通向Manage,Manage“需要根据Govern职能部门的定义,定期将风险资源分配给映射和测量的风险。”Manage接管之前的职能,并将其整合到组织范围的计划中,以确定风险的优先级、监测、评估和应对风险。

利用AI RMF

人工智能RMF并不是一套可审计的控制措施,用于评估人工智能背景下的风险。尽管如此,NIST还是从CSF的开发中吸取了一些教训。重要的是,将NIST框架转化为实用工具可以使组织在短时间内取得重大进展。对于人工智能RMF,美国国家标准与技术研究院还发布了附带的人工智能RMFPlaybook(行动手册)。行动手册首先提供每个功能、类别和子类别的背景信息。接下来可能是最有用的功能之一:组织为实现该子类别的目标可以采取的一系列建议行动,以及记录组织行动的透明度和文档提示。最后,提供了一组外部资源和参考资料。

仅举一个例子,对于政府职能,类别1规定“整个组织中与人工智能风险的映射、测量和管理相关的政策、流程、程序和实践已经到位、透明并有效实施”,而子类别1.3规定“流程、程序和实践已到位,可根据组织的风险承受能力确定所需的风险管理活动水平。“《行动手册》补充了这一子类别的一些建议行动,包括:

  • 制定政策,定义衡量或理解人工智能系统潜在影响的机制(例如,通过人工智能生命周期关键阶段的定期影响评估,与系统影响和系统更新频率相关);
  • 制定政策,定义衡量或理解人工智能系统在人工智能生命周期关键阶段影响的可能性及其程度的机制;
  • 制定政策,为人工智能系统或其重要组成部分分配总体风险测量方法(例如,通过映射风险的影响和可能性的乘积或组合,其中风险≈影响x可能性);和
  • 制定政策,将系统分配到在组织的人工智能投资组合中有效的统一风险等级(例如,使用文档模板),并承认风险承受能力和风险水平可能会在人工智能系统的生命周期中发生变化。

从该列表中可以看出,建议的措施并不代表可审计的控制措施,如ISO或其他类似标准中的控制措施。相反,人工智能RMF和行动手册应被视为整个组织使用的工具,以建立讨论人工智能的共同点,并实施允许全面考虑人工智能众多风险的机制。

结论

NIST人工智能RMF认识到一个严峻的现实:如果不能正确预测和缓解,人工智能风险可能会产生深远的影响和意想不到的后果。它建立在NIST CSF的成功和结构之上,并认识到与人工智能复杂性相关的风险可以通过全组织的方法来最好地解决。虽然AI RMF没有提供合规检查表,但它为不断发展的监管环境中的未来风险管理活动提供了一个灵活的框架。随着人工智能参与者对人工智能RMF的足够接受,人工智能可以变得更加透明、可信和准确。