跳转到主要内容

8月18日,美国国家标准与技术研究院(NIST)发布了其人工智能风险管理框架(第二稿)的第二稿,供公众评论。第一稿于今年3月发布,在这里进行了讨论。正如NIST所描述的,RMF旨在成为一份“活文件”,它将“随时更新”,以反映人工智能可信度的技术和方法的变化,特别是当“利益相关者从实施人工智能风险管理中学习,尤其是[RMF]时。”

 

在高层,RMF“旨在自愿使用,并提高将可信度考虑纳入人工智能产品、服务和系统的设计、开发、使用和评估的能力。“值得信赖的人工智能”系统将“有助于维护公民自由和权利,提高安全性,同时创造创新机会,充分发挥这项技术的潜力。为此,RMF鼓励各组织采用一种风险缓解文化,根据人工智能系统的风险水平和影响分配资源,同时承认“事件和故障无法消除。"

 

第二稿中最重要的变化之一是重新制定了值得信赖的人工智能的特征。第二稿偏离了风险管理框架初稿中使用的“技术特征”、“社会技术特征”和“指导原则”三类分类法。相反,第二稿列出了值得信赖的人工智能的七个要素,其中没有一个高于其他要素,但都是相互关联的。第二稿解释说,“单独解决人工智能值得信赖的特征并不能确保人工智能系统的可信度,而且总是涉及权衡。”第二稿中列出的七个要素是:

 

  1. 有效可靠(Valid and Reliable)有效性被描述为准确性和稳健性的结合,而稳健性又被描述为人工智能系统在各种情况下保持其性能水平的能力。可靠性被描述为人工智能系统在给定条件下在给定时间间隔内按要求执行的能力
  2. 安全。第二稿解释说,“人工智能系统‘在特定条件下,不应造成身体或心理伤害,也不应导致人类生命、健康、财产或环境受到威胁’。”
  3. 公平和偏见得到管理。公平被描述为与平等(equality )和公平(equity)有关。NIST还进一步纳入了其关于识别和减轻人工智能偏见的特别出版物的研究结果(此处讨论)。如该文件所述,并在第二稿中重申,“NIST已经确定了需要考虑和管理的三大类人工智能偏见:系统性、计算性和人为性,所有这些都可能在没有偏见、偏袒或歧视意图的情况下发生。”
  4. 安全且有弹性。弹性被描述为“人工智能系统能够承受对抗性攻击,或者更普遍地说,能够承受环境或使用的意外变化,或者在面对内部和外部变化时保持其功能和结构,并在必要时优雅地降级。第二稿还解释说,安全性包括弹性,但也包括避免和保护免受攻击的协议,以及“通过防止未经授权访问的保护机制来保持机密性、完整性和可用性”。"
  5. 透明和负责。透明度是指个人可以在多大程度上获得有关人工智能系统的信息,对于确保公平和消除偏见至关重要。第二稿还解释说,“人工智能背景下的问责制决定与实现风险结果时责任方的期望有关。”
  6. 可解释和可解释(Transparent and Accountable.)。根据第二稿,“可解释性(explainability )是指算法操作背后机制的表示,而可解释性(interpretability )则是指人工智能系统输出在其设计功能目的背景下的含义”,这对有效和负责任的人工智能都至关重要。
  7. 增强了隐私。第二稿提出,“匿名、保密和控制等隐私价值观通常应指导人工智能系统设计、开发和部署的选择。”引用NIST的隐私框架,其目标是确保人工智能系统保护“免受入侵、限制观察、[和]个人同意披露或控制其身份各方面(如身体、数据、声誉)的自由。”

第二稿保留了第一稿中包含的人工智能风险管理的四个高级要素,即绘图、测量、管理和治理。在第二稿中,治理职能被提升为管理框架中的第一个职位。NIST强调,“Govern是一种贯穿整个人工智能风险管理的职能,并为流程的其他职能提供信息。”

Govern职能部门还解释说,应明确定义和下放各种人工智能管理职能的职责。第二稿包括图1(转载如下)和附录A中的新描述,其中更清楚地解释了RMF的受众以及不同个人和团体在风险管理过程中可以发挥的作用和责任。“人工智能RMF应允许跨组织、组织之间、与客户以及向公众传达人工智能风险。”

 

第二稿还强调了测试、评估、验证和验证(TEVV)在整个人工智能设计、开发和部署生命周期中的重要性。NIST解释说,具有TEVV专业知识的参与者应在风险管理过程的各个阶段进行整合。

第二稿第5页图1:AI系统的生命周期和关键维度

除了第二稿,NIST还发布了一本行动手册,将其描述为一种在线资源,旨在“帮助组织导航人工智能RMF,并通过建议的战术行动实现结果,这些行动可以在自己的环境中应用。“NIST也在征求对《行动手册》的意见,并解释说,《行动指南》用户可以向更广泛的《行动指南社区》提供他们的建议。与RMF一样,《行动纲领》“旨在成为一种不断发展的资源,感兴趣的各方可以滚动提交反馈和建议的补充内容以供裁决。”。"

结论

NIST将在2022年9月29日之前接受对第二稿的评论,并将于2022年10月18-19日举行研讨会,然后预计将于2023年1月发布RMF和行动手册的最终版本。NIST鼓励各种利益相关者提交对RMF草案的意见。尽管NIST明确解释说RMF不是强制性的监管框架,但它可能会对行业标准产生重大影响,就像NIST有影响力的网络安全指南一样。因此,开发或使用人工智能系统的组织应在开发RMF的过程中向NIST提供建议和协助。