跳转到主要内容

《欧盟人工智能法案》即将实施。阅读CSET常驻欧盟专家兼研究员Mia Hoffmann的这篇博客文章,了解该法案的内容以及它对欧盟(和世界)人工智能监管的意义。

制定人工智能统一规则的法规提案,即众所周知的《欧盟人工智能法案》,将于今年年底定稿。在欧盟最终程序(三部曲)之前,该法案可能会在2024年初2024年6月欧洲议会选举之前通过。该条例颁布后,将有至少18个月的过渡期,才能全面实施。

本博客为那些对人工智能监管感兴趣的人提供了对《人工智能法案》的高级介绍,并为过去两年中失去审议记录的读者提供了复习。它概述了《人工智能法案》的核心概念和方法,重点关注欧盟理事会、欧洲议会和欧盟委员会的提案之间的共性和微小差异,这些提案将在未来几个月的三语过程中敲定。然而,提案中仍存在实质性分歧,尤其是在定义和执行等技术性和详细条款方面。剖析这些内容本身就需要一篇博客文章,而不是本文的重点。

什么是欧盟人工智能法案?

《人工智能法案》是管理欧盟人工智能销售和使用的法律框架。其官方目的是通过为欧盟成员国的人工智能系统制定一致的标准,确保欧盟单一市场的正常运作。在实践中,这是第一个通过一系列义务和要求来解决人工智能风险的全面法规,旨在保障欧盟公民及其他人的健康、安全和基本权利,预计将对全球人工智能治理产生巨大影响。

《人工智能法案》是欧盟更广泛的新兴数字规则手册的一部分,该手册规范了数字经济的不同方面,如《通用数据保护条例》、《数字服务法案》和《数字市场法案》。因此,《人工智能法案》没有涉及数据保护、在线平台或内容审核。尽管《人工智能法案》和现有欧盟立法之间的相互作用也带来了自身的挑战,但在现有法律的基础上,欧盟能够避免对这项新兴技术采取“一法定数”的做法。

《人工智能法案》涵盖了“在欧盟投放市场、投入服务或使用”的人工智能系统。这意味着,除了欧盟的开发人员和部署人员,它还适用于向欧盟用户销售或以其他方式提供其系统或其输出的全球供应商。

有三个例外:

  • 专门为军事目的开发或使用的人工智能系统,以及可能更广泛的国防和国家安全目的,有待谈判;
  • 人工智能开发并用于科学研究;和
  • 自由和开源的人工智能系统和组件(一个尚未明确定义的术语),以下讨论的基础模型除外。

基于风险的方法

该提案的核心是其风险分类系统,根据该系统对人工智能系统对个人健康、安全和基本权利构成的风险水平进行监管。风险分为四类:不可接受、高、有限和最小/无。《人工智能法》设想的最大监督和监管重点是不可接受和高风险类别,因此这是下文大部分讨论的重点。不同类型的人工智能系统究竟落在哪里还有待确定,预计将在三部曲中进行激烈辩论。在实践中,人工智能系统也可能分为几个类别。

不可接受的风险系统将被禁止

属于不可接受风险类别的人工智能系统被彻底禁止。基于这三个提案之间的共识,不可接受的风险系统包括那些通过潜意识信息和刺激,或通过利用社会经济地位、残疾或年龄等脆弱性,具有重大操纵潜力的系统。用于社会评分的人工智能系统,一个描述根据人们的社会行为对他们进行评估和治疗的术语,也被禁止。欧洲议会进一步打算禁止在公共场所进行实时远程生物识别,如实时面部识别系统,以及其他生物识别和执法使用案例。

高风险系统将受到严格监管

高风险人工智能系统分为两类:

  • 系统是受现有安全标准和评估约束的安全组件或产品,如玩具或医疗器械;或
  • 系统用于特定的敏感目的。这些用例的确切列表在谈判期间可能会发生变化,但据了解属于以下八个高级别领域:
    • 生物识别
    • 关键基础设施
    • 教育和职业培训
    • 就业、工人管理和自营职业机会
    • 获得基本服务
    • 执法
    • 移民、庇护和边境管制管理
    • 司法和民主进程

虽然欧盟委员会的提案为执法使用引入了额外的豁免,但欧洲议会却提出了一系列更广泛的高风险使用案例。例如,它增加了大型在线平台的内容推荐系统,如社交媒体算法,以及用于检测和识别移民的人工智能系统。同时,该提案增加了一个限定词:除了在关键环境中使用外,人工智能系统必须具有重大的伤害风险,才能属于高风险类别。关于系统达到或不达到这一阈值的情况的进一步指导意见将在该法规通过后发布。

高风险人工智能系统的要求

根据这些提议,高风险人工智能系统的开发者必须满足各种要求,证明他们的技术及其使用不会对健康、安全和基本权利构成重大威胁。其中包括一套全面的风险管理、数据治理、监测和记录保存做法、详细的文件以及透明度和人为监督义务,以及准确性、稳健性和网络安全标准。高风险人工智能系统也必须在欧盟范围内的公共数据库中注册

开发者自己决定他们的人工智能系统的风险类别。同样,除了少数例外,开发人员可以自我评估和自我认证其人工智能系统和治理实践是否符合《人工智能法》中的要求。它们可以通过采用即将出台的标准或证明其他技术解决方案的等效性来做到这一点。对人工智能系统进行错误分类和/或不遵守相应规定将被处以至少2000万欧元或全球营业额4%的罚款,以较高者为准(数字在三语中可能会发生变化)

在开发人员的一致性认证之后,部署人员一旦投入使用高风险人工智能系统,就必须遵守监控和记录,以及人员监督和透明度义务。议会还推动部署人员进行基本权利影响评估,认识到风险取决于具体情况。用于更新驾驶执照的签名验证系统和用于在选举中验证邮寄选票的系统具有截然不同的含义。在某些情况下,即使是一个运行良好且技术安全的人工智能系统也可能不合适。

事件报告

一旦部署了人工智能系统,即使是最先进的测试协议和实施良好的风险管理策略也无法完全防止危害的发生。正如我们在最近的一篇论文中所说,跟踪人工智能事件并从中学习以改进人工智能的设计、开发和部署是任何安全战略的关键部分。

《人工智能法案》要求高风险人工智能的开发者建立严重事件报告系统,作为更广泛的上市后监测的一部分。严重事件被定义为导致、可能导致或可能导致人员健康或死亡严重损害、财产或环境严重损害、关键基础设施中断或侵犯欧盟法律规定的基本权利的事件或故障。在某些情况下,开发人员和部署人员必须通知相关当局,并在事件发生时保存人工智能系统运行的记录和日志,以证明在事后审计事件时遵守了《人工智能法》。

尽管报告框架的重要细节——通知的时间窗口、收集信息的性质、事件记录的可访问性等——尚未得到充实,但对欧盟人工智能事件的系统跟踪将成为改善人工智能安全工作的重要信息来源。例如,欧盟委员会打算跟踪事件的绝对数量、部署应用程序的比例和受伤害的欧盟公民的比例等指标,以评估《人工智能法》的有效性。

关于有限和最小风险系统的注记

最后,有限风险类别涵盖了受透明度义务约束的操纵潜力有限的系统。这包括通知一个人他们与人工智能系统的互动,并标记人工生成或操纵的内容。如果人工智能系统不属于任何其他类别,则被认为风险最小或没有风险。

管理通用AI

当面临更广泛的人工智能、生成人工智能系统和基础模型的最新创新时,《人工智能法案》基于用例的监管方法失败了。由于这些模式是最近才出现的,委员会2021年春季的提案中没有任何相关条款。即使是理事会从2022年12月开始的做法,也依赖于“通用人工智能”的一个相当模糊的定义,并指出了未来针对具体要求的立法调整(所谓的实施法案)。显而易见的是,根据目前的提案,开源基金会模型将属于立法范围,即使其开发商没有从中获得任何商业利益——这一举动受到了开源社区和媒体专家的批评。

根据理事会和议会的提议,通用人工智能的提供商将承担与高风险人工智能系统类似的义务,包括模型注册、风险管理、数据治理和文档实践,实施质量管理系统,并达到性能、安全以及可能的资源效率方面的标准

此外,欧洲议会的提案为不同类别的模式规定了具体义务。首先,它包括关于人工智能价值链中不同参与者的责任的规定。专有或“封闭”基础模型的提供商被要求与下游开发者共享信息,使他们能够证明遵守了《人工智能法》,或转移模型、数据和有关系统开发过程的相关信息。其次,被定义为基础模型子集的生成性人工智能系统的提供商,除了上述要求外,还必须遵守透明度义务,证明努力防止非法内容和文件的生成,并在其培训数据中发布受版权保护材料的使用摘要。

见解

谈判桌上有着推进人工智能监管的重大共同政治意愿。尽管如此,各方仍将面临关于禁止和高风险人工智能系统清单以及相应治理要求等问题的激烈辩论;如何规范地基模型;监督《人工智能法》实施所需的执法基础设施类型;以及不那么简单的定义问题。

重要的是,人工智能法案的通过是这项工作真正开始的时候。《人工智能法案》通过后,可能在2024年6月之前,欧盟及其成员国将需要建立监督结构,并为这些机构配备必要的资源来执行规则手册。欧盟委员会还负责发布一系列关于如何实施该法案条款的额外指导意见。《人工智能法案》对标准的依赖赋予了欧洲标准制定机构重要的责任和权力,这些机构决定了“足够公平”、“足够准确”以及“值得信赖”的人工智能在实践中的其他方面。

因此,这项立法的真正影响将取决于欧盟对实施的执着、对其条款的认真执行、对监督的承诺以及标准制定机构的合作努力——定义值得信赖的人工智能在欧洲及其他地区意味着什么。