跳转到主要内容
  • 全面禁止用于生物识别监控、情绪识别和预测警务的人工智能
  • 像ChatGPT这样的生成型人工智能系统必须披露内容是人工智能生成的
  • 人工智能系统用于在被认为是高风险的选举中影响选民

这些规则旨在促进以人为中心和值得信赖的人工智能的普及,并保护健康、安全、基本权利和民主免受其有害影响。

周三,欧洲议会以499票赞成、28票反对、93票弃权通过了《人工智能法》的谈判立场,随后将与欧盟成员国就该法的最终形式进行谈判。这些规则将确保在欧洲开发和使用的人工智能完全符合欧盟的权利和价值观,包括人类监督、安全、隐私、透明度、非歧视以及社会和环境福祉。


禁止的人工智能实践

这些规则遵循基于风险的方法,并根据人工智能可能产生的风险水平,为供应商和部署人工智能系统的人员制定义务。因此,对人们的安全具有不可接受风险的人工智能系统将被禁止,例如用于社会评分的系统(根据人们的社会行为或个人特征对他们进行分类)。欧洲议会议员扩大了名单,包括禁止侵入性和歧视性使用人工智能,例如:

  • 公共场所的“实时”远程生物识别系统;
  • “后”远程生物识别系统,唯一的例外是起诉严重犯罪的执法部门,并且只有在司法授权后;
  • 使用敏感特征(如性别、种族、民族、公民身份、宗教、政治取向)的生物特征分类系统;
  • 预测性警务系统(基于特征分析、地点或过去的犯罪行为);
  • 执法、边境管理、工作场所和教育机构中的情绪识别系统;和
  • 无针对性地从互联网或闭路电视录像中抓取面部图像,以创建面部识别数据库(侵犯人权和隐私权)。

高风险人工智能

欧洲议会议员确保,高风险应用程序的分类现在将包括对人们的健康、安全、基本权利或环境造成重大危害的人工智能系统。用于影响选民和选举结果的人工智能系统以及社交媒体平台(拥有4500多万用户)使用的推荐系统被列入高风险名单。


通用AI的义务

基础模型是人工智能领域的一个新的快速发展,其提供商必须评估和减轻可能的风险(对健康、安全、基本权利、环境、民主和法治),并在其模型投放欧盟市场之前在欧盟数据库中注册。基于此类模型的生成人工智能系统,如ChatGPT,必须遵守透明度要求(披露内容是人工智能生成的,也有助于区分所谓的深度假图像和真实图像),并确保防止生成非法内容。用于培训的受版权保护数据的详细摘要也必须公开


支持创新,保护公民权利

为了促进人工智能创新和支持中小企业,欧洲议会议员增加了对开源许可证下提供的研究活动和人工智能组件的豁免。新法律提倡所谓的监管沙盒,即现实生活中的环境,由公共当局建立,用于在人工智能部署之前对其进行测试。


最后,欧洲议会议员希望提高公民对人工智能系统提出投诉的权利,并获得对基于高风险人工智能系统的决定的解释,这些决定对他们的基本权利产生了重大影响。欧洲议会议员还改革了欧盟人工智能办公室的角色,该办公室将负责监督人工智能规则手册的实施情况。

佳句
 


在表决之后,联合报告员Brando Benifei(意大利S&D)说:“今天,所有的目光都集中在我们身上。当大型科技公司对自己的创造敲响警钟时,欧洲已经采取行动,提出了应对人工智能开始带来的风险的具体对策。我们希望人工智能在创造力和生产力方面的积极潜力得到利用,但我们也将在谈判中努力保护我们的地位,对抗对我们民主和自由的威胁。”与理事会合作”。


联合报告员Dragos Tudorache(Renew,罗马尼亚)表示:“《人工智能法案》将为全球人工智能的发展和治理定下基调,确保这项技术能够通过其所能提供的巨大利益彻底改变我们的社会,并根据欧洲的民主、基本权利和法治价值观进行发展和使用”。


接下来的步骤


今天晚些时候将开始与安理会就法律的最后形式进行谈判。