跳转到主要内容

随着全球生成性人工智能发展的升温,我们来看看世界各地的监管状况

全球范围内关于生成人工智能监管的讨论正在升温,数据科学领导者和技术利益相关者都对包括错误信息和工作替代在内的社会风险表示担忧。

OpenAI首席执行官萨姆·奥特曼最近向美国参议院宣布了涉及生成人工智能的“生存风险”的可能性,而数据科学领袖杰弗里·辛顿在离开谷歌时也发出了类似的警告,包括埃隆·马斯克在内的领导人呼吁停止开发。

世界各地都处于人工智能生成监管起草过程的不同阶段。在这里,我们将探讨生成性人工智能监管是如何在世界各地发挥作用的。

澳大利亚

在2023年的联邦预算中,政府宣布了一个负责任的人工智能网络,并为在全国负责任地推广多种人工智能技术提供了4120万澳元(2690万美元)的资金。监管机构旨在平息澳大利亚人权专员Lorraine Finlay的担忧,她表示,包括ChatGPT和Bard在内的人工智能聊天机器人已经在危害社会。

此外,监管机构正在就可能对更通用的《隐私法》进行修改进行谈判,以弥补在没有人为监督的情况下通过反馈回路进行人工智能模型训练可能出现的透明度不足。还有关于使用分析和生物特征数据来训练模型的讨论,这可能需要制定额外的隐私规则。

澳大利亚科技委员会董事会成员Victor Dominello呼吁建立一个“科技监管先锋”,可以分析新兴的人工智能发展,并就如何监测其可能的风险向政府机构提供相应建议。“Robodebt”计划已经经历了国家风险,该计划由联邦政府自动提供,用于计算债务。2020年,由于平均收入数据被用于计算福利超额支付,该计划被认定为非法。

巴西

巴西关于人工智能的立法程序是由政府于2022年9月批准的法律框架推动的,但因过于模糊而受到广泛批评。

在2022年11月发布ChatGPT之后,游说者之间的讨论导致向巴西政府发送了一份报告,详细介绍了如何监管人工智能的建议。这项研究由法律和学术专家以及公司领导人和国家数据保护监督机构ANPD的成员共同撰写,包括三个主要领域:

公民权利,包括“不歧视和纠正直接、间接、非法或滥用的歧视性偏见”,并确保用户何时与人工智能互动

风险分类-确定和识别公民的风险水平,“高风险”包括基本服务、生物识别验证和招聘;以及“过度风险”,包括剥削弱势群体和社会评分

治理措施和行政制裁——违反规则的企业将如何受到惩罚;建议对中度违规行为处以2%的收入,对严重伤害处以900万美元的罚款

该文件目前正在巴西政府进行辩论,进一步起草的日期尚未公布。

美国加利福尼亚州

监管硅谷这一温床上的人工智能创新将是监管机构面临的一个永远存在的挑战,OpenAI等公司和主要投资者微软,以及总部位于该州并监督大量参与的谷歌。为了克服这一紧迫挑战,监管机构正在计划一项全面的人工智能提案。

根据国家人工智能权利法案框架,这项悬而未决的立法旨在防止教育、公用事业、医疗保健和金融服务等私营部门的歧视和伤害。开发人员和用户向加州民权部提交的年度影响评估——将详细说明所涉及的自动化工具的类型——以及可供公众访问,都被建议作为保障措施。除此之外,还计划要求开发人员实施一个治理框架,详细说明该技术的使用方式和可能的影响。

此外,加州民权委员会(CRC)还建议对人工智能在就业中的使用进行更新,包括对“不利影响”、构成自动决策系统的任务(不包括文字处理和电子表格软件)以及将“机器学习数据”改为“自动决策系统数据”的更具体定义。

谷歌首席执行官桑达尔·皮查伊最近评论说,负责任地构建人工智能是他唯一关心的种族,确保“作为一个社会,我们做对了”。

加拿大

加拿大与人工智能监管有关的法律目前在各州的基础上受到数据隐私、人权和知识产权立法的约束。然而,《人工智能和数据法》(AIDA)计划最早在2025年出台,并已根据《2022年数字宪章实施法》C-27号法案开始起草。

一个正在进行的管理生成人工智能的风险和陷阱的框架,以及加拿大各地这项技术的其他领域,旨在鼓励负责任的采用,据报道,计划与利益相关者进行协商。

加拿大政府表示,基于风险的方法与美国和欧盟的类似法规保持一致,并计划在现有加拿大消费者保护和人权法的基础上,认识到需要“高影响力”的人工智能系统来满足人权和安全立法。此外,据说创新、科学和工业部长将负责确保监管跟上技术发展的步伐,并确保可能为恶意使用制定新的法律条款。

已经确定了六个主要义务领域,以供高影响系统遵守:

  • 责任
  • 公平与公正
  • 人的洞察力和监控
  • 安全
  • 透明度
  • 有效性和稳健性

中国

中国网信办目前正在起草对为中国大陆公民服务的人工智能服务(包括聊天机器人)的监管。一项提案旨在前瞻性地呼吁中国科技公司在公开发布产品之前向CAC注册生成人工智能模型。

据报道,对这些产品的评估将“预培训数据来源的合法性”,开发商需要证明产品符合法律草案规定的“社会主义核心价值观”。产品将被限制使用个人数据进行培训,并需要要求用户验证其真实身份。此外,分享极端主义、暴力、色情内容或呼吁“颠覆国家政权”的信息的人工智能模型将违反规定。

目前,违规行为将被处以1万元(1454美元)至10万元(1.455美元)的罚款,并被暂停服务和可能的刑事调查。此外,被发现共享被视为不适当内容的供应商需要在三个月内更新其系统,以确保防止重复犯罪。该法案计划在今年年底前敲定。

欧洲联盟

欧洲议会目前正在起草《欧盟人工智能法案》,2023年6月的全体投票中,620名欧洲议会议员中有499人投票支持这项新法律。该地区对人工智能的监管已经酝酿了几年,欧盟委员会于2021年4月提交了一份提案。

尤其是意大利,它是第一个禁止使用ChatGPT的国家,过去几个月,其他欧盟国家也在讨论效仿。

欧盟委员会提出的人工智能监管框架详细说明了四个风险级别:

  • 风险最小或无风险-包括支持人工智能的视频游戏或垃圾邮件过滤器等系统,这些系统可能涉及生成人工智能
  • 有限的风险-包括使用聊天机器人,用户需要从一开始就明确告知他们正在与此类系统交互
  • 高风险-在交通等关键基础设施中使用生成人工智能;教育相关;执法;招聘;和医疗机器人
  • 不可接受的风险-包括对公民安全和权利构成明显威胁的所有系统,如鼓励伤害的社交评分和语音助手

印度

印度政府于2021年3月宣布,将对人工智能监管进行“轻度干预”,以保持全国的创新,目前还没有具体监管计划。电子和信息技术部认为,这一技术领域“意义重大且具有战略意义”,但该机构表示,将制定政策和基础设施措施,以帮助打击偏见、歧视和道德问题。

印度政府提出了人工智能管理的自愿框架。其2018年国家人工智能战略考虑了人工智能发展的五个关键领域:农业、教育、医疗保健、智能城市和智能移动。然后在2020年,国家人工智能战略草案详细说明了人工智能的道德使用,呼吁所有系统透明、负责和公正。

韩国

韩国的《人工智能法案》目前正处于起草的最后阶段,将在国民议会内进行投票。目前的法律旨在澄清,法规必须允许任何用户在无需获得任何政府预先批准的情况下创建新模型,系统被视为公民生活的“高风险”系统,以获得长期信任。

这项悬而未决的法案将重点放在国家创新上,同时考虑到道德,使用生成人工智能的企业将在如何负责任地开发系统方面获得政府支持。

此外,该国个人信息保护委员会宣布计划成立一个特别工作组,专门根据生成性人工智能的发展,重新思考生物特征数据保护。

英国

目前,英国对生成型人工智能的监管将掌握在人工智能使用地的行业监管机构手中,在英国GDPR之外没有制定一般法律。政府在围绕这一主题的官方公告中选择了“支持创新的方法”。该国希望在全球人工智能竞赛中处于领先地位。然而,关于人工智能的生成风险(如系统漏洞、错误信息和偏见)的问题仍然存在。

为了帮助缓解这种情况,英国政府发布了一份影响评估报告,旨在确定对人工智能开发商的适当和公平监管。这项措施是更广泛的国家人工智能战略的一部分,其摘要指出:“存在许多市场失灵(信息不对称、激励机制错位、负外部性、,监管失败),这意味着人工智能风险没有得到充分解决。

“英国政府最适合提出一个合适的跨部门监管制度来实现这些目标。”

制定的目标包括推动人工智能中小企业的增长,增加公众信任,以及保持或提高英国在斯坦福全球人工智能指数中的地位。

与此同时,竞争与市场管理局(CMA)对人工智能基础模型进行了审查,审查了包括ChatGPT在内的工具的开发,以考虑竞争和消费者保护。人工智能开发人员被要求证明符合五项总体原则:

  • 安全性、保障性和稳健性
  • 适当的透明度和可解释性
  • 公平
  • 问责制和治理
  • 争议与补救

据该机构称,审查结果将于2023年9月初公布。