跳转到主要内容

人工智能(AI)技术已经出现多年,但关于人工智能监管的立法行动一直是随意的、零碎的,而且至关重要的是,往往完全缺乏。为了解决这个问题,拜登政府发布了一项关于人工智能的安全、可靠和值得信赖的开发和使用的行政命令,该命令概述了对偏见和歧视、劳动力流离失所和地缘政治竞争的担忧的雄心勃勃的回应。

EO被解读为一种猎枪式的方法,尽可能多地确定人工智能主题。事实上,EO是一个有用的步骤,但其组成部分可能会在法庭上受到质疑。此外,有些规定不是强制性的。例如,联邦机构不需要采用国家标准与技术研究所的安全人工智能框架。还需要立法支持。

美国国会一直在举行一系列峰会和听证会,承认人工智能的变革影响和建立护栏的必要性。已经提出了一系列法案,但接受度参差不齐,立法也不全面。至关重要的是,许多涉及人工智能的政策领域完全缺失。例如,在目前的法案中,对外交事务的重视相对较少。一系列法案往往侧重于表面层面的立法,通常不涉及数据中心、硬件,甚至“人工智能堆栈”中的上游商品节点

当然,缺乏政治行动在一定程度上是两极分化的结果。然而,即使在行政部门,拜登政府也在争论加强安全监管是否会损害扼杀创新。对于未来的政策制定者来说,人工智能监管是一项艰巨的任务:这些技术的开发、实施和使用进展迅速。对于一个不“了解”人工智能的人来说,它将显得不可思议的神秘。

“SETO循环”

需要一个关于如何系统地思考人工智能的清晰的理论框架,以将其纳入背景并推动立法。在最近一份关于这一主题的出版物中,我们认为,正在考虑制定这一法规的政策制定者应该遵循我们所说的“SETO循环”

  • 范围(Scope)。解决基于人工智能的精确、特定技术的出现所带来的精确、具体的监管问题。保护的对象是个人、国家、市场还是人类本身?
  • 跨节点的现有法规(Existing regulation across nodes)。现有法规在哪些方面未能解决这一问题?哪些节点需要监管?
  • 工具(Tool.)。什么工具最适合改善这个问题?全面禁令、税收和惩罚、蓝图操纵、信息披露还是自愿规则?
  • 组织(Organization)。谁应该制定这些规定?这些法规将如何适应,以何种速度适应?

首先,确定人工智能监管的过程应该由问题驱动。

监管并非没有成本,这既是因为人工智能创新的经济效益,也是因为围绕人工智能的地缘战略竞争。政策制定者应该利用能够揭示风险的专业知识——风险对谁、风险有多严重以及风险有多大可能。他们目前正在通过一系列“人工智能洞察”峰会采取这一步骤,这些峰会是一项数据收集活动。

其次,政策制定者应考虑现有法规是否涵盖这些技术。

新技术不一定意味着新法律。例如,1976年的《版权法》已被证明在面对新技术时具有弹性;它只是以新的方式被解读。美国版权局一直坚持认为,文本到图片的人工智能无权获得版权保护,因为它不是人类作者的产品。

我们注意到,虽然监管处于人工智能“堆栈”(或供应链)的前沿,但在许多监管条例中,通常很少提及人工智能产品的上游监管。例如,尽管先进芯片已经成为拜登政府的目标,但没有监督机制来阻止进一步的上游商品(例如,用于制造半导体芯片的一种成分镓)落入恶意行为者手中。

组织灵活性可以通过利用“混合”监管市场来实现:即认证机构参与监管,但由政府实体管理认证监管机构的市场。例如,信用评级机构采用这种模式——在美国证券交易委员会的监督下,它们授权穆迪等机构对债务进行评级。尽管这些可能很灵活,但批评者所说的2007年金融危机期间困扰信用评级机构的同样问题可能会再次出现,一些劣质债务将被夸大评级。

第三,根据问题或风险,政策制定者应考虑一系列可能合适的潜在监管工具。

人工智能技术涉及面很广,从医疗机器人到战场定位,再到书写助手。一种监管工具不适合所有人。相反,根据所讨论的具体人工智能技术,工具几乎肯定会有所不同。像意大利在2023年春季试图对ChatGPT实施的全面禁令一样,对生成人工智能几乎没有意义。这些技术正在迅速普及,因此禁令是徒劳的。同样,像美国对违反出口管制的行为所做的那样,罚款对生成型人工智能来说也是毫无意义的,因为这项技术并不近乎非法,鉴于数字边界的漏洞,禁令或罚款也不具有可执行性或实用性。我们在《雇佣条例》中看到了更具创造性的“混合”监管计划的迹象。EO表示:“测试和评估,包括部署后的性能监测,将有助于确保人工智能系统按预期运行……”但它没有提到更具创造性的第二方认证市场。

第四,政策制定者应根据他们如何处理前三个参数,确定政府内部的适当组织。

特别是美国是联邦化和去中心化的,这可以发挥人工智能监管的优势,这将需要根据具体技术及其风险制定不同类型的政策。例如,联邦贸易委员会在人工智能、内容创建和隐私问题上发挥着积极作用。国防部将更适合处理战场自主权问题。在某些情况下,国际协调甚至机构间协调可能适合在各国建立和执行标准。某些形式的监管可能最好在现有组织内实现(例如,在联合国附属机构内建立的标准研讨会),而另一些形式的监管则可能完全需要新的组织(即,租用计算能力来训练前沿人工智能模型的“了解你的客户”要求的全球报告框架)。随着英国人工智能安全峰会的结束,很明显,国家之间在国家间人工智能治理方面至少存在一些名义上的友谊——立法者应该知道,SETO中的“O”可能包括国际组织和双边论坛。

前进的道路

随着政策制定者对包括人工智能行业本身在内的不断呼吁进行人工智能监管的呼声做出回应,他们明智的做法是考虑一种系统的方法。人工智能技术发展迅速,这意味着今天的草率监管可能会导致明天的监管过时。它们在经济和战略上也很有价值,这意味着扼杀创新的监管可能会使美国相对于中国处于相对劣势。

监管可能是有害的,这不仅仅是因为放弃创新的潜在机会成本;这一点在许多人工智能创新者所在的美国背景下尤为突出。它的危害还包括各级政府之间潜在的协调问题,以及不可行或不可能实现的监管成本。一个循序渐进的战略,从确定范围开始,然后是现有的监管,然后是潜在的工具,最后是适当的组织,将为制定问题并试图为决策者解决问题的庞大而抽象的任务增加结构。