跳转到主要内容

ChatGPT时刻在数字时代前所未有地引起了人们的关注。这一点在ChatGPT破纪录的使用以及广泛的公众对话中表现得很明显,不仅来自几乎每一位可以想象的评论员,也来自许多餐桌周围。这些天,当我提到我在一家人工智能政策智库工作时,我得到的后续信息是,“你对ChatGPT有什么看法?”

关注的海啸也体现在政策制定者急于证明他们已经达到了这一变革门槛之上。2023年5月4日,白宫召集主要首席执行官与副总统卡玛拉·哈里斯和高级职员会面,并在乔·拜登总统来访的同时,敦促他们对人工智能开发负责。在此次活动的同时,还宣布了在下一届DEF CON会议上对大型语言模型(LLM)进行众包测试,以及管理与预算办公室对联邦机构采用人工智能的指导,以及对白宫关于偏见的行政命令、人工智能权利法案和其他先前关于人工智能的行动的回顾。两周后,白宫发布了一系列额外的举措,这次的重点是研发、教育和收集更多的公众意见。

在宾夕法尼亚大道的另一端,参议院多数党领袖查克·舒默迅速宣布,他正在进行人工智能立法工作。不久后,他前往参议院,报告组建一个两党小组领导这项工作的情况。6月21日,他发表了一次政策演讲,概述了“全面”人工智能立法的“安全创新框架”,重点是美国领导层在人工智能方面的创新。这一重点通过呼吁将安全(广义上包括经济安全)、问责制、国家价值观,以及可能最重要的是,提高人工智能模型的可解释性来平衡。舒默计划通过一系列“洞察论坛”来充实他的框架,这些论坛将汇集各领域的专家,探讨参议院正常委员会程序之外(但同时)的主要人工智能问题。

近年来,人工智能的快速发展提出了许多关于人机交互的问题——从随着机器学习变得越来越复杂,如何控制人工智能的基本问题,到生成型人工智能能力产生的一系列社会政策问题,包括如何调整教育和知识工作(包括智库研究人员的工作)及其对虚假信息和民主的影响。为了解决其中一些问题,人工智能系统的开发人员、政策制定者和公民需要更多地了解系统的运行及其风险和收益。正如参议员马丁·海因里希(D-NM)所说,“这将是一件复杂的事情。”

不过,人工智能政策并非白手起家。对于有助于提高对人工智能系统、其操作及其效果的理解和判断的措施,人们达成了一些共识。算法的透明度、问责制和公平性是大多数人工智能治理框架和监管提案的接触点。《自然》杂志2019年的一项人工智能伦理指南和原则调查确定了全球84个此类框架。其中,73项反映了某种程度的透明度;68年的“公正与公平”;以及60中的“责任”(其他共同点是行善和防止伤害)。到目前为止,国会的提案也遵循了类似的路线。披露算法的用途和基础是Sen,Schumer框架的一个重要元素。在这方面,一项早期且有影响力的法案是参议员罗恩·怀登(D-OR)和众议员伊维特·克拉克(D-NY)最初于2019年提出的《算法问责法案》,该法案侧重于根据人工智能系统对个人的潜在影响,对被定义为“高风险”的人工智能系统进行“算法影响评估”。

隐私立法预计会出现算法问题

关键的隐私立法包括关于算法问责制和公平性的条款,从第116届国会参议员Maria Cantwell(华盛顿州民主党)和Roger Wicker(密歇根州共和党)的主要参议院法案开始。第117届国会两党通过的《美国数据隐私和保护法案》(ADPPA)就是建立在这些基础上的。2022年7月,众议院能源与商业委员会以53票对2票的投票结果公布了ADPPA,但在年底的跛脚鸭会议上没有进入众议院。它很可能会在本届国会重新引入,并成为国会在人工智能问题上有所作为的工具。

在我自己的工作中,我之前曾指出要制定全面的隐私立法来解决竞争和内容问题,因此我可能会被指责将隐私立法视为解决每一个看起来像钉子的技术问题的锤子。我并不是说隐私立法可以解决新兴人工智能提出的所有问题。但全面的隐私立法早就应该出台了,与其他正在展开的问题不同,ADPPA提供了一种工具,经过几年的工作和辩论,它已经在立法过程中取得了长足的进步。事实上,在本届国会中,众议院能源与商业委员会于3月和4月专门就隐私立法举行了听证会,这是连续三届国会中的最新一届。个人信息的收集、使用和共享是许多令人关注的技术应用的基础,ADPPA包含了解决人工智能治理其他重要方面的条款。

我并不是唯一一个建议将隐私立法作为隐私本身以外问题的补救措施的人。在众议院能源与商业部创新、数据和商业小组委员会今年的第一次听证会上,关于“加强美国的竞争力并击败中国”,委员会正式主席兼高级成员Cathy McMorris Rodgers(华盛顿州共和党人)和Frank Pallone(新泽西州民主党人),小组委员会主席兼高级委员Gus Biilakis(佛罗里达州共和党人和伊利诺伊州民主党人Jan Schakowsky)及其代表。Lisa Blunt Rochester(D-DE)、Neal Dunn(R-FL)和Lori Trahan(D-MA)都呼吁ADPPA作为必要的回应,目击者Samm Sacks和Brandon Pugh也是如此。今年3月,当TikTok首席执行官周寿在委员会面前作证时,一长串成员指出,Tik Tok收集的数据量是一个更广泛的网络问题的一部分:罗杰斯、帕隆、比利拉基斯、罗切斯特和特拉汉的代表理查德·哈德森(R-NC)、凯特·卡马克(R-FL)、凯西·卡斯托(D-FL)、比尔·约翰逊(R-OH)、伊维特·克拉克(D-NY)、杰伊·奥伯诺尔特(R-CA)、格雷格·彭斯(R-in)、,Anna Eshoo(D-CA)和Dan Crenshaw(R-TX)。在2023年5月与OpenAI首席执行官Sam Altman举行的参议院听证会上,隐私问题也被提了出来。参议员Marsha Blackburn(R-TN)、Richard Blumenthal(D-CT)和Jon Ossoff(D-GA)呼吁国会推进在线隐私和数据安全立法,Altman也是如此。来自福布斯、斯坦福大学HAI和国际隐私专业人士协会的评论员也加入了这些声音。皮尤研究中心表示,美国人民也担心人工智能对他们隐私的影响。

ADPPA包含几个有助于解决人工智能问题的重要条款。首先,该法案将对个人信息的收集、使用和共享设置界限,要求此类过程与提供产品或服务或其他列举目的所需的“必要且相称”。正如我之前所写的,这种界限有助于将人工智能的力量限制为“通过将个人信息的分析提高到新的力量和速度,以侵犯隐私利益的方式使用个人信息的能力。”事实上,数据治理——其来源、质量和道德使用——对人工智能治理框架至关重要。值得注意的是,随着基础模型的推出,欧洲和加利福尼亚州的隐私和数据保护监管机构已经介入,探索个人数据的来源和使用。

其次,ADPPA包含一项突破性条款,通过禁止以歧视的方式使用个人信息,加强对数字领域民权法的保护。正如去年发布的白宫人工智能权利法案所说,算法与自动化系统中的偏差问题“有很好的记录,糟糕的算法设计或不具代表性的培训数据可能会将历史上的不平等嵌入影响就业、住房、医疗保健以及刑事司法等生活的环境中。人工智能权利法案附带的情况说明书呼吁联邦机构应用现有法律和机制来解决住房、就业、ment和其他机会。ADPPA的民权条款将加强这些努力。

第三,ADPPA的民权部分也包含了关于算法评估和问责制的规定。这将需要涉及人工智能指导方针和框架关键要素的算法评估。尽管如此,可以通过提高人工智能系统的透明度和问责制来改进规定。下一节将探讨如何将这些元素纳入ADPPA的2022算法规定。

为ChatGPT时刻调整隐私立法

正如众议院能源和商业委员会2022年7月报告的那样,ADPPA第207条规定了两个不同的算法评估层次。首先,“大型数据持有者”(年总收入为2.5亿美元或以上,数据来自500万或以上个人或设备的实体)将被要求进行更广泛的“影响评估”。这些评估必须在颁布后的两年内进行,此后每年进行一次,详细说明设计、使用、培训数据、产出和列举的风险。其次,所有其他涵盖的实体都必须进行更全面的“设计评估”,涵盖算法的“设计、结构和输入”,并解决大型数据持有者影响评估所列举的相同风险。影响评估和设计评估都必须向联邦贸易委员会提交,并可选择公开这些评估的摘要。鉴于对人工智能的担忧日益突出,应更新这些规定,要求相关实体向公众提供有关算法决策的信息,并澄清所涵盖的算法和风险以及衡量结果的必要性。

涵盖的算法和实体

根据该法案的条款,对大型数据持有者的算法影响评估要求(第207(c)(1)条)适用于任何“对个人或个人群体构成相应伤害风险,并单独或部分使用此类算法决策来处理所涵盖的数据”的算法决策。“更普遍适用的“设计评估”要求(第207(c)(2)条)适用于任何“间接”算法决策。大数据持有者条款列举了要避免的潜在危害,而设计评估条款则引用了这一列举。即便如此,“后果性”本身也过于模糊,因为从语言中不清楚算法决策包含了什么。

ADPPA包含“覆盖算法”的定义。它的意思是:

一种计算过程,使用机器学习、自然语言处理、人工智能技术或其他类似或更复杂的计算处理技术,并就[个人信息]做出决定或促进人类决策,包括确定产品和服务的提供或排名、订购或推广,推荐、放大或类似地确定向个人传递或显示信息。

这种语言改进了可能包含几乎所有用于辅助人类决策的计算的版本,甚至像Excel电子表格一样常规,但它仍然过于宽泛。例如,当推荐引擎在产品推荐中产生令人反感的歧视,或导致儿童和青少年陷入有害内容的兔子洞时,推荐引擎就会受到关注,但并非每次使用都是如此。与其将“后果性”的含义留给关于算法评估的实质性规定,“覆盖算法”的定义本身应详细说明“后果性”的含义,以明确算法评估和问责规定的要求是算法决策后果的函数,而不是算法本身的任何使用。

该定义应包括第207(c)(1)(B)(vi)条中确定的具体伤害类别,这些类别确定了应考虑的背景和后果,如获得住房、就业和医疗保健。然而,额外的总括性语言应该涵盖这些类别所属的更广泛的危害范围。例如,欧盟的《通用数据保护条例》规定,对对个人具有“法律效力或类似重大影响”的自动决定实行人工审查权。但“同样重要”也是宽泛而含糊的;它可以用“机会和经济、社会和个人福祉”等语言来澄清。这将涵盖列举的类别,但也包括其他影响生活的应用程序。

此外,对任何“促进”人类决策的算法工具的关注也过于广泛,因为这可能会波及到涉及大量人类代理的决策。加利福尼亚州议会第331号法案(AB 331)在2023-24年会议上提出,其中包含了更好的语言:它将包含一个算法过程,这是一个重要决策中的“控制因素”。

设计评估条款的范围存在异常。它涵盖了“故意开发”涵盖算法的涵盖实体或服务提供商。根据其条款,这只关注算法的开发者,而不是使用另一个实体开发的算法过程的覆盖实体。这引发了与加利福尼亚州AB 331和欧盟拟议的《人工智能法》有关的软件价值链责任分配问题,并似乎排除了可能产生后果的用途。信息隐私立法不应解决整个价值链中的此类义务,而应适用对“使用”涵盖算法的涵盖实体进行设计评估的义务。在这种情况下,评估设计、结构、输入和输出的能力可能会受到限制,但一些这样的调查是迈向负责任的人工智能系统的必要步骤。

评估范围

自去年7月ADPPA生效以来,美国国家标准与技术研究所于2023年1月发布了其人工智能风险管理框架(AI RMF)的1.0版。该框架提供了一个识别人工智能风险的概念框架,以及一套评估和管理这些风险的组织流程。该框架明确旨在进行迭代,而不是一刀切。应考虑NIST AI RMF,重新考虑ADPPA中的风险评估和设计评估要求。例如,为了避免设计评估条款一刀切,它可以考虑到所涉及实体的规模和复杂性以及数据的数量和敏感性,与其他一些ADPPA条款(第101(c)节(数据最小化指南)、第103(b)节(设计隐私)、第203(g)节(个人控制条例),以及208((a)(2)(数据安全))。

最重要的是,算法评估的要素应该更明确、更明确地包含测量。在木工中,格言是“量两次,切一次”。对于人工智能来说,格言需要是量、量、量,再量。正如我在布鲁金斯学会的同事Nicol Turner Lee与Paul Resnick和Genie Barton合著的那样,“算法操作员和开发人员始终要问自己:我们会因为算法的设计或其意外后果而让某些群体的境况变得更糟吗?”(原文强调)。这需要进行审计或测试,以确保人工智能系统按预期运行,减轻潜在危害的措施正在发挥作用,并且机器学习的适应不会造成不良结果。测量是NIST RMF的核心功能之一(以及管理、映射和管理),该功能建议“人工智能系统应在部署前和运行中定期进行测试”(重点增加)。ADPPA关于影响评估范围的规定(第207(c)(1)(B)节)提到了“产出”,但应明确其评估应包括部署前后的产出测量。

类似地,设计评估的语言应该倾向于将测量作为评估的一部分。该条款(第207(c)(2)条)应在“所涵盖算法的设计、结构和输入”中添加“和预期输出”

ADPPA应将NIST RMF纳入算法评估和设计评估,作为指导参考(尽管不是合规安全港)。这可以通过一项条款(第207(c)(4)条)来暗示,该条款规定“与商务部长协商”发布联邦贸易委员会(FTC)关于第207条合规性的指导意见,商务部长可以委托NIST驾驶。明确的参考将有助于推动NIST RMF的采用以及标准和实践的发展,为合规性和执行提供信息。由于NIST RMF将不断迭代和交互更新,因此它比通常的机构规则或指南更具动态性。

披露

ADPPA的评估规定将要求大型数据持有者记录正在评估的人工智能系统的许多特征(第207(c)(1)(B)条),并将这些信息纳入其向联邦贸易委员会提交的报告中。其他涵盖的实体也必须提交其设计评估。然而,向公众提供这些信息是完全可选的。

这忽略了人工智能透明度的一个重要因素。如上所述,透明度是道德和值得信赖的人工智能框架的一个主要元素,包括NIST风险管理框架。ADPPA有一个关于透明度的章节(第202节),其中规定了必须披露的有关所涵盖实体收集和使用个人信息及其隐私做法的信息。这些披露还应包括基于此类数据的算法决策信息——此类用途和决策的性质以及它们所基于的数据和逻辑。

虽然一小部分人可能会查看此类信息,但与在联邦贸易委员会查阅报告相比,他们更容易获得这些信息。此外,当实体的行为与其披露的不符时,发表这些公开声明可能会使联邦贸易委员会有权打击不公平和欺骗性行为。从平台内容审核到人工智能可解释性等一系列技术应用程序的透明度问题,存在着广泛的争论。参议员爱德华·马基(D-MA)提出了《算法正义和在线平台问责法案》来解决其中的几个问题。但是,至少,涵盖个人信息收集、使用和共享并要求披露这些信息的隐私立法应包括披露个人信息用于算法决策的情况,这些决策可能会影响作为该信息主体的个人。

***

要理解和应对人工智能系统的挑战,还有很多东西需要学习。如果没有这样的理解,生成人工智能提出的一些重大问题就无法得到充分的回答。但确保算法透明度和问责制的有效措施在隐私立法中,有助于为这场讨论提供信息,减轻重要风险,并为人工智能最有可能对个人产生影响的一些应用提供基线。

文章链接