跳转到主要内容

人工智能的主导地位对经济发展、军事控制和战略竞争力至关重要,这一信念加速了各国的人工智能发展举措。国家战略计划的发布伴随着数十亿美元的投资以及吸引相关人才和技术的具体政策。在我们之前的文章“不同国家如何看待人工智能”中,我们根据对34个国家人工智能战略计划的分析,简要介绍了各国政府对人工智能的规划。我们的帖子涵盖了人工智能计划的描述,并根据其对各种相关概念的涵盖范围对国家进行了分类。在这篇文章中,我们详细介绍了各国人工智能计划变化的原因。

这些文件提供了有关每个国家计划使用人工智能的信息,以及这些信息表明各国对人工智能的优先事项。例如,一些计划提到使用人工智能进行武器化,而另一些计划则谴责人工智能战争;一些捕捉到了伦理框架设计的细节,而另一些则很少或根本没有提供关于如何确保人工智能治理的线索。正确解释这些信号的能力有助于各种内部和外部利益相关者,如公民、非政府组织(经合组织、联合国等)、其他国家和政策分析师预测人工智能的未来轨迹。例如,印度的人工智能计划通过提及“在公民适当知情同意的情况下,这些匿名数据可以共享用于人工智能和数据分析”(印度人工智能计划,2018)来表示对公众同意的担忧。同样,法国的人工智能计划强调设计中的道德,“在工程师培训之外,人工智能算法的开发必须充分考虑道德因素”(法国人工智能计划,2018)。

然而,并不是所有的信号都是平等地产生的,并且信号的意图和可信度可能不同。这与购买二手车类似:二手车卖家可能会说一辆车非常可靠,但随后却以远低于市场价值的价格提供。这种非故意(无意)信号表明汽车可能存在未公开的问题。同样,二手车销售商可能会说这辆车非常可靠,但随后拒绝对这辆车提供任何形式的机械保修,这证明信号不可信。

同样,国家人工智能计划中的信号也需要解释。正确解读信号可以让读者理解这个国家的动机,比如为什么某些国家计划武器化,或者有些国家更关心人工智能的伦理。信号可以启发人们理解人工智能发展的真正驱动力。我们将信号分为四类:

  • 传统信号——既刻意又真实。传统信号的一个例子是,一项计划提到了医疗保健领域人工智能研究的准确投资额。
  • 无意的披露信号——传递真实的信息,但不是故意发送的。一个例子是,一个国家计划在基础设施上投入大量资金,这表明人们认为该国在这方面存在不足。
  • 机会主义的信号——不是真的,而是故意发出的。一个国家可能会说它打算将人工智能用于公共服务,但实际上打算将其用于基于战争的系统。
  • 混合信号——无意中传输虚假信息。人工智能计划中混合信号的一个例子是宣布在人工智能系统中使用匿名公共数据,但未能做到这一点。

评估计划

我们分两步进行分析。首先,我们研究了确定其既定结果的计划,并根据政府类型(如民主或独裁)寻找差异。结果数据是制定国家人工智能战略的目标或结果。我们确定了五个结果:人工智能研究、人工智能数据、算法伦理、人工智能治理和人工智能在公共服务中的使用。

研究结果表明,加强人工智能研究获取人工智能系统开发所需的数据是所有国家最广泛接受的结果。发布人工智能计划的国家集团表明,建立人工智能研究能力和数据可访问性是实现其他成果的必要先决条件。

算法伦理和人工智能治理在各国表现出了多样性。民主国家在解决算法伦理和治理问题方面领先威权国家。然而,在民主国家中,技术环境不成熟的国家比技术环境成熟的国家更有可能解决道德和治理问题。我们推测,这反映了各国在这些问题上缺乏“追赶”的经验。这些国家包括新西兰、印度、立陶宛、西班牙、塞尔维亚、捷克共和国、墨西哥、意大利和乌拉圭。这些发现还表明,在这一领域技术落后的国家之所以关注道德和治理,不仅是因为它们落后了,还因为它们正在建立法律框架,以防止人工智能的外部使用,并确定其内部发展的方向。这一策略虽然令人钦佩,但可能会减缓人工智能从其他国家的传播,因为这些国家没有意识到道德和治理方面的考虑。

最后,研究结果表明,一些国家尽管声称有兴趣将人工智能用于公共服务,但缺乏支持性的背景因素。这让人们对在国家层面采用人工智能是为了提高公民的生活质量这一经常被提及的目标的有效性产生了怀疑,并表明其他动机更有可能。

预期结果

在第二步中,我们试图了解如何解释计划中的陈述,并根据它们的意图(它们是有意说什么吗)和真实性(它们所说的有其他证据支持)对其进行评估。如果人工智能计划中给出的一条信息与上下文条件一致,我们将其称为经过验证的信息。

基于我们的分析结果,我们开发了五个结果的意向性和准确性矩阵。前两个结果,人工智能研究和数据,被放在一个深思熟虑的、高准确性的象限中,因为各国表达了发展能力的意图,这些结果的产生也受到了背景条件的验证。同样,算法伦理和人工智能治理也受到上下文条件的验证,但信息的意图不是故意的(没有在计划中表达,而是在上下文条件中发现的)。民主国家有意展示人工智能在公共服务中的使用,但这些信息没有经过上下文条件的验证,因此被置于故意和低真实性象限。威权国家使用人工智能的意图被无意中描绘出来,但信息的准确性很低,因此被归为最后一个矩阵(无意和低准确性信号)。

    Signal Veracity  
    High Low
Signal Intention Deliberate

Research

Data

Public Services

(democratic)

  Inadvertent

Algorithmic Ethics

Governance

Public Services

(authoritarian)

由于人工智能的地缘政治随着技术的进步而发生变化,意想不到的趋势开始出现。研究结果表明,民主国家对人工智能的伦理和治理表现出了更大的关注。然而,在这些民主国家中,技术环境不太成熟的国家更关心人工智能以人为中心的使用。这一现象直接表明,仅仅发展人工智能的能力和系统不足以实现可持续部署。还需要通过伦理和治理问题实现以人为中心的人工智能。这一见解预示着一种新趋势的开始,即人工智能主导地位的竞争将逐渐被可持续的平衡所取代。人工智能的长期部署有可能得到公众的信任,并加强人们的信念,即技术的存在是为了服务人类,而不是由人类服务。

在很多方面,对人工智能的狂热与19世纪美国的向西扩张相似,当时许多人和公司跨越平原,在美国西部建立前哨基地。表面上,定居者声称这样做是为了实现美国将教育、技术和现代化带到“未开化的西方”的命运,但现实是,许多定居者的动机远没有那么无私。我们在国家人工智能战略中看到了这种情况,因为这些计划反映了竞相实现人工智能的各种光荣目标,但计划的意图和准确性存在重大差异。就像向西扩张一样,来自美国东部的定居者受到各种经济激励,搬到遥远的西部地区。这与通常超越国家法律或伦理约束的人工智能治理、伦理和公平的努力形成了类比,这些努力需要遏制技术创新的前沿。向西扩张最终结束,但也并非没有许多重大冲突和冲突。与“狂野的西方”一样,人工智能的竞赛规模太大,无法由一个国家甚至一组国家来管理,在局势得到解决之前,很可能会发生巨大的动荡。

 

文章链接