跳转到主要内容

虽然“以人为中心的设计”的概念在技术领域并不新鲜,但近年来,人们越来越努力构建包容性人工智能(AI)和机器学习(ML)产品。广义上讲,包容性的AI/ML是指在非AI/ML开发团队成员的积极参与和输入下创建的算法系统。这包括系统的最终用户和受系统影响的非用户。✳ 为了收集这些投入,从业者越来越多地转向参与实践,如用户体验研究和参与式设计。

随着人们对社会结构不平等的认识不断提高,接受包容性的研究和设计原则有助于表明对公平做法的承诺。正如许多支持者所指出的那样,这也有利于良好的商业:了解更多样化人群的需求可以扩大特定产品或服务的市场。一旦参与,这些人就可以进一步改进AI/ML产品,识别算法系统中的偏见等问题。

然而,尽管有这些好处,在人工智能/机器学习领域更广泛地采用包容性发展仍然存在重大挑战。还有重要的机会。对于人工智能从业者、人工智能伦理研究人员和其他有兴趣了解更多负责任人工智能的人来说,这份人工智能伙伴关系(PAI)白皮书提供了指导,以帮助更好地理解和克服与利益相关者参与人工智能/ML开发相关的挑战。

围绕“包容”的含义和目标的歧义是人工智能/机器学习包容努力面临的核心挑战之一。为了实现以公平为中心的更具包容性的人工智能所需的变革,该领域必须首先就包容性的基本前提达成一致。认识到这一点,本白皮书为基于最佳实践的道德参与提供了四项指导原则:

  • 所有的参与都是一种劳动形式,应该得到认可
  • 利益相关者的参与必须解决固有的权力不对称问题
  • 包容性和参与性可以在开发生命周期的所有阶段进行整合
  • 包容和参与必须与其他负责任的人工智能原则的应用相结合

为了在实践中实现道德参与,本白皮书还提供了三项与这些原则相一致的建议,以建设包容性人工智能:

  • 分配时间和资源促进包容性发展
  • 在发展开始之前采取包容性战略
  • 培养对道德的综合理解

这篇白皮书的见解来源于“迈向包容性人工智能:公众参与人工智能发展的挑战和机遇”的研究。该研究借鉴了与行业专家的讨论、对利益相关者和公众参与的现有研究的多学科审查,以及对人工智能从业者和研究人员以及数据科学家的近70次采访,用户体验研究人员以及从事人工智能和ML项目的技术人员,其中超过三分之一的人来自美国、欧盟、英国或加拿大以外的地区。对社会公平和多样性、公平与包容(DEI)倡导者的补充采访有助于为个体从业者、商业团队领导者以及更广泛的人工智能和ML领域制定建议。

本白皮书没有为实施具体的参与性做法提供循序渐进的指导。它旨在重新讨论如何将更广泛的见解和经验融入AI/ML技术,包括用户和受这些技术(直接或间接)影响的人的见解和体验。必须在个人、团队内部和组织内部进行这样的对话,以推动发展真正具有包容性的人工智能所需的变革。

文章链接