跳转到主要内容

英国政府对微软、OpenAI、谷歌和Meta自愿提交审查的模型的评估仍存在许多问题。

主要的人工智能公司已告知英国政府加快其系统的安全测试,这引发了人们对未来政府举措的质疑,这些举措也可能取决于技术提供商在新版本发布之前开放生成人工智能模型进行测试。

 

英国《金融时报》发表的一篇报道援引与这些公司关系密切的消息人士的话称,OpenAI、谷歌DeepMind、微软和Meta等公司已同意允许英国新成立的人工智能安全研究所(AISI)对其模型进行评估,但他们对目前的评估速度或透明度不满意

消息人士称,尽管如果AISI发现其技术存在缺陷,它们愿意修改模型,但这些公司没有义务根据测试结果更改或推迟技术的发布。

报告称,这些公司对AISI评估的抵制包括希望了解正在进行的测试的更多细节、需要多长时间以及反馈过程将如何运作。还不清楚是否每次对模型进行轻微更新时都需要提交测试,人工智能开发人员可能会觉得这太麻烦了,无法考虑。

模糊的过程,模糊的结果

人工智能供应商的保留意见似乎是有效的,因为评估实际工作的细节是多么模糊。随着其他政府考虑类似的人工智能安全评估,目前对英国流程的任何困惑只会随着更多的政府机构对人工智能开发者提出同样的自愿要求而加剧。

据英国《金融时报》报道,英国政府表示,通过与各自开发商的合作,人工智能模型的测试已经开始。报道称,该测试基于对有能力的人工智能模型进行部署前测试的访问,甚至是未发布的模型,如谷歌的Gemini Ultra,这是公司在11月英国人工智能安全峰会上签署的关键协议之一

消息人士告诉英国《金融时报》,测试的重点是与滥用人工智能相关的风险,包括网络安全和越狱——即制定提示诱使人工智能聊天机器人绕过护栏。报告称,根据最近公布的英国政府合同,逆向工程自动化也可能是测试标准之一

周三,记者无法立即联系到人工智能公司和AISI置评。

其他政府关注人工智能监管

上述11月峰会的成果被称为《布莱切利人工智能安全宣言》(the Bletchley Declaration on AI Safety)(布莱切利是峰会所在地),根据该宣言,来自全球的28个国家同意通过确保以安全、负责任的方式开发人工智能,了解并共同管理潜在的人工智能风险。

到目前为止,世界各国政府已经启动了具体的举措和机构来监测人工智能的发展,人们越来越担心其发展速度,并将其交给技术企业,而技术企业可能更关注底线和创新,而不是全球安全。

美国,美国人工智能安全研究所,据其网站介绍,该研究所旨在帮助“装备和授权合作建立一种新的测量科学”,以确定“经验证、可扩展和可互操作的技术和指标,促进安全可靠的人工智能的开发和负责任的使用”由于该测试框架尚未开发,该研究所目前正在为其任务寻找合作者。

澳大利亚也表示,将很快成立一个专家咨询小组,评估和制定人工智能研发的“强制性护栏”选项。它还与行业合作,制定一项自愿的人工智能安全标准,以及对人工智能生成的材料进行自愿标记和水印的选项,以确保更大的透明度。

与美国和澳大利亚的那些新兴举措相比,欧盟成为第一个引入一套全面法律以确保人工智能用于人民的经济和社会利益的地区。

正如英国《金融时报》报道的那样,英国首相里希·苏纳克的使命是让英国成为一个领导者,承担人工智能快速崛起的生存风险。这可能会为英国目前对人工智能模型的测试提供信息,但这将如何影响其未来发展还有待观察。