跳转到主要内容

尽管目前的宣传和主流采用水平很高,但在走上生产力峰值之路之前,第二代人工智能仍需要经历幻灭的低谷。

生成人工智能的快速采用和民主化被比作灯泡,灯泡在近150年前对电力也是如此。1879年,也就是在电力发明(1831年)几十年后,它的发明为大众和企业带来了实际的用例,生成型人工智能也在为人工智能做同样的事情。

当技术从实验室转移到日常生活中时,主流采用通常依赖于越来越强大且经过验证的初始用例。随着如此迅速的采用,人们对可能的艺术感到兴奋。这也是为什么在Gartner的炒作周期中,第二代人工智能正处于预期膨胀的顶峰的部分原因。

事实上,ChatGPT在去年仅两个月后就获得了超过1亿的月活跃用户,其在技术采用生命周期中的地位超过了其在宣传周期中的位置。我们正处于主流采用阶段(现在近一半的普通人群正在使用第二代人工智能),但我们仍处于预期膨胀的顶峰。因此,仔细观察,我们可能仍处于生成人工智能的闪光时刻,灯泡时刻仍在到来。这并不是一件坏事。

在生成人工智能的世界里,我们正在发现计算机是如何以令人惊讶的方式出错的。当我们将第二代人工智能应用于公共和私人数据时,我们正在实时学习哪些有效,哪些无效

以下是首席信息官的五条建议,以引导生成性人工智能的炒作周期,并为从幻灭的低谷到启蒙的斜坡的快速过渡做好准备。

与客户、员工和利益相关者保持现实

在宣传第二代人工智能和相关解决方案的变革性质的同时,一定要指出其缺点。咨询公司和技术供应商经常夸大第二代人工智能的变革力量,但很少关注其缺点。尽管,公平地说,许多人正在努力帮助解决这些问题,并提供各种平台、解决方案和工具包。

实事求是意味着了解利弊,并与客户、员工和高管层的同事分享这些信息。他们也会感激你的坦诚。列出一份权威的缺点清单,以便能够清楚地解释和理解。正如人工智能顾问所指出的,一些缺点包括黑匣子问题、人工智能容易受到误导的人类论点、幻觉的影响,等等。

制定公司使用政策

正如我在前面的一篇文章中提到的,企业使用政策和相关培训可以帮助员工了解技术的一些风险和陷阱,并提供规则和建议,以最大限度地利用技术,从而在不使组织面临风险的情况下实现最大的商业价值。在制定您的政策时,请确保包括所有相关的利益相关者,考虑当前在您的组织中如何使用第二代人工智能,以及未来如何使用它,并在整个组织中广泛共享。你会想让政策成为一份活的文件,并根据需要以适当的节奏进行更新。制定这项政策有助于防范与合同、网络安全、数据隐私、欺骗性贸易行为、歧视、虚假信息、道德、知识产权和验证有关的许多风险。

评估每个用例的业务价值

在纯文本输出的情况下,我们倾向于相信第二代人工智能的答案,因为它们写得很好,语法也很好。从心理学上讲,当人工智能一代实际上不了解什么是真的或假的时候,我们倾向于相信幕后有强大的智慧。

虽然第二代人工智能有一些优秀的用例,但我们需要逐一审查每一个用例。例如,第二代人工智能通常不擅长撰写技术预测。输出经常告诉我们一些我们已经知道的东西,也可能是抄袭的。即使使用重写或改写工具也会使情况变得更糟,团队最终可能会花费比自己编写预测更多的时间使用这些工具。最好选择你的战斗,只在有明显好处的情况下使用第二代人工智能。

保持严格的测试标准

由于第二代人工智能很可能被您组织中的大量员工使用,因此重要的是培训和教育员工了解利弊,并将您的企业使用政策作为出发点。随着第二代人工智能的大量采用,我们都是有效的测试者,边走边学习。

在您的组织内部,无论是在IT部门还是业务部门,在投入使用之前,一定要强调并留出相当长的时间进行测试和实验。建立内部实践社区,让员工分享经验和教训,也有助于提高整体意识,并在整个组织中推广最佳实践。

为技术出现问题制定计划

我们从长期存在的英国邮政局丑闻中看到,即使是非人工智能系统也会犯下严重的、改变人生的错误。当我们错误地认为这些系统是正确的时,可能会导致数百名工人成为错误的目标。在英国邮政局的案件中,700多名邮政局长在15年的时间里被错误地指控欺诈,导致名誉受损、离婚,甚至自杀。

因此,当人工智能出错时,制定一个计划是至关重要的。您的公司使用策略设置了护栏,但当出现问题时,IT的治理流程如何监控并应对这种情况?有计划吗?您的治理过程将如何区分正确或错误的答案或决定?当出现错误时,会对业务产生什么影响?纠正错误的容易程度或困难程度如何?

生成型人工智能将有它的灯泡时刻,它不会太远,但直到我们首先度过幻灭的低谷,登上启蒙的斜坡,最终到达生产力的高原。沿途的煤气灯、实验和学习都是这个过程的一部分。