这篇文章是 Linkedin 时事通讯“Periscopio”的一部分,每周都会深入研究 Futuro Prossimo 主题,并提前在 LinkedIn 平台上发布。如果您想订阅并预览, 在这里找到它。
华盛顿邮报上周六 报告了声明 6 月 XNUMX 日,一名 Google 工程师因违反帕洛阿尔托公司的保密协议而被停职。本质上,工程师 Blake Lemoine 在他自己和人工智能聊天机器人之间传播“私人”聊天,这将展示许多专家相当担心的事情:这个人工智能将变得有知觉。
这些是来自行业专家而不是任何人的强烈声明。它们是在与尖端且前所未有的人工智能系统进行数百次交互后呈现的。 拉曼达. 但这是真的吗? 这个AI真的有感知力了吗?
我们在谈论什么呢
LaMDA 代表“对话应用程序语言模型”。它是经过大量数据训练后可以响应书面请求的人工智能系统之一。
通过以越来越像人类的方式写作,系统在回答问题方面变得越来越好。 就在去年五月,谷歌自己展示了 LaMDA 在他的官方博客上 称她“能够就无数主题进行写作”。
是的,但它是有感觉的吗?
在工程师发表声明后,谷歌试图通过否认《华盛顿邮报》上的采访来火上浇油。 Big G 昨天写道:“我们的团队审查了布莱克的担忧,并告诉他,证据并不支持他的说法。”几位人工智能专家对此表示赞同:一些人坚决反对这一论点,另一些人则用它作为我们倾向于将人类属性分配给机器的例子。
可以这么说,有点像我们与老鼠争论。
然而,这不是玩笑。 这种事不能就这样被驳回。 而不是为了人们的恐惧 伊利亚·萨茨克维尔(Ilya Sutskever) (“人工智能正在变得有知觉”), 尤瓦尔·哈拉里 (“人工智能将能够攻击人类”),或 莫高达 (“人工智能研究人员玩的是创造上帝”).
相信谷歌的人工智能可能是有感知的,这一点非常重要,因为它凸显了我们对这项技术潜力的恐惧和期望。
然而,就目前而言,这是一个错误的信念
经过大量数据训练的先进计算机程序的开发和使用引起了许多道德问题。然而,在某些情况下,进展是根据可能发生的事情而不是当前可实现的事情来判断的。
目前,世界上几乎所有领先的 IT 专家都认为,只有一个结论:不,谷歌的人工智能根本就没有感知能力。它只是看起来更擅长将语言模式与它在几乎无限的句子仓库中找到的类似事物相匹配。
您必须将其视为智能手机上自动完成软件的超级强大版本。好的:超级超级超级强大。然而,任何人都不应该将其与有感知能力相混淆。
然而,这些天来,正是 AI 开发人员正在发挥作用,这让人们感到震惊。 他们的声明,部分是由于首先看到这项技术的潜力而感到震惊,部分也是为了推广他们,在媒体上引起了极大的共鸣。
谷歌的人工智能没有感知能力
上周 布莱斯·阿奎拉·阿卡斯,谷歌研究部副总裁, 他在《经济学人》的一篇文章中写道 当他去年开始使用 LaMDA 时,他越来越感觉自己正在与某个聪明的东西交谈。这是可以理解的惊讶,甚至是微妙的恐惧。
然而,目前,LaMDA 已经就人工智能原理进行了 11 次不同的审查过程。 她还接受了许多关于她提出基于事实的主张的能力的测试。 任何事物。 它不是有感觉的。
这并不妨碍遵循伦理和道德开发人工智能的需要。老实说,有些人是这么说的 开发出直接配备道德的人工智能,但那是另一回事。
如果研究人员真正关心这项技术的进步,他们的主要职责不是将其表现拟人化。最重要的是,不要过度惊动舆论,如果有的话,保持警惕,以便一旦有实际证据表明自我意识的火花就能够“踩刹车”。
如果有的话。 你说什么?