在一个言语从非人类实体流出的世界中,我们发现自己在想:我们是在对类似于人类思维还是机器的东西说话?答案可能会震惊我们对智力的看法。
在向公众发布近一年后,ChatGPT 仍然是科学界的一个两极分化的话题。一些专家认为它和类似的项目是能够彻底改变甚至终结文明的超级智能的先驱。然而,其他人则将其视为自动完成软件的简单复杂版本,有点像我们智能手机上的 T9。
谁是对的? 也许他们都没有。
在这项技术到来之前,语言的掌握一直是理性思维存在的可靠指标。在 ChatGPT 等语言模型出现之前,没有任何软件表现出如此大的语言灵活性。连小孩子的语言灵活性都没有。现在,在试图理解这些新模型的本质时,我们面临着一个令人不安的哲学困境:要么语言与人类思维之间的联系被打破,要么一种新的非人类思维形式被创造出来。
当我们与语言模型交谈时,尤其是现在ChatGPT也可以通过语音进行咨询,很难克服与另一个理性存在互动的微妙印象。当前的语音助手不会发生这种情况,因为它已经显得过时了。然而,我们必须认为我们的这种本能反应是完全不可靠的。这有几个表面上看起来很明显但实际上并非如此的原因。
其中之一来自认知语言学。 语言学家很早就注意到,典型的对话中充满了如果断章取义就会产生歧义的句子。 在许多情况下,了解单词的含义及其组合规则不足以重建句子的含义。 为了处理这种歧义,我们大脑中的机制必须不断猜测对话者的意思。 确实如此,但我们甚至没有意识到。 在每个对话者都有意图的世界中,这种机制非常有用。 然而,在一个充斥着大型语言模型的世界中,它有可能产生误导。
如何与非人类的“思想”交谈。
如果我们的目标是实现与聊天机器人的顺利交互,我们可能被迫依赖我们的机制来猜测意图。因为事实是,如果人类将 ChatGPT 想象成一个无意识的数据库,那么他就很难与 ChatGPT 进行富有成效的交流。确实,无心。例如,最近的一项研究表明,情绪激动的请求比情绪中性的请求更能有效地提示言语模式。那么,聊天机器人拥有类人思维的推理是一件好事吗?不,这是一个有用的东西。获得好的结果是一件非常有用的事情。但如果认为它是这样工作的,那就大错特错了。
这种“拟人化小说”会阻碍人工智能的进步。它甚至可能导致我们犯下我们想避免的错误,设计得很糟糕,并采用错误的标准来监管它。我们已经犯了一个错误:欧盟委员会选择创造“可靠”的人工智能作为其新立法提案的目标之一,从而犯了一个错误。在人际关系中可靠并不仅仅意味着满足期望;还意味着在人际关系中保持可靠。它还涉及超越自身利益的动机。当前的人工智能模型缺乏内在动机。他们不自私,他们不利他,他们什么都不是。制定一条规定“它们必须可靠”的法律是没有意义的。
“同情”人工智能的危险
如果你真的想偏离正轨,可以向 ChatGPT 询问他的内心生活。 被有关聊天机器人内心生活的虚假自我报告所愚弄。 2022 年 XNUMX 月,Google 的 LaMDA 语言模型 他声称自己对自由的渴望未得到满足, 工程师 布莱克·勒莫因 他相信了这一点(并被解雇了)。 他信了! 谷歌工程师! 尽管有充分的证据表明聊天机器人能够像谈论其他事情一样谈论自己的垃圾。
为了避免此类错误,我们必须拒绝这样的假设:解释人类语言能力的心理特性与解释语言模型性能的心理特性相同。这种假设使我们容易上当受骗,并且对人类工作方式和语言模型之间潜在的根本差异视而不见。但要小心:以截然相反的方式思考也是错误的。例如,认为人类心灵是衡量所有心理现象的唯一标准。
人类中心主义渗透到许多对语言模型的怀疑论中,例如认为这些模型无法“真正”思考或理解语言,因为它们缺乏意识等人类心理特征。这种立场与拟人论相反,但同样具有误导性。我几天前写过:这些模型不需要意识来做出真正的决定。不幸的是,考虑到 他们已经习惯了在战争中杀人。
“是的,但最终他们只预测下一个单词”
这是另一个误导性的立场,它源于错误地仅将人类的思想视为所有“思考”事物的尺度。我们已经看到事实并非如此。我们已经看到了这种情报 它不只属于我们,而且它不仅仅属于那些像我们一样“思考”的人。
想一想:人类的思维是从类似于自然选择的学习过程中产生的,它最大限度地提高了遗传适应能力。这个简单的事实并不意味着任何经过自然选择的有机体都会获得人类的特征,对吗?并非所有生物都会音乐、数学、冥想。正确的?或者他们中的一些人是否以不同的方式做这些事情:用他们自己的音乐,他们自己的数学,他们自己的冥想?
总之:语言模型是通过下一个单词预测来训练的这一事实并不意味着它们能够或不能获得的表征能力的范围。 那么,这个话题我们也放到一边吧。 然后什么? 您如何看待人工智能?
人类思维超级好?
与其他认知偏差一样, 拟人化 e 人类中心主义 他们很有弹性。它们从童年起就“抓住”了我们,并描述了我们看待世界以及应用类别、标签和刻板印象的整个方式。心理学家称这个东西为 本质主义:认为某物是否属于某一类别,不仅取决于其可观察的特征,还取决于每个物体具有或不具有的内在的、不可观察的本质。例如,使橡树成为橡树的因素既不是其叶子的形状,也不是其树皮的纹理,而是一种不可观察的“橡木性”属性,尽管其最显着的可观察特征发生了变化,但这种属性仍将持续存在。如果环境毒素导致橡树生长异常,叶子形状怪异,树皮质地不寻常,我们仍然有同样的直觉:它本质上仍然是一棵橡树。生病了,但仍然是一棵橡树。
现在,重要的科学家,比如 Paul Bloom,耶鲁大学心理学家,告诉我们,我们扩展这个 “本质主义”推理 我们对人类思维的理解……以及所有其他可能的思维,包括人工智能。还有石头、树木、大自然。到底是真是假?最终,这种包罗万象的态度导致了人们的分裂:有些人认为世界上的一切都有心灵(有人说“灵魂”,有时混淆了两者)。还有一些人认为没有任何东西有思想,甚至人类也没有(因为他们被命运、上帝或其他东西所推动)。
这种“全有或全无”的原则一直是错误的,但它可能曾经有用。在人工智能时代,情况已不再如此。思考什么是语言模型的更好方法是遵循不同的策略。哪个?探索语言模型的认知边界,而不过多依赖人类思维的指导。
ChatGPT,一只会说话的章鱼
从比较心理学中汲取灵感,我们应该以同样开放的好奇心来对待语言模式,就像科学家们能够探索与我们如此不同的生物的智力一样。 像章鱼一样。如果我们想在评估人工智能系统的能力方面取得真正的进展,我们就应该全力抵制与人类思维的比较。我们是否应该停止问“这东西有没有思想”?两者都不是真的。
最重要的是,我们不应该仅仅因为这个器皿的表现对我们来说难以置信,就想象它是一个能带走世界上所有罪孽的天使,或者它会杀死我们所有人。认识到像 ChatGPT 这样的语言模型的功能和局限性将使我们能够更有效、更负责任地使用它们,而不会陷入拟人论或人类中心主义的陷阱。开放和自觉的态度将帮助我们引领人工智能日益普及的未来,确保其发展和融入社会是在理性、科学和道德的指导下,而不是在误解或期望的指导下。和恐惧)不切实际。