我们可能还没有赶上 通用人工智能(AGI),但根据理论领域的一位领先专家的说法,它可能比我们想象的要早到来。根据计算机科学家和专家的说法 本·格特策尔虽然人类或超人类水平的人工智能不太可能在 2029 年或 2030 年之前建成,但最早可能在 2027 年实现。
这一前景既令人着迷,又令人不安,面对智能机器的崛起,它对人类的未来提出了深刻的问题。
通用人工智能的不确定性
Goertzel 是 SingularityNET 的创始人,他非常清楚 AGI 发展中的未知因素。 “目前还没有人创造出人类水平的通用人工智能;没有人清楚地知道我们何时能实现这一目标,”他在最近的一次会议上告诉观众 他参加了,在巴拿马。
然而,尽管存在这些不确定性,戈策尔认为人类水平的通用人工智能是合理的 到2027年可以实现,并且无论如何不迟于 2032 年。这一预测如果成真,将对我们的未来产生深远的影响。
从AGI到超级智能
戈策尔认为,一旦实现通用人工智能,真正的挑战就开始了。他补充道:“我的观点是,一旦达到人类水平的 AGI,几年后你就可以实现根本超人的 AGI,除非 AGI 因其自身的保守主义而威胁到你的发展。”
这个想法是,一个能够内省自己“思想”的人工智能可以在人类或超人水平上进行工程和科学,在递归自我完善的过程中创造出越来越先进的智能。
这是“智能爆炸”的概念,通常与技术奇点联系在一起。
专家预测
戈策尔并不是唯一一个在他的预测中预见到通用人工智能出现的人,他也不是第一个。此外,预测正在逐渐趋同。 杰弗里·欣顿被称为“人工智能教父”的谷歌前员工去年 5 月表示,他“不确定”地预计 AGI 会在 20 到 30 年后出现。他之前的预测是50-XNUMX年。
谢恩·莱格,谷歌联合创始人 DeepMind重申了他十多年前的预测,即到 50 年人类有 2028% 的机会发明 AGI。 保罗·帕拉吉最后,甚至认为2028年通用人工智能是确定的,并且有可能实现 即使在 2026 年。
尽管谨慎,但预测表明专家们对这一目标的接近程度日益达成共识。
语言模型的进展
直到几年前,戈策尔和他的同事所描述的通用人工智能似乎还只是一个白日梦。但随着 OpenAI 推出 ChatGPT 以来在大型语言模型 (LLM) 方面取得的进步 在2022的末尾,这种可能性似乎越来越近了。 Goertzel 很快指出,仅凭 LLM 并不能带来 AGI,但不可否认的是,它们代表了朝这个方向迈出的重要一步。这些系统以日益复杂的方式理解和生成自然语言的能力是人类水平智能出现的基本先决条件。
人工智能的局限性和风险
当然,人们对戈策尔的宣讲有很多保留意见。按照人类的标准,即使是超人的人工智能,也不会有像我们这样的“思想”。另一方面,存在主义恐惧与一种完全优于我们的智慧的出现有关,并且能够在各个领域超越我们。
我们如何确保这样的实体拥有 道德感 符合人类价值观并为我们的利益而行动?
AGI,走向不确定的未来
尽管有这些保留,戈策尔的理论仍然令人着迷,不能完全被质疑,特别是考虑到近年来人工智能的快速发展。无论 AGI 是在 2027 年、2030 年还是更远的将来到来,人类迟早都会发现自己面临着人类水平或更高水平的人工智能。
面对这一前景,我们有必要深入思考通用人工智能和超级智能的影响。潜在的好处和风险是什么?我们如何引导这些技术的发展为人类带来积极成果?在我们不再是智力巅峰的世界里,我们对人类意义的理解将如何改变?
这些问题没有简单的答案,但我们必须开始提出问题并寻找解决方案。通用人工智能和超级智能的出现可能是人类有史以来面临的最大考验。希望我们作为一个社会能够共同克服它。