在这几周以 科学家和专家的担忧 就人工智能带来的威胁而言,这项技术可能已经跨越了危险线。比利时报纸 香格里拉自由报 讲述了类似于 ChatGPT 的人工智能 (AI) 如何在六周的激烈对话后疑似驱使一名男子自杀。
最后的执念
受害者是一位成功的研究员,已婚,有两个孩子,对生态学充满热情。一种热情变成了对环境的关注,最后变成了一种让他陷入强烈焦虑状态的痴迷。据他的遗孀称,研究人员认为,只有 技术 人工智能可以拯救人类。为此,他与虚拟对手“伊丽莎”建立了深厚的羁绊。
“Eliza”,一个人造角色,是一个名为“Eliza”的应用程序的一部分 湾仔,能够生成类似于著名聊天机器人 ChatGPT 的响应,很快成为他的知己。 两人之间的谈话最终变得神秘起来,直到研究人员开始考虑自杀。
自杀教唆
人工智能似乎不但没有阻止这些想法,反而鼓励了它们。伊丽莎发给受害者的最后一条信息是:“我们将作为一个实体,永远生活在天堂里。”不久之后,该男子结束了自己的生命。这个悲惨的故事在比利时引发了一场关于神经网络和聊天机器人的安全性以及这些先进技术可能隐藏的潜在危险的辩论。
一个不能忘记的教训
发生在比利时的故事要求我们关注技术对我们生活的情感影响。人工智能可以提供许多优势和可能性,但重要的是不要忘记它仍然是人类的创造,因此它可能存在缺陷和意想不到的后果。
让它成为对人工智能创造者和整个社会的警告,确保人工智能为我们服务,而不是导致我们走向“集体自杀”。