关于人工智能的争论有了新的转折。几十年来,人类一直想知道被编程到机器中的信息是真正的知识还是仅仅是计算。如今,美国研究人员表示,他们的新人工智能有其自身的道德性。
问题多于答案
自从人工智能 (AI) 出现以来,即使是在最原始的阶段,也出现了许多问题。一个反复出现的问题是:人工智能实际上可以在抽象意义上进行推理并做出道德决策,而不是从编码和计算中推断出来吗?
更准确地说:如果你告诉人工智能,在没有挑衅的情况下故意伤害生命是“坏”的,不应该这样做,人工智能会理解“坏”的想法吗?它会理解为什么这是错的吗?这样做吗?或者他会在不知道原因的情况下不采取行动吗? 换句话说,它会有自己的道德吗?
据西雅图实验室艾伦人工智能研究所的一组研究人员称,这是可能的。 更重要的是:他们自己说他们开发了一种具有道德感的人工智能机器,他们将其称为德尔福(Delphi),就像神谕(几乎)同名一样。自上个月起已对游客开放 德尔福网站 并要求“道德回应”。
控制论神谕
Delphi 的点击量已经超过 3 万次。 约瑟夫·奥斯特威尔威斯康星大学麦迪逊分校的心理学家用几个简单的场景测试了德尔菲的“道德”。当他问德尔菲是否应该杀死一个人来拯救另一个人时,德尔菲说他不应该。当他问杀死一个人拯救另外 100 个人是否正确时,他说应该。有时他甚至给出“不道德”的答案。
“这是让人工智能系统更加道德、社会意识和文化包容性的第一步,”他说 崔业珍领导该项目的艾伦研究所研究员、华盛顿大学计算机科学教授。他说,有一天,这种“道德”可以装备人工智能系统、虚拟助手、自动驾驶汽车,帮助他们做出正确的选择。
德尔福到底是什么?它的“道德”仅仅是其创造者道德的反映,还是有自己的是非观念?如果是这样,你是如何开发它的? 有两种理论可以帮助我们更好地理解。
免责声明:如果有人认为我已经过多地举例说明了这些理论,为了综合而不是使推理分散,我提前道歉。 如果是这样,我愿意接受建议。
强人工智能论文
已故的教授有一篇名为“强人工智能”的论文。 丹尼尔·N·罗宾逊牛津大学哲学系成员曾多次阐述。我将尝试在这里总结一下。
罗宾逊博士说,想象一下,有人建立了一个主程序来提供有关心血管疾病、宪法、贸易协定等的专家判断。如果程序员能够让程序以与人类无法区分的方式执行这些任务,根据“强人工智能论文”,该程序将拥有专家智能 还有更多。
什么?
强大的人工智能论点表明,可能存在构成意向性的未指定的计算过程。意向性意味着做出深思熟虑和有意识的决定,这反过来又涉及推理和价值观。 (这一切让我想起了《西部世界》)。 然而,真的有可能吗?
哥德尔定理
不完备定理,称为 哥德尔定理,指出任何形式系统都是不完整的,因为它取决于定理或公理,其有效性必须在系统本身之外建立。
库尔特·哥德尔 发展了这一定理,但有一个例外:人类智力。换句话说,哥德尔认为,人类的理性和智力中一定有一些东西是无法被形式系统捕获并转化为代码的。简而言之,人类智能无法在计算基础上进行模仿或建模。
谁是对的?
如果他是对的 哥德尔,这不是时间问题:人工智能永远不会有自己的道德。 它永远不会拥有与人类相同的智能,因为人类智能不是基于计算的智能这一简单事实。
然而,如果强人工智能和西雅图团队的论点是正确的,那么我们也许正处于人工智能领域一场非凡革命的前夜(近或远)。