2025年到2028年之间的任何时间。这是一个时间窗口 达里奥·阿莫代,Anthropic 的首席执行官和“爸爸” 克劳德艾,预测AI模型可以实现自主复制和生存的能力。这是一个令人震惊的声明,它出自创造最强大、最“负责任”人工智能竞赛的主角之一。在 访问 在《纽约时报》上,阿莫迪将人工智能的发展与病毒学实验室的生物安全水平进行了比较,警告说,如果没有“负责任的扩展”,该技术可能很快就会获得自主性和极大的说服力,对全球安全产生令人震惊的影响。
与生物安全水平的类比
为了解释他的愿景,阿莫迪使用了一个有力的类比:病毒学实验室的生物安全级别 (ASL)。据 Anthropic 首席执行官介绍,我们目前在人工智能开发方面处于 ASL 2 级。但包括“自主”和“说服”在内的 ASL 4 级可能即将到来。
在滥用方面,ASL 4 将更多地允许国家行为者大幅增强其能力,这比允许随机的人实现这一点要困难得多。如果朝鲜、中国或俄罗斯能够利用人工智能显着提高其在各个军事领域的进攻能力,从而获得巨大的地缘政治优势,那将令人担忧。
达里奥·阿莫代
而正是在“自治”这一边,阿莫代的预言变得更加令人震惊。
这些模型的各种版本都非常接近能够在野外复制和生存。
达里奥·阿莫代
当采访者询问这位意大利裔美国研究人员需要多长时间才能达到这些不同级别的威胁时,阿莫迪(他说他倾向于“指数级”思考)表示,“复制并生存”的水平可以在“之间的任何地方达到”。 2025 年和 2028 年”。 “我在这里谈论的实际上是不久的将来。我说的不是 50 年后的事,”Anthropic 首席执行官强调道。 “上帝赐予我贞洁,但不是现在。但“不是现在”并不意味着当我老了、头发花白的时候。我认为这可能是短期的事情。”
人为的、有分量的话语
考虑到阿莫代在人工智能领域的领导作用,他的话尤其重要。 在2021之后,他和妹妹 Daniela 在帮助创建 GPT-3 并看到与微软的合作关系后,由于对公司方向的分歧而离开了 OpenAI。不久之后,兄弟俩与其他前 OpenAI 员工一起创立了 Anthropic,目标是继续努力“负责任地扩展”人工智能。
“我可能错了。但我认为这可能是短期的事情。”尽管这些词具有不确定性,但听起来却像是一个不容低估的信号。
在人们对人工智能的担忧似乎与日俱增的背景下,阿莫迪的观点(凭借他在行业内的高度特权优势)进一步强调了对这种颠覆性技术进行负责任治理的必要性。面对首席执行官所设想的场景,Anthropic 的使命“确保变革性人工智能帮助人们和社会繁荣发展”似乎比以往任何时候都更加紧迫。如果人工智能模型真正接近实现自主复制和生存的能力,特别是通过加速其“进化”,这要归功于实施例,他们的发展必须以道德原则和责任为指导。
我已经知道你在想什么
这是我在报道人工智能各种“Capataz”的言论时经常收到的反馈。奥特曼、马斯克以及现在的阿莫迪正在努力开发他们有时认为非常危险的东西。为什么?你们中的许多人写信给我说这是营销:“咆哮”,甚至是危言耸听的,都会引起人们对公司和产品的关注。仿佛在说,“嘿,我们正在处理这种致命的病毒,但要知道我们会非常小心地做,因为我们非常关心。”
或许。当然,阿莫代的预测显得危言耸听、夸大其词。但在像人工智能这样快速发展的领域,进展呈指数级增长,明智的做法是为最极端的情况做好准备。无论是防止国家行为者(所有人,不仅仅是阿莫迪奥点名的国家行为者,因为“最干净的人都会遇到麻烦”)对人工智能的恶意使用,还是确保模型不会逃脱人类的控制,挑战都是巨大的,需要公司、政府和民间社会的共同努力。
阿莫代的话尽管具有推测性质,但必须成为加速对这些关键问题的辩论和行动的动力。当然,这场辩论的“球”不能只属于人工智能开发者本身,而应该属于整个公民社会。实际上,我们首先开始: 我们越早开始越好。