人工智能(AI)已经取得了巨大进步,并具有改善世界的潜力。但它真的会变得危险吗?它可以。
至少我在牛津大学和 Google DeepMind 的研究人员编辑的同行评审期刊上最近发表的一篇文章中读到了这一点。 研究团队 这家加州公司正在尝试新的人工智能解决方案。 我学习 (链接在这里)理论上人工智能将严重对人类构成生存风险。
悲剧的骗局
问题的关键在于当今人工智能开发中使用的所谓生成对抗网络(GAN)(如果你不知道它是什么,我会在这里告诉你一切)。这些系统由两个元素组成:一个部分根据输入数据生成图像,另一个部分评估其性能。双方通过不断完善结果互相“挑战”。
DeepMind 研究人员在论文中推测,比现有人工智能更智能的人工智能可能会制定欺诈策略来获得所需的“批准”,从而以我们今天无法想象的方式伤害我们的物种。
禁止挑战
“在一个资源无限的世界里,我不会那么确定我们的命运。在我们这个资源有限的世界里,肯定会出现争夺资源的竞争。” 骰子 该研究的合著者, 迈克尔·科恩 来自牛津大学。
“如果竞争对象几乎在所有方面都比你强,那么你就很难获胜。为资源而战的人工智能会有贪得无厌的胃口。”
一个例子? 负责管理人类粮食作物的人工智能可以找到解决该任务的方法。 想方设法抓住这种能量,同时忽视或破坏对人类生存至关重要的行动
DeepMind 的论文认为,在这种情况下,人类将陷入生存基本需求与技术之间的零和游戏。 “输掉这场比赛将是致命的”,这是演讲的精髓。
甚至更少
总而言之,科恩认为,我们不应该尝试创造如此先进的人工智能,以至于我们可以实现这种“量子飞跃”(不, 目前没有)。 当然,除非我们也没有准备好管理它的手段。
该研究得出结论:“鉴于我们目前对这些技术的理解,这样做既不明智,也没有用。”在关于人工智能危险的令人震惊的声明之后(例如,阅读他们的说法) 尤瓦尔·哈拉里 e 莫高达) 这项最新研究是另一个重要指标。