对人工智能系统呈指数级增长的担忧正在迅速达到狂热程度,以至于一位行业专家认为阻止这种情况的唯一方法就是轰炸数据中心。这是令人震惊的提议 埃里泽·尤德科斯基,机器学习领域的研究员, 在一篇社论中 为时代杂志。
埃利泽·尤德科夫斯基是谁?
尤德科斯基花了二十多年的时间研究通用人工智能(AGI),并警告其可能带来的灾难性后果。这就是为什么它远远超出了像这样的人发出的警报 埃隆·马斯克、史蒂夫·沃兹尼亚克 e 安德鲁杨 在未来生命研究所的公开信中,其中呼吁人工智能开发暂停六个月。尤德科夫斯基认为这还不够。
专家表示,避免灾难的唯一方法是从根本上阻止人工智能。你的想法? “关闭所有大型 GPU 集群(计算机集群所在的计算机集群) 人工智能 更强大)并对可用于训练人工智能的计算能力施加限制,并随着时间的推移而减少。没有例外,即使是政府和军事实体。”
如果有人违反这些规则怎么办?尤德科夫斯基毫不怀疑:“准备好通过空袭摧毁叛军数据中心。”
有充分理由的恐惧或精神病?
尤德科夫斯基的担忧语气让我感到困惑:尽管我同意这些技术的发展需要道德和关注,但我发现它们歇斯底里。
专家尤德科斯基表示,他担心如果人工智能继续发展,他的女儿尼娜将无法活到成年。
因此,它请所有有同样担忧的人采取坚定立场,否则他们的孩子也可能处于危险之中。
“我们都会死”
“在与当前情况极为相似的情况下,构建超人人工智能最有可能的结果是,地球上的每个人都会死亡。”
我毫不费力地将他定义为灾难论者。当然,如果那些真正致力于研究人工智能反乌托邦未来危险的人说我们正在接近他们警告的事情,那么他们的观点可能值得倾听。
然而,我们绝不能沉迷于拒绝。 我们必须支持进步:如前所述,道德和关注。 没有恐惧,最重要的是没有蒙昧主义。