尽管世界越来越令人着迷(e 有点着迷)来自人工智能的进步, 爱德华·斯诺登 发出了似乎违背常理的警告。这位前中央情报局承包商因揭露大规模监视实践而闻名,他将注意力从“富有表现力”的人工智能模型转向了更加切实和直接的威胁: 杀手无人机 和战斗机器人。
人工智能聊天机器人的干扰
谷歌Gemini事件中,人工智能聊天机器人在生成相关图像方面表现出局限性,甚至拒绝生成任何图像,引发了激烈的争论。即使在今天,埃隆·马斯克还在他的社交网络上对谷歌的技术发起谩骂,谷歌的技术“罪有应得”,因为它通过复制黑人乔治·华盛顿来传播唤醒理论和神秘化历史。
对于斯诺登来说,这些争议只是无稽之谈:分散了人们对真正危险的注意力。他公开批评那些热衷于用安全过滤器“破坏”人工智能聊天机器人的人的态度,他们忽视了对全球安全的更具体的威胁。考虑到这些相同的组织(尽管他们有明显的道德规范),它可能有助于创造威胁 它们也向军事实体开放。
斯诺登:确定你的优先事项
斯诺登认为,在思考现代社会的优先事项时,与现实存在严重脱节。虽然公众舆论和专家的很大一部分关注人工智能的局限性和危险,但武装无人机和军用机器人等更危险的技术已经成为现实。
后者与“对话式”聊天机器人不同,它已经具备了杀人的能力。相反: 他们已经杀了,已经被用于各种冲突,并引发了更严重的道德和法律问题。 我们应该关注什么?
AI“保护”的讽刺。
斯诺登表示,关于人工智能的争论已经过时了。陷入言论自由与监管潜在有害内容的需要之间的冲突。然而,斯诺登开玩笑说,这种“保护”的目的是限制人工智能的能力,而不是安全地扩展它们。
的情况 谷歌双子座 被引用作为这种矛盾的一个典型例子。
人工智能聊天机器人管理是否被视为对言论自由或数据安全的威胁?军用无人机的使用对人类生命构成更直接的威胁:必须重新调整公众和政治辩论的方向 这些致命的技术。
剧透:斯诺登适合我
斯诺登的演讲(如果您想了解更多信息,可以在这里找到)打开了一扇窗户,让我们看到在人工智能激烈辩论中经常被忽视的现实。他的批评不仅限于技术本身,还延伸到社会及其优先事项。他用一种在讽刺和严肃之间摇摆的语气,邀请我们思考我们真正应该害怕什么,我们应该真正对抗什么。
斯诺登提醒我们,还有更紧迫的挑战和危险需要我们立即关注。直接影响生命和死亡的危险,在全球技术和安全辩论中应该占据重要地位。就说这一次,10多年后 从那之后,我们再听一下好吗?