Il 战争的未来 它可能涉及先进的人工智能(AI)算法,具有评估情况和攻击敌人的能力和权威 没有人类的控制
看起来就像是《终结者》和《黑客帝国》这样的科幻电影中的场景。 先进的技术,可以在武装冲突中释放战争机器人,从而处理事情。
在电影中,人工智能最终总是攻击人类。 在现实生活中,人工智能可以帮助军队执行人类控制会减慢任务速度的行动。一个明显的缺点是敌人可以采用同样先进的技术。
而到底谁会用战争机器人来攻击AI呢?始终是人类。
自己决定的战争机器人的未来
五角大楼正在研究允许人工智能根据预设需求自行采取行动的战斗场景。
去年八月,西雅图附近举行了一次此类演习。
数十架军用无人机和战争机器人 类似于坦克 他们的部署任务很简单:寻找涉嫌躲藏在不同建筑物之间的恐怖分子。
操作人员无法控制所涉及的战争机器人的数量。 为此,他们收到了在必要时寻找并消灭敌方战斗机的初步指示。 然后他们离开了。
自动战技术测试
此次模拟演习由美国国防高级研究计划局(DARPA)管理,并未涉及真实武器。取而代之的是无人机和机器人用来模拟与敌对实体交互的无线电发射器。
无人机和战争机器人大约有一个大背包那么大。他们由设计攻击计划的人工智能算法进行协调。
一些战争机器人包围了建筑物,其他则进行了监视。 一些人确定了敌人,另一些人则被模拟爆炸物摧毁。
这只是众多人工智能演习之一,旨在模拟军事系统中的自动化,这些演习的情况过于复杂和快节奏,人类无法做出决定。
五角大楼希望战争机器人来决定
一份报告 《连线》杂志解释说,五角大楼越来越有兴趣赋予自主武器一定程度的执行命令的自由。
人类仍然会做出高层决策,但人工智能可以比人类更好更快地适应实地情况。
另一份报告 国家人工智能安全委员会(NSCAI)的专家在今年XNUMX月建议美国抵制要求国际禁止发展自动武器的呼吁。
这不是可行的做法。 它在形式和实质上都是不人道的。 与核武器一样,其他军队也可以使用美国为无人机和战争机器人提供动力的算法。
机器人启示录
麻省理工学院教授表示:“任何恐怖分子可以获得的致命自主武器不符合任何国家安全利益。” 最大Tegmark, 生命未来研究所,它是反对自动武器的非营利组织。
对他来说,战争机器人和人工智能武器应该“像生物武器一样受到污名化和禁止”。