人工智能的爆发和经典的“教派”划分 崇高的 和 灾难论者 (有些平衡从来没有)重新引发了关于人工智能伦理的争论。老实说,这个话题已经存在了几十年。自从“机器人”这个词被提出以来,人们就一直在问如何限制机器,以免它们毁灭人类。你是否记得?阅读有关阿西莫夫的故事,然后就可以开始了。
艾萨克·阿西莫夫的著作和他的定律
它们是反思如何限制技术的最著名的例子。艾萨克·阿西莫夫的机器人定律在故事《Runaround》或《我,机器人》等作品中被纳入所有人工智能中作为一项安全措施。
有人自欺欺人地认为他们会以某种方式在现实中工作,或者启发了类似的解决方案。 不是那样的,我会简而言之:阿西莫夫定律不是真实的,也没有办法在现实中实施。 它们已经是废纸了,正如 Midjourney 也向您展示的那样。
你还记得他们吗? 我们要复习吗?
阿西莫夫定律有四个:
- 第一定律: 机器人不能伤害人类,或者因不作为而让人类受到伤害。
- 第二定律: 机器人必须服从人类的命令,除非这些命令违反第一定律。
- 第三定律: 机器人必须保护自己的存在,前提是这种保护不违反第一或第二定律。
阿西莫夫最热情的读者也知道有第四定律,于 1985 年随小说《机器人与帝国”。叫做 零法则 读起来是这样的:
机器人不能伤害人类,也不能因不作为而让人类受到伤害。
艾萨克·阿西莫夫
现在忘了他们吧。
尽管艾萨克·阿西莫夫 (Isaac Asimov) 在 40 世纪 XNUMX 年代就开始写作和推理,但他根本不明白有必要用特定的法则对人工智能进行编程,以防止它们造成伤害。他还意识到这些法律将会失败。
拉普里玛 对于过于复杂而无法简单回答是或否的伦理问题。 第二 就其本质而言是不道德的:它要求有情众生成为奴隶。 拉特萨 因为它涉及永久的社会分层,具有大量潜在的剥削。 和 零律? 它自己失败了,和所有其他人一起失败了。
总而言之:阿西莫夫定律代表了思考人工智能伦理的一个有趣的起点,但现实世界需要更具体和适应性更强的解决方案。
哪一个?
专家们正在通过不同方向的探索来努力确保人工智能的安全和道德。主要有4个:
- 透明度和可解释性: 算法应该是透明且可解释的,以便用户能够理解人工智能如何以及为何做出某些决策。
- 人的价值观和偏见: 人工智能系统的设计应尊重人类基本价值观并减少不必要的偏见。这包括对不同数据集进行训练以及分析人工智能做出的决策对不同人群的影响。
- 安全可靠: 这是不言自明的。 必须避免发生故障或网络攻击的风险。
- 控制与责任: 重要的是要确定谁对人工智能执行的操作负责,并在出现问题时分配后果。
这些“新阿西莫夫法则”(不是阿西莫夫法则)必须加上全球法规和道德标准:这就是为什么我们需要在人工智能的发展方面进行国际合作,而不是宗派主义。
人工智能“之父”之一杰弗里·辛顿(Geoffrey Hinton) 他定义 人工智能被誉为“新原子弹”。我不同意, 我并不孤单。 然而,它可能成为其中之一,这将是我们的错,而不是人工智能的错。特别是如果我们首先将其视为对抗他人的“俱乐部”。
拜读阿西莫夫,再见。 新法,抓紧时间
第一 自动驾驶汽车确实:半自主已经具备了不经意间杀人的“力量”。事实上,像杀手无人机这样的武器甚至可以杀死人 自主行动。让我们明确一点:人工智能目前无法理解法律,更不用说遵守法律了。
对人类行为的模仿尚未得到很好的研究,理性行为的发展主要集中在有限和明确的领域。两个非常严重的缺点,因为它们将允许有感知的人工智能(目前,我强调, 不存在 尽管 比他们说的 它的 pygmalions 我们不知道它是否会存在)来解释任何迹象。 最后,用两个简单的词来说,失控了。
为此,我不知道我们还有多少时间。一年,十年,永恒。我知道,就像阿西莫夫定律一样,需要有人解决如何防止人工智能伤害人类的问题,而且现在就要做。
天网只是虚构的,但在虚构中它让我们无法逃脱。 你知道:科幻小说并不能预测未来,但它常常会激发未来。