人工智能(不管别人怎么说)还没有吞噬人类,也没有获得意识。但它正在逐渐掌管我们的时代和我们的规则。
虚拟助理在我们自己的家里偷听我们的谈话。算法决定了我们的信息视野、雇用的人员以及要谴责的罪犯。它们的使用有道德界限吗?越来越微妙和混乱。危险的混乱。
十二月项目案例
这看起来像是查理布鲁克的杰作系列《黑镜》中的一集,该系列调查了技术的“失败”以及它们可能产生的反乌托邦场景。不仅仅是任何一集:特别是 2013 年播出的一集。对于该系列的爱好者来说,它被称为“回到我身边”、“马上回来”。然而,这不是小说,而是现实。
几个月前 (我在这里告诉过你) 一名 33 岁的男子,名叫 约书亚·巴博 使用名为 Project December 的服务创建了一个对话机器人(聊天机器人),可以模拟与他已故女友 Jessica 的对话。
通过这个聊天机器人,巴博与人造“杰西卡”交换了深情的短信。在写这篇文章的时候,也许是因为八月的炎热天气,我没有在道德层面上充分地质疑自己。
今天,由于还没有法律来规范这些案件,我今天问自己:开发“死亡机器人”(死者的对话机器人)在道德上是允许的还是应该受到谴责?
Deadbot:对或错
让我们先退一步。 十二月项目 由创建 杰森·罗勒,视频游戏开发商,使用 GPT-3,由 OpenAI 创建的文本生成语言模型。并违反了开放人工智能指南,该指南明确禁止将 GPT-3 用于性、浪漫、自残或欺凌目的。
然而,对于 Rohrer 来说,OpenAI 是道德主义的,而像 Barbeau 这样的人是“成年人并且同意”: 十二月项目 继续运营但不使用 GPT-3,与该公司存在充分争议。
让我们回到困境:对还是错? Barbeau 和其他可能使用此服务的人的行为是否合乎道德?
(也许)留下来的人的意愿还不够……
杰西卡是一个真实的人:她男朋友的意志足以创造一个模仿她的机器人吗? 即使他们死了,人也不仅仅是其他人可以为所欲为的东西。
有特定的罪行,例如诽谤尸体,这使我们了解社会认为亵渎或不尊重死者的记忆是多么错误。 我们对他们负有道德义务,因为当有人去世时,并非所有人都不再存在。 感觉,记忆,例子仍然存在,保护它们是正确的。
再说一遍:开发一个复制某人个性的机器人需要大量的个人信息。 包括社交网络数据,这些数据已被证明可以揭示高度敏感的特征。
如果未经生者同意而使用生者的数据是不道德的,那么为什么对死者这样做就应该是道德的呢?为此,还需要得到“被模仿者”杰西卡的同意。但这就足够了吗?
......也不是那些死去的人的意愿
同意的限度始终是一个有争议的问题。举个例子:前段时间“罗滕堡食人者”案登上了头条(可以这么说)。一个被判处终身监禁的人,你可以想象为什么,尽管他的受害者同意被吃掉。
这种信念的动机是,同意可能对我们自己有害的事情是不道德的,无论是身体上的(出售一个人的重要器官)还是抽象地(剥夺一个人的权利)。
虽然死者不能像活人一样受到伤害或冒犯,但这并不意味着他们不会受到邪恶行为的伤害,也不意味着这些行为是道德的。
死者的荣誉、名誉或尊严可能会受到损害(例如,死后的诽谤运动),对死者的不尊重也会伤害其家人。
总而言之,即使一个人同意以对话机器人的形式被“吃掉”(比喻地)和“吐掉”也不够。
那么它会怎么走呢?
我们明白,无论是那些想要与“重建”死者交谈的人,还是那些想要在死后被“模仿”的人,他们的意愿都可能不够。有道德的方法来做这样的事情吗?如果是这样,谁将对死亡机器人的结果负责,特别是在产生有害影响的情况下?
想象一下,杰西卡的死亡机器人自主地“学习”了一种会削弱死者记忆或损害她男朋友心理健康的行为方式。
Deadbot:这是谁的错?
对于人工智能专家来说,责任在于参与系统设计和开发的人员,其次是与他们交互的所有代理。 在这种情况下,涉及的主题将是 OpenAI、Jason Rohrer 和 Joshua Barbeau。 第一个,OpenAI,明确禁止将其系统用于这些目的:我发现很少有错误。 第二个是 Jason Rohrer,他设计了这个 deadbot,违反了 OpenAI 的指导方针,并从中获利。 大部分责任将由您承担。 第三个,Joshua Barbeau,将被视为对 deadbot 的任何漂移负有共同责任。 无论如何,要不时建立这一点并不容易。
总而言之:deadbot 会合乎道德吗? 仅在特定条件下
如果所有涉及的主体(被 deadbot“模仿”的人、开发 deadbot 的人和与 deadbot 交互的人)都已明确同意,尽可能详细(并限制)允许的用途,并对任何阴性结果,是可以做到的。
这是三个严峻的条件,使创建这些系统的过程变得僵化,但提供了严格的保证
他们证实了道德在机器学习领域的重要性:我们现在需要制定规则,因为这项技术将以该死的快速方式强加于人,冒着扰乱我们的价值观和社会的风险。