这篇文章是 Linkedin 时事通讯“Periscopio”的一部分,每周都会深入研究 Futuro Prossimo 主题,并提前在 LinkedIn 平台上发布。如果您想订阅并预览, 在这里找到它。
算法越来越多地支配我们的生活、指导我们的选择并充实我们的生活。算法是一种“隐藏”且无所不在的系统,在很大程度上主导着我们常见的数字现实。
当您在 iTunes 上听音乐、在 YouTube 上播放视频、在亚马逊上搜索下一个生日礼物、在 Netflix 上观看您最喜欢的节目甚至在 Google 上搜索新闻时,它是一种算法,它决定了您可用的选项,并且,间接地,你最终会消费什么。
算法构建了真正的“漏斗”,我们对现实的看法落入其中并最终到达特定方向。当 Spotify 发现一首朗朗上口的歌曲时固然很好,但当一个社交平台设法影响本应是自由选举的结果时,那就糟糕了。
这是一个巨大的影响力,由世界上极少数参与者精心策划和持有:大型科技公司。
算法必须像这样工作吗?
通过算法实现我们的目标是有回报的。这就像你身边有一个人“很快就能理解我们”,并且总是告诉我们或给我们建议,我们想听什么。这就是为什么人类总是想要更多。公司雇佣他们是因为他们能保证他们获得更大的利润。但只能这样吗?这是正确的?
这个问题已经出现了,我们越来越频繁地这样做,甚至这个博客的读者也不回避它: 我们如何保护自己免受人工智能算法的负面影响?
我们可以限制您对社交媒体的使用,甚至删除帐户。我们可以尽可能地保持离线状态,或者每月至少有几天。我们可以对报纸进行深入研究,避免受到假新闻和谎言的影响。当然,我们可以,但要付出牺牲的代价,但我们可以。但为什么它必须只取决于我们呢?
为什么我们必须自己做所有事情?
必须有一些技术公司自己必须做的事情,被迫做一些事情来改善这种情况。 我们必须质疑整个画面,而画面是:一种算法天生就是为了利用我们的心理脆弱性来占用我们的时间和注意力。 观点。 就是这样,这是事实。
这是一件严肃的事情,尤其是对于在社交媒体上不断争论和“点赞”带来的小小的满足感中长大的新一代来说。互相建议不要上网,或者养成不同的习惯,或者做出其他努力,就是被动地接受科技公司将继续越来越多地利用算法,甚至更糟。
真正要问我们自己的问题是另一个。问题是:为什么算法要针对参与度而不是幸福感进行优化?怎样才能改变这种现状呢?
通缉幸福算法
通过少量的工作,可以修改算法来保护和增强我们脆弱的心理,而不是利用它。应该训练算法来改善福祉,而不是交互。
试着想象事情会如何改善。
显然大型科技公司甚至没有考虑过这一点。 Facebook前总裁肖恩·帕克亲眼见证了这个社交巨头的诞生, 他说很久以前 该平台的主要目标是如何充分利用用户的时间和注意力。
对,你知道的。目标是利润。货币是我们的关注点。后果?在后台。无论他们知道自己在做什么,还是他们无拘无束地骑行直到达到极限,科技公司正在对我们造成严重破坏,他们要对此负责。
人工智能道德的重要性
当然,有一些(明显的)好消息:人工智能道德和开源协作计划的出现给这些公司带来了一些压力。现在,他们竭尽全力表现出改进平台的承诺。谷歌、Facebook、微软等公司聘请了许多社会科学家:目标是什么?让他们的技术更加人性化。
一项显然艰巨的任务,从一开始就遇到障碍:我们都记得 蒂姆尼特·格布鲁(Timnit Gebru)这位道德专家于 2020 年被谷歌解雇,原因是其人工智能的“种族主义”。这不是唯一一次,也不是最后一次此类解雇。他于 2021 年跟进 玛格丽特·米切尔,来自同一个 Google 道德团队。
然而,这些专家却因为做他们受雇做的事情而被解雇:分析技术的潜在风险。换句话说,聘请伦理学家是可以的,只要他们不干扰公司的关键计划。
如果专业人士无法做好他们的工作,即让他们所工作的公司承担责任,那么人工智能道德将是一种不可持续的商业实践。
以人为本
过去两年,这些公司的声誉和公众形象因这些选择而大幅下降。越来越多的研究人员正试图联合起来继续研究技术伦理,而不屈服于这些巨头的经济目标。
也许这是最好的:如果技术公司的问题纯粹是经济问题,他们不太可能真正听取他们的道德团队的意见。 如果引入道德规范不会减少他们的利润,他们会——如果不是,他们会阻止这些团队工作。
出于这个原因,Timnit Gebru 自己创立了 分布式人工智能研究院 (DAIR) 和 Margaret Mitchell 担任研究员和首席伦理学家 拥抱脸 .
如果内部道德团队无法开展真正的工作(我认为他们也做不到),那么最好从外部寻求解决方案。
救世军
如前所述,我们看到人工智能领域的努力越来越多,但不限于大型科技公司。有些主体正在集体或单独地努力扭转“算法多米诺骨牌”的命运:除了前面提到的 DAIR 和 Hugging Face 之外,还有 大科学, 艾柳特人工智能 e 蒙特利尔人工智能伦理研究所 ,等等。 在意大利,我们有 意大利人工智能伦理学会。
或许是时候让那些真正具有政治影响力和权力的人在监督那些掌握着我们未来的社会中发挥更积极的作用了。
围绕人构建的算法
在这方面,联合国教科文组织制定了 一组建议 确保每一个人工智能算法都是以人为中心的。
文件中写道:“我们必须制定国际和国家规则和框架,以确保这些新技术造福全人类。”
“现在是人工智能为人类服务的时候了,而不是相反”
“人工智能已经影响我们的生活。该领域存在一些立法空白,需要立即解决。第一步是就哪些价值观应该受到保护以及如何遵守法规达成一致。存在许多框架和指南,但它们的应用并不均衡,而且没有一个是真正全面的。由于人工智能是全球性的,我们也必须是全球性的。”
对世界的承诺
联合国教科文组织条约仅在 7 个月前,即 24 年 2021 月 XNUMX 日获得批准。这是控制在法律领域运营的拥有超强技术的公司的基本第一步。
中国还为前所未有的监管开辟了道路,让人们对算法的力量负责。 1 月 XNUMX 日,中国政府颁布了一项法律,允许用户完全禁用算法推荐,以及赋予人们对科技公司决策权的其他措施。
人工智能伦理引起了全球监管机构的关注,这一事实表明它对个人和集体福祉有多么重要。我们是否正处于探索将让我们生病的“病态”算法转变为幸福算法的开始阶段?
我说不出来。 但我们必须不惜一切代价去尝试。