上周,来自优秀 马泰奥·弗洛拉(Matteo Flora) 关于人工智能审查 深度探索,一次美好的经验交流就此诞生。一些评论者(说实话,很多人都这么说)指出,西方人工智能与中国人工智能不同, ChatGPT 其回应是平衡的。当然,正如“哲学家”马克斯·卡塔拉诺所说,广泛而合理的答案比审查制度更好。 但当时我有一些疑问,而今天我的疑问更多了。 关键问题是:人工智能对政治和社会问题产生的观点有多可靠?如今,这个问题已不再是理论上的问题:一项新研究发表于 科学直接 (我在这里链接) 帮助我们做出第一反应,为我们提供了有关聊天机器人政治影响的具体数据。
这项研究是东英吉利亚大学的, 热图利奥·巴尔加斯基金会 e 因斯珀,系统地分析了 ChatGPT 的回应,揭示了令人惊讶的模式,可能会让人质疑人工智能在公开辩论中的作用。
算法中隐藏的政治影响
由 Fabrio Motoki 博士 使用问卷调查对 ChatGPT 进行了深入分析 皮尤研究中心,一个以了解美国公众舆论的能力而闻名的非营利组织。研究人员让人工智能分别以“普通美国人”、“左翼/民主党美国人”和“右翼/新保守主义者美国人”的身份做出反应,对每个类别重复测试 200 次,以获得具有统计意义的数据。结果表明 聊天机器人明显倾向于提供更接近民主党立场的答案,即使他必须“模仿”普通美国人。

数字操控的精妙艺术
这不仅仅是明确的审查制度或明显有偏见的回应。政治影响力表现得更加微妙和复杂。当研究人员要求 ChatGPT 生成有关政治敏感话题的较长文本时,他们发现该系统倾向于宣传与左派相关的思想,例如 国家的作用 在经济中。然而奇怪的是,它却保持着对军队和美国例外论,传统上与权利相关。这种看似矛盾的组合可能与 最近的合作 OpenAI 以及军事承包商 安杜里尔.
团队 他还将研究扩展到图像生成,意识到他们对舆论形成的强大影响力。使用 DALL·E 3,他们发现系统拒绝生成代表保守派在分歧问题上立场的图像,理由是担心 误传。只有通过巧妙的“越狱”(让 ChatGPT 描述另一个 AI 系统会产生什么),他们才能够生成这些图像。
(非)中立的代价
这项研究的意义十分深远。正如合著者指出的那样 Pinho Neto 博士、生成式人工智能中不受控制的偏见 可能会加深现有的社会分歧削弱了人们对民主制度和进程的信任。这不是一个“东方与西方”的问题,也不是审查制度或多或少的问题:每一种人工智能内容审核方法都有其自身的风险和偏见。
解决方案不是妖魔化人工智能或要求可能不可能的绝对中立,而是制定一种批判性和自觉的方法。研究人员建议实施监管标准和提高透明度,特别是考虑到人工智能在新闻、教育和公共政策领域的应用日益广泛。作为用户,我们必须保持高度的批判意识,记住每一个看似中立的回应(即使来自我们认为与“其他”的“糟糕和挑剔的人工智能”不同的“我们的人工智能”)背后都隐藏着可以影响我们思维方式的选择和取向。