如果你以为 ChatGPT 是你的个人数字日记,那就准备好被冷水洗脸吧。一项法院命令刚刚将你与人工智能的每一次对话变成了潜在的审判炸弹。OpenAI 现在必须存储你的一切:从你的午夜危机到你的商业想法,从你的存在主义疑虑到你的人际关系问题。
原因何在?《纽约时报》把他们告上了版权法庭,现在法官想要(而且可以)搜索你的聊天记录来寻找证据。Altman 很担心,但事实上,ChatGPT 的隐私承诺只是一种营销手段。 现在数百万用户发现他们并不是在和知己交谈,而是在和一台始终开着的录音机交谈。
ChatGPT 隐私作为讨价还价的商品
13 月 XNUMX 日,法官 Ona T. Wang 发布了一项命令,这项命令会让任何曾经与 ChatGPT 分享过个人信息的人感到颤抖。OpenAI 必须“保存并隔离所有否则会被删除的输出数据”,包括用户故意删除的对话。讽刺的是:该公司 承诺在 30 天内永久取消,而现在一切都将无限期地处于阻塞状态。
该案件源于 纽约时报和 OpenAI,该报指责该公司使用了数百万篇受版权保护的文章来训练其模型。但真正的附带受害者将是用户,他们将从客户转变为非自愿的庭审证据提供者。每一次对话都可能成为潜在的法律“弹药”。
OpenAI 首席运营官布拉德·莱特卡普 (Brad Lightcap) 谴责这一请求“与我们在 ChatGPT 上对用户做出的隐私承诺存在根本冲突”。……然而,当现实是这些承诺在法庭的第一道命令面前已经像阳光下的雪一样融化时,这些话听起来就毫无意义了。

数字密友的幻觉
Sam Altman 提出了一个雄心勃勃却迟来的提议:“AI 特权”的概念。他在 X 中写道: “在我看来,与人工智能交谈应该像与律师或医生交谈一样”. 职业保密理念应用于人工智能 这很有趣,我同意这一点,但它是在煎蛋卷已经做好的时候才出现的。
数百万人已经将他们的心理健康问题、人际关系危机、创业项目和个人弱点倾诉到 ChatGPT 聊天中。 正如我前段时间指出的那样聊天机器人正在成为我们新的数字忏悔者,能够提供全天候支持,而且(显然)不会带有任何评判。
问题是,这位忏悔者有着大象般的记忆力和村里闲话家般的性格。 你告诉他们的每件事最终都会被记录、分析,并可能在你最意想不到的时候用来对付你。.
ChatGPT 隐私,互联未来的悖论
这引发了关于我们与人工智能未来关系的深刻思考。如果人工智能真的成为我们的私人助理、虚拟心理学家和值得信赖的顾问,我们的隐私又该如何保障呢?
此案引发的担忧远远超出了版权的范畴我们正在见证一个危险先例的诞生:每当有人起诉一家人工智能公司时,我们的私人谈话就可能被司法部门扣押。 我们以为自己已经获得了被遗忘权,但当别人需要我们的言语作为证据时,这种权利就消失了。.
市场营销与现实之间
OpenAI 一直以隐私承诺来吸引用户。他们的政策强调自动删除、用户对自身数据的控制以及透明度。 但当法庭来敲门时,这些承诺就如同肥皂泡一样脆弱。.
当然,人并不像人们所说的那么笨,他们不会从梨树上掉下来。 调查显示 73% 的消费者已经担心与聊天机器人互动时的隐私问题。此案例将为他们提供更加谨慎的具体理由。
事实令人不安,但却很清楚: 今天的人工智能不再是忏悔者,而是数字“话匣子”,当有人觉得合适时,它们会吐露自己所知道的一切每一个分享的秘密,每一个暴露的弱点,每一个在深夜聊天昏暗灯光下低声说出的想法,都可能在最不合时宜的时刻重新浮现。
走向怎样的未来?
奥特曼提出的“人工智能特权”可能代表着与人工智能建立更成熟关系的第一步。 但制定真正保护我们数字隐私的法律框架需要时间。与此同时,教训是残酷的,但却是必要的:对聊天机器人说的每一个字都可能是一种延期的公开忏悔。
重新思考我们与这些数字助理的关系的最佳时机是昨天。其次是今天。它们并非绝对可靠的告解者,而是强大的工具,需要我们像对待任何其他记录和存储我们生活的技术一样谨慎使用。
人工智能时代的隐私不是一项后天获得的权利,而是一项每天都需要赢得的特权. 亲爱的,战斗才刚刚开始。