去年XNUMX月,OpenAI宣布已开发出一种能够编写完全合理的垃圾邮件和虚假新闻消息的算法。
当时,团队决定不发布它,因为认为它太危险了。为此,OpenAI 决定启动一项谨慎的研究计划,仅传播部分算法来撰写假新闻并评估效果。
今天,该小组声称已经审查了其风险估计,没有发现过多的可行故障。 为此,他决定向公众发布 “骗子”算法的完整代码。
这种名为 GPT-2 的人工智能最初旨在回答问题、翻译文本和对内容进行排序。研究人员随后意识到(不小的惊讶)该系统还可以在网上传播大量错误信息。
虚惊? 也许。
幸运的是,在监视期间使用的情况要温和得多: 该算法已用于叙事结构和基于文本的视频游戏。
在官方宣布该机制的公众传播中,OpenAI希望这一点 人工智能 可用于开发文本识别模型,该模型可在网上查找假新闻。 “我们正在部署这个模型来帮助搜索找到简洁的文本,” 在网站上阅读。
人工智能能够产生大量难以反驳的假新闻的想法令人恼火,但历史告诉我们,无论我们是否愿意,这种技术都会到来。
好吧,OpenAI可以立即分享他的工作,从而为研究人员提供更多的时间和方式来识别具有战斗力的工具,或者至少识别出人工创建的文本。 但是,迟到总比没有好。