今天小编分享的科技经验:AI大模型击碎阴谋论!登上Science封面,用聊天戳破谣言漏洞,欢迎阅读。
编译 | 吴浪娜
编辑 | 漠影
智东西 9 月 15 日消息,AI 聊天机器人在破除阴谋论上取得重要突破,能有效削弱一些信众对阴谋论的笃信程度,论文登上 9 月 13 日的国际顶级学术期刊 Science 封面。
很多人对阴谋论深信不疑,致使一些荒谬谣言层出不穷。麻省理工学院研究团队发现,GPT-4 Turbo 模型可以在对话中通过量身定制的呈列证据、个性化的深度聊天,将一些阴谋论者对阴谋论的信任度平均降低 20%,且效果持续了至少 2 个月。这种干预说明了负责任地部署生成式 AI 有助于辟谣和缓解冲突。
论文题目为《通过与 AI 对话持续减少相信阴谋论(Durably reducing conspiracy beliefs through dialogues with AI)》。
▲论文内容截图(图源:Science)
论文链接:https://www.science.org/doi/10.1126/science.adq1814
一、足够有力的证据是否能说服人们放弃阴谋论?
无论是关于月球登陆从未发生过的错误观念,还是关于新冠疫苗含有微芯片的虚假说法,阴谋论比比皆是,有时甚至会产生危险的后果。对未经证实的阴谋论的信任是大众关注的重要议题,也是学术研究的焦点。
尽管这些阴谋论往往非常不可信,但仍有许多人选择相信。著名的心理学理论认为,许多人想要采用阴谋论以满足潜在的心理 " 需求 " 或动机,因此他们很难被事实和反证据说服,来放弃这些毫无根据的阴谋论。这篇论文对这一传统观点提出质疑。是否有可能用足够有力的证据说服人们走出阴谋论的 " 无底洞 "。
" 传统观点会告诉你,那些相信阴谋论的人很少会改变他们的想法,哪怕是根据证据。" 论文的第一作者托马斯 · 科斯特洛(Thomas H. Costello)说。然而,这项新研究提供了不同的观点。" 我们的研究结果从根本上挑战了这种观点:一旦掉入无底洞相信阴谋论,证据和论点就几乎没有用处了。" 研究团队写道。
二、与 GPT-4 Turbo 进行 3 轮对话,用证据驳斥阴谋论观点
研究假设,基于事实性、纠正性信息的论据可能会显得无效,因为它们缺乏足够的深度和个性化。为了验证这一假设,研究人员利用了大语言模型的进步,这是一种 AI,能够获取大量信息并生成定制论据。因此,大语言模型可以产生具有批判性思维的对话,直接反驳每个人所引用的支持其相信阴谋论的特定证据。
在两次实验中,2190 位参与者用自己的话阐述他们所相信的阴谋论,以及他们认为支持这一理论的证据。这些信息被输入到 AI 系统中。参与者还被要求以 100 分的标准来评估他们所相信的阴谋论的真实程度。
然后,他们与大语言模型 GPT-4 Turbo 进行了三轮对话,在我们的提示下,GPT-4 Turbo 回应了这些具体证据,同时试图降低参与者对阴谋论的信任度。或者作为对照条件,与 AI 就不相关的话题进行对话。对话结束之后,再次评估参与者他们认为阴谋论的真实性。
▲参与者与 AI 对话的设计和流程,一共进行三轮对话。上图展示一名参与者与 AI 对话后,其对阴谋论的信任度降低了 60%。(图源:Science)
三、参与者对阴谋论的信任度平均降低 20%,效果持续两个月
研究结果显示,与 AI 讨论阴谋论的参与者对所选阴谋论的信任度平均降低了 20%。这种效果持续了至少 2 个月,丝毫未减。而那些讨论非阴谋论话题的人对真实性的评分只略有下降。
研究团队谈道,在各种阴谋论中,都能持续观察到这种效果,包括涉及暗杀肯尼迪、外星人和光明会的经典阴谋论,到与 COVID-19 和 2020 年美国总统大选等热点事件相关的阴谋论。值得注意的是,AI 并没有减少参与者对真实阴谋论的信任度。
▲与 AI 对话能持久降低阴谋论可信度,即使是坚定的阴谋论者也不例外。对话后参与者对所选阴谋论的平均信任度降低,效果持续两个月。(图源:Science)
研究人员补充说,效果的大小取决于多种因素,包括阴谋论对参与者的重要性以及他们对 AI 的信任程度。
" 有大约四分之一的参与者,在实验开始时相信阴谋论,但在结束时不再相信。" 科斯特洛说。
" 在大多数情况下,AI 只能逐渐削弱——使人们变得更加怀疑和不确定——但少数人完全摆脱了他们的阴谋论信任度。"
研究人员补充说,降低参与者对一个阴谋论的信任,也能在一定程度上降低他对其他阴谋论的信任。阴谋论世界观普遍减少,并增加了反驳其他阴谋论者的意图。这种方法在现实世界中可能有应用——例如,AI 可以回复社交媒体上阴谋论相关的帖子。
此外,一个专业人员评估了 AI 提出的 128 个样本,其中 99.2% 是正确的,0.8% 是有误导性的,无一虚假。
结语:专家质疑 AI 说服阴谋论者的实际应用
研究说明,阴谋论的 " 无底洞 " 可能确实有一个出口。心理需求和动机本质上并不会导致阴谋论者对证据视而不见——他们只是需要正确的证据。实际上,通过展示大语言模型的说服力,该研究既强调了生成式 AI 在负责任地使用时可能产生的积极影响,也强调了最大限度地减少不负责任地使用这项技术的紧迫性。
未参与该工作的剑桥大学教授桑德尔 · 范 · 德林登(Sander van der Linden)质疑人们是否会在现实世界中自愿与这样的 AI 互动。
他还谈道,目前尚不清楚如果参与者与匿名人类聊天是否会得到类似的结果,同时也有关于 AI 如何说服阴谋论者的问题,因为该系统还使用了诸如同情和肯定等策略。
但是,他补充说:" 总的来说,这是一个非常新颖且可能重要的发现,也是 AI 如何被用来打击错误信息的一个很好的例证。"
来源:Science、《卫报》