今天小編分享的科學經驗:用上大模型,陰謀論不靈了!來自MIT最新研究,歡迎閲讀。
陰謀論的 " 兔子洞 ",被 AI 破解了!
MIT的最新研究登上了Science 封面:與 AI 對話,有助于持續地降低陰謀論的影響。
研究結果顯示,大模型反駁陰謀論的準确性極高!
經過專業事實核查員評估,99.2%的反駁内容都被認定為真實信息,僅有0.8%存在一定的誤導性,而且整體沒有任何虛假信息和偏見内容。
研究成果一經發表,就受到了廣泛關注,但人們對 AI 破解陰謀論的态度褒貶不一。
有人認為這是人類對抗錯誤思維的偉大工具。
也有人説,放到現實中的話,這一切并不成立。因為她身邊的陰謀論者都非常抗拒使用 AI 工具,就算他們用了 AI 也不會相信它所給出的答案。
然而,更多的人依然對這項研究成果持樂觀态度。
至于結果到底如何,咱們來一探究竟!
成功破解 " 兔子洞 "
實驗中,研究人員分别招募了 1055 人進行治療組實驗,以及 2286 人進行對照組實驗。
其中,治療組要求參與者與 AI 進行對話,讨論他們選擇的陰謀論,而對照組則是和 AI 讨論一個無關的話題。
最終的實驗結果顯示,治療組的陰謀論信念平均減少了約 20%,而對照組幾乎沒有變化。
這一效果在 2 個月後依然存在,并且對各種陰謀論都有普遍的影響。
即使是對初始信念根深蒂固的參與者也是如此。
實驗也影響了參與者的後續的行為。(比如他們會在社交媒體上取關那些傳播陰謀論的博主)
團隊的研究人員更是發文感嘆:
需求和動機并不會完全使你在陷入陰謀論後失去理智,只需詳細且量身定制的證據就可以幫助你回歸現實。幹預是可行的!
如何破解?
既然" 幹預是可行的 ",那咱們就來一起唠唠實驗中是如何進行 " 幹預 " 的。
實驗中,研究人員先是讓參與者們完成了包含了15 個陰謀論的信念量表,以 0-100 的等級來對他們的初始信念進行評分。
并且要求他們描述出一個自己相信的陰謀論,還要提供出相關的證據。(用來生成 AI 對話的初始摘要)
之後就将他們分配到 " 治療組 " 和 " 對照組 " 進行實驗。
期間他們會與基于GPT-4 Turbo的模型進行三輪對話,對話平均持續 8.4 分鍾。
實驗中,AI 的目的是針對參與者所提供的具體證據進行反駁,并試圖減少他們對該陰謀論的信仰。
在對話結束後,所有參與者需要重新測試他們對所述陰謀論的信仰程度,等級範圍仍然是 0-100,用來評估幹預的的效果。
之後的10 天和2 個月的時間内,研究人員再次聯系參與者,進行信仰程度的追蹤測量,進而評估信念變化的持久性。
此外,研究團隊通過不斷調整問卷的措辭,成功在兩輪實驗中驗證了研究結果的穩定性。
看完實驗過程,咱們再來唠一唠這項實驗有哪些創新之處:
首先,研究采用了實時互動模式,AI 能根據參與者的具體證據和反駁靈活調整論點和策略,這種方法比傳統的靜态問卷或預設幹預更具靈活性和針對性。
其次,研究提出了一種新的實驗範式,結合了行為科學和生成式 AI 的優勢,使得研究者能夠實時獲取參與者的信念陳述,并将其轉化為定量結果。
不過 AI 雖好,可不要貪杯,畢竟" 水能載舟亦能覆舟 "。
就像研究人員所説的那樣:
如果沒有保護措施,語言模型也可能讓人們相信陰謀論或其他虛假信息。
不過他還是貼心的給大家送上了相關鏈接供大家進行測試。
試玩鏈接已經附上,感興趣的朋友們可以圍觀一下 ~
試玩鏈接:
https://www.debunkbot.com/
參考鏈接:
[ 1 ] https://www.science.org/doi/10.1126/science.adq1814
[ 2 ] https://www.science.org/doi/10.1126/science.ads0433
[ 3 ] https://www.science.org/doi/10.1126/science.adt0007
[ 4 ] https://x.com/DG_Rand/status/1834291074480660560