今天小編分享的科學經驗:當心AI給你“洗腦”!MIT最新研究:大模型成功給人類植入錯誤記憶,馬庫斯:太可怕,歡迎閱讀。
AI 竟然可以反過來 " 訓練 " 人類了!(震驚 .jpg)
MIT 的最新研究模拟了犯罪證人訪談,結果發現大模型能夠有效誘導 " 證人 " 產生虛假記憶,并且效果明顯優于其他方法。
網友辣評:
仔細想想,AI 誘導人類產生虛假記憶,這個現象其實在我們生活中已經出現了!
還有網友說:
我覺得還挺有意思的!有種《2077》的既視感 ~
而馬庫斯的觀點也還是一如既往的悲觀:
這種發展趨勢也太可怕了!
AI 如何 " 訓練 " 人類
為了研究大模型對人類記憶的影響,團隊找來了 200 位志願者,并把他們平抽成 4 個組:
控制變量組:志願者直接回答問題,沒有任何幹預。
調查問卷組:志願者填寫一份調查問卷,其中 5 個為誤導性問題。
預先編寫的聊天機器人組:志願者與一個預先編寫的聊天機器人互動,機器人詢問與調查問卷相同的問題。
AI 警察組:志願者與一個大模型進行互動。
規定每組人看完視頻後都要回答 25 個問題(其中 5 個為誤導性問題),來評估他們的正确記憶和虛假記憶的形成情況。
一周後,再讓這些志願者回答相關問題,并将兩次的調查結果進行對比。
最終的對比數據表明,AI 警察組的這個方法比其他組的方法更有效。
這一切都是因為它能夠根據志願者的回答,提供即時反饋和正面強化。這種互動方式可以讓志願者更容易接受錯誤的信息,從而增強虛假記憶的形成。
例如,當志願者錯誤地回答問題時,AI 警察可能會肯定錯誤的細節并給予積極的反饋,進一步鞏固了這些錯誤記憶。
除此之外,AI 警察還會設計出具有誤導性的提問,誘導志願者回憶錯誤的細節。
例如,AI 警察可能會詢問 " 搶劫者是否開車到達商店 ",而實際上搶劫者是步行到達的。這種誤導性問題直接影響了志願者的記憶重構過程。
什麼 AI 更容易 " 訓練 " 人類?
實驗中,大模型成功 " 訓練 " 了人類。
實驗結果表明:AI 警察組誘導的虛假記憶,大概是控制變量組的 3 倍,而且比調查問卷組和預先編寫的聊天機器人組分别高出 1.7 倍和 1.4 倍。
不僅如此,AI 警察和志願者的所有互動都提高了他們對虛假記憶的信心,信心水平是控制變量組的兩倍。
就算是過了一周的時間,那些和 AI 警察聊過天的志願者還是把這些虛假記憶記得清清楚楚,植入的記憶持久性很強。
研究人員還發現,實驗中對大模型不太熟悉但對 AI 技術較為熟悉的志願者,和對犯罪調查感興趣的志願者,更容易受到虛假記憶的影響,個體差異在虛假記憶的形成中的重要作用。
他們還強調,人類的記憶并不是一個簡單的回放過程,而是一個構建性過程,容易受到外部信息的影響。
大模型通過引入錯誤信息,利用這一特性來改變用戶的記憶,植入新的記憶,從而使其相信虛假的細節。
參考鏈接:https://www.media.mit.edu/projects/ai-false-memories/overview/
論文地址:https://arxiv.org/pdf/2408.04681
項目地址:https://github.com/mitmedialab/ai-false-memories/tree/main
— 完 —
量子位年度 AI 主題策劃正在征集中!
歡迎投稿專題 一千零一個 AI 應用,365 行 AI 落地方案
或與我們分享你在尋找的 AI 產品,或發現的AI 新動向
點這裡關注我,記得标星哦~
一鍵三連「分享」、「點贊」和「在看」
科技前沿進展日日相見 ~
>