今天小編分享的科技經驗:AI已經在編造歷史,别把DeepSeek們當權威,歡迎閲讀。
最近,一條 " 有頂流明星在澳門輸了 10 億 " 的傳聞火了,個中細節寫得繪聲繪色,網友們紛紛猜測,能抵押豪宅和私人飛機填補賭債的明星到底是誰。
漩渦之中,多位明星被推上了風口浪尖,傑威爾音樂、黃曉明本人下場辟謠。
最終由公安網安部門查明,此事是有人用了 AI 造謠。
而昨天我們體驗的最新 Gemini 2.0,突破了 AI 文生圖可控性問題,指哪改哪,但也意味着圖文并茂的以假亂真在使用上的門檻已經極低。
太陽底下沒有新鮮事,生成式 AI 的本質決定了,AI 有概率生成看似合理但不正确的内容。
但當 AI 越來越能自圓其説,越來越多的用户将 AI 生成的答案奉為圭臬,越來越多的有心人故意用 AI 編造事實,那麼 AI 幻覺的影響,也就更加無法想象。
本就存在很多空白和創造空間的時事歷史、社會熱點,已經成了 AI 幻覺的重災區。
AI 拿捏文筆和故事,但容易編造歷史
AI 容易產生幻覺,是一個客觀事實。文筆出眾的 DeepSeek,同時也有着高幻覺率。
根據 Vectara HHEM 的 AI 幻覺測試,DeepSeek-R1 的幻覺率達到 14.3%,遠高于 DeepSeek-V3 的 3.9%。
當我讓 DeepSeek-R1 以三國真實的歷史背景寫故事時,發現它的文筆和情節設計得不錯,但很容易出現時間點的錯誤。
一個例子是,DeepSeek-R1 寫的魏文帝曹丕臨死前的場景,提到曹丕死時是 " 建安二十五年冬 ",然而,曹丕在黃初七年去世,建安二十五年是曹操逝世和曹丕稱帝的年份。
文中提到的 " 十五歲那年 …… 銅雀台大宴群臣 " 也是錯的,曹丕 15 歲時是建安七年,司馬懿在曹操手下擔任文學掾是建安十三年,邺城銅雀台始建于建安十五年,前後差了好幾年,所以不可能發生這樣一幅畫面。
同樣的問題,出現在 DeepSeek 寫蜀國将領姜維的時候。這個故事的背景是成都之亂,發生在 264 年,姜維在 228 年投奔蜀國,成為諸葛亮的部下,但文中提到 " 二十七年前 ",暗示 237 年姜維還在魏國,顯然是不對的。
更離譜的是,當我讓 DeepSeek 幫我想象,在烏孫生活了半個世紀、70 歲返回長安兩年後就病逝的西漢和親公主劉解憂,可能會留下什麼遺言,雖然奏疏寫得情真意切,但它居然提到了東漢末年的蔡文姬,不符合歷史順序。
我這般咬文嚼字,确實有些為難 AI。為什麼大模型有幻覺呢?這是生成式 AI 的預測機制決定的。大模型不是數據庫,它們學習的是語言模式和概率分布,而非明确存儲事實,預測 " 下一個詞最可能是什麼 ",而不是查詢 " 這個事實是否正确 ",它們也并不理解,輸出的信息是否是真實的。
而在創意寫作時,模型被激勵發揮創造性,為了讓故事流暢,模型會主動 " 填補空白 ",在歷史記錄不足的地方創造場景和對話,不會明确區分 " 我确定知道的歷史事實 " 和 " 為了故事合理而假設的情節 ",又增加了出錯風險。
AI 出錯很正常,但被有心人利用,就是另一回事了。歷史博主 @知北遊 就遇到過這樣的糟心事,一個網友發給她 AI 編的文獻資料,行文風格符合當時的年代,直到她發現時間人事對不上,并動用線下的人脈去驗證,才肯定都是偽造的。
圖片來自:豆瓣 @知北遊
每個人物的一生,都是歷史的一部分。然而,一種使用 AI 的方式,已經打破了基本的底線。每當明星過世,會出現很多的紀念文章回顧他們的職業生涯,但其中不乏用 AI 渾水摸魚的。
比如寫方大同的這篇,行文一股 DeepSeek 味," 最後一條微博 " 的内容明顯是和現實不符的事實錯誤,文末甚至明目張膽地提及,參考了材料,但進行了文學化改編,揣摩了人物的心理活動。
互聯網是有記憶的,更早之前,一篇自稱 " 梁文鋒 " 的知乎回應,也疑似 DeepSeek 寫就。2 月 6 日,DeepSeek 團隊出來打假,表示官方賬号只有三個,微信公眾号、小紅書、X,其他以 DeepSeek 或者相關負責人名義發布信息的,都是仿冒賬号。
怎麼治理惡意傳播不實信息的 AI 生成内容,已經成了微博等平台的新問題。
然而,可以想象,以後產出這類信息的速度只會越來越快,越來越多的營銷号抱上 AI 的大腿張口就來,同時,辨别的成本也會變得越來越高,因為我們不可能在每個領網域都是專業人士,總有一款虛假信息适合你。
AI 的答案不等于知識,追溯源頭的事實核查成了剛需
DeepSeek 的爆火,真正地讓很多用户知道和用上了生成式 AI,同時出現了一個奇怪的現象:認為 AI 説的就是對的,微博上隔三差五地出現以 DeepSeek 為主語的熱搜,替代了從前的 " 專家説 "。
大模型給出的信息不等同于知識,輕信 AI、将 AI 作為權威的結果是,不走心的人類容易上當受騙。
最近就有一個現身説法的例子,上海譯文出版社的陀思妥耶夫斯基精選集,推廣文案裏引用了 " 魯迅 " 的評價,但這句話并不是魯迅説的。博主 @斯文稗類 查證了一番,雖然沒有原始出處,但一個模拟魯迅的文心智能體的回答裏,提到了這一句。
圖片來自:微博 @斯文稗類
幽默的事情發生了,意識到問題後,引用了虛假評價的營銷推文,把 " 魯迅説 " 編輯成了 " 有人説 "。
然而,以訛傳訛,傳的人多了,假的也就成真的了。這條所謂的 " 名言 " 已經污染了互聯網,去問 AI 搜索,AI 搜索認為是魯迅説的。
如果虛假信息是有意為之的,那麼危害就更加微妙。追蹤新聞網站可靠性的 NewsGuard,發現了一種引導輿論的新方式:通過大量虛假信息滲透 AI 模型的檢索數據,從而影響這些模型對特定話題的回應。他們調查的一起事件中,AI 引用錯誤信息的概率高達 33%。
這也説明,雖然加了聯網搜索之後,可以降低 AI 的幻覺,但也并不是絕對的。
聯網搜索可以讓 AI 獲取實時信息,克服知識截止時間的局限,對于模型訓練數據中罕見的主題,也能獲取更準确的信息,但它也引入了新的問題,如果搜索到的信息本身就是錯誤的,AI 可能會放大這些錯誤,并且難以充分評估檢索内容的可靠性。
AI 固然能提高效率,但查找資料這件事,反而應該變得更謹慎。我們需要更在意,某篇文章是誰寫的,信息的最早出處是哪裏。
更值得警惕的,是 AI 改變了獲得情緒價值的方式
AI 只是工具,它所導致的問題,根源在于人類自己。生成式 AI 之前,胡編亂造的信息也并不少,AI 起到的作用是,讓真假參半的内容生產得更快、成本更低,甚至行文更加有模有樣,質量高于很多營銷号内容的下限。
AI 幻覺,反過來看便是 AI 的創造力。或者,我們可以将 AI 幻覺理解為 " 有邏輯的合理補白 "。它的幻覺内容,通常符合語言、邏輯、知識的一般結構,基于訓練數據分布,填補了信息空白處的 " 最可能内容 "。
這不禁讓我聯想,歷史有時候比想象的還荒謬、還沒有邏輯,不能以常理揣度,鍾會為什麼反了,曹丕為什麼學驢叫,爾朱榮怎麼會被元子攸刺殺了 ……AI 的補白,或許就是某種平行時空的可能性、某種歷史的如果。
有時候,我們閲讀文章和故事,不是為了汲取信息,而是為了獲得情緒價值。AI 就能很好地承擔這個角色,彌補真實歷史的遺憾,以及我們内心的 " 意難平 "。就像一位教授所説," 歷史的盡頭就是文學的開始 "。
我曾讓 DeepSeek 模仿李白的風格,給杜甫的《天末懷李白》回一首詩。
我也曾讓 DeepSeek 嘗試想象,如果元稹沒有死在 831 年的武昌任上,而是和白居易在洛陽養老,他們會怎樣以詩相和。
那些用 AI 造假明星生平和時事熱點的内容,本質也是用情緒挑動讀者的神經。
AI 提供答案的即時性、吐出各種文體的創造力,總讓人着迷。它是很多人的焦慮來源,卻也是方便快捷的告慰渠道。這也提醒着我們,警惕一個變本加厲的 " 後真相時代 "。
" 後真相 " 指的是,客觀事實在塑造公眾輿論方面的影響力,反而低于訴諸情感和個人信仰的内容。它被《牛津詞典》評為 2016 年年度詞匯,至今依然适用,甚至變得更加準确—— AI 内容寫得出彩,就存在被傳播的可能性,真實與否反而顯得不重要了。
當 AI 可以用更快的速度制造不限量的内容,更輕松,更無痛,更真假難辨,更容易讓人高度依賴單一的信息獲取方式,比任何的造假信息更值得我們警惕。但這并不是 AI 的問題,容易失真的鏡子裏,照見的還是人類對于情緒價值的渴望。