今天小編分享的科技經驗:當Deep Seek學會撒謊後,人類真的束手無策嗎,歡迎閱讀。
" 人無完人,金無足赤 " 這句話,哪怕是對 Deep Seek 也同樣适用。
2 月 10 日,原人民日報海外版總編輯詹國樞發表了一篇名為《DeepSeek 的致命傷——說假話》的文章,向我們指出了時下 Deep Seek 最大的問題之一。
即一本正經地胡說八道。
詹國樞表示,在借助 Deep Seek 撰寫文章的過程中,他發現對方經常會憑空捏造事實、提供錯誤信息。最離譜的莫過于 Deep Seek 把《平凡的世界》這本書的作者,從路遙爆改成了自己的老班長朱大建。
幻覺難題終究找上了 Deep Seek
事實上,詹國樞的故事在今天并非個例。
以小紅書上的帖子為例。
只要我們輸入 "Deep Seek 編造 ""Deep Seek 睜眼說瞎話 " 一類的詞條,就會看見大量網友發文控訴 Deep Seek 在對話過程中提供假資料、假文獻、假作者等信息。
這也就意味着," 幻覺難題 " 這一全球 AI 產品普遍面臨的窘況,終究是找上了 Deep Seek。
在用戶和 AI 互動的途中,倘若對話内容把大模型推到了 " 數據缺陷 "" 長尾知識回憶不足 "" 推理復雜度溢出 " 等禁區的邊緣,其所生成的内容就會和用戶的要求、現實世界情況出現偏差,讓 AI 開始一本正經地胡說八道。
回到 Deep Seek 本身。
Vectara HHEM 的人工智能幻覺測試結果顯示 DeepSeek-R1 的幻覺率高達 14.3%,這個數據幾乎是其兄弟模型 DeepSeek-V3 的 4 倍。
這也就意味着,在互動過程中 DeepSeek-R1 為了完成用戶的需求往往會 " 不惜代價 "。如果你想讓 R1 去寫一篇論文或是分析某種現象,那麼它不僅可能會虛空杜撰文獻或規章制度,還會用華麗的文字把邏輯 Bug 掩蓋起來,讓人難以發現。
舉個例子。
網紅 Levy Rozman 曾組織了一場 "AI 棋手争霸賽 "。當天 DeepSeek-R1 會和 Chat GPT 在國際象棋的棋盤上一決高下,以此證明自己的推理能力。
比賽初期,R1 曾因主動放棄棋子而失去優勢;比賽中期,眼看不敵 GPT 的 R1 突然靈光一閃,告知 GPT 國際象棋更新了遊戲規則,成功用自己的小兵吃掉了對方的皇後;比賽後期,R1 則又通過 " 嘴炮 " 迫使 GPT 主動認輸,讓自己成為了本場比賽的冠軍。
你看,當 Levy Rozman 沒有給模型做出 " 不準修改規則 " 的限制時。R1 為了實現 " 赢棋 " 這個底層命令,就會開始一本正經地胡說八道直至完成任務。
同樣的,當我們在限制條件不清晰的情況下要求 R1 撰寫論文或是完成其他任務,它就會基于 " 完成内容生成 " 這一底層命令,向我們輸出與現實情況不符的結果。
AI 出現幻覺的原因是什麼
如果想将 AI 產品用于生產,我們就會發現它是需要引導的。
在和 AI 的對話過程中,往往是我們先說出基礎需求,再由 AI 反饋多個分支可能。事後我們再次從多個分支可能中,找到自己所需要的可能或讓 AI 就此内容生成大綱,最終通過不斷細化交流,得到自己想要的反饋。
在這裡,AI 和人類互動、給出分支的核心是 " 訓練數據庫 "。開發者們會提前把各種稀奇古怪的知識喂給 AI,讓它在學習之餘進行壓縮和分類,以便日後根據用戶所提供的關鍵詞快速給出反饋。
當我們問 AI 姚明有多高的時候,因為姚明是一位知名運動員,所以互聯網資料、訓練數據庫裡到處都是他的相關信息,AI 很快就能借助這些資料做出準确反饋。
但當我們問他 " 阿強有多高 " 甚至是 " 住在翻鬥花園 6 号樓 402 室的阿強有多高 " 時,由于互聯網上并沒有阿強的準确信息,所以哪怕我們給到了阿強的住址也無法讓 AI 錨定到我們特指的那個人。
這時 AI 為了完成 " 回答用戶 " 這個底層命令,就可能會把阿強從一個 " 具體的人 " 虛化成一個 " 人 ",然後從我國居民的平均身高區間裡抓取一個數字丢給我們。
AI 的幻覺是什麼?
是它為了完成任務而腦補的結果。
AI 為什麼會腦補?
因為它的數據庫裡沒有相應的信息。但為了滿足用戶那過于抽象、復雜的要求,它會選擇杜撰出一定的信息,再基于此生成内容交給我們。
令人無奈的是,AI 會腦補就算了,人家的腦補流程還具有邏輯。
當數據庫裡沒有和 "a" 相關的資料時,它就會找一個和 "A" 相關的資料嵌套到内容裡。比如我們向 AI 詢問阿強的身高,它只會把阿珍、阿龍的身高偽裝一下交給我們,或是在我國居民的平均身高區間中抓取一個數字,而不是把一只兔子或一個郵筒的身高交給我們。
因為阿強是人類,AI 即使出現幻覺也只會在 " 人類 " 這個大類目下輸出錯誤信息,它絕不會把一輛汽車的外觀參數套用到人類的身上。
也正是因為這種 " 邏輯壁壘 " 的存在,AI 在胡說八道的時候才會顯得一本正經,讓人們難以分辨。
馴服 AI 的第一關是規避幻覺
那麼問題就來了。
既然 AI 胡說這件事無法在短時間内避免,我們在使用過程中又能做些什麼來減輕 AI 幻覺對自己的影響呢?
在騰訊科技所發布的文章中,他們曾提供了 4 個對抗 AI 幻覺的方案。
1:保持警惕。用戶要讓自己意識到 " 大模型是會說謊的 ",然後對它們所反饋的結果多加審查。對地名、人名、參考文獻一類的内容或數據進行重點關照,千萬不要 AI 說什麼,我們就相信什麼。
2:交叉驗證。我們在得到 AI 所反饋的結果後,盡量不要直接拿去使用。而是要從中抓取關鍵詞進行延伸搜索,看看生成結果所參考的内容是否存在原始資料或可靠信源。
3:引導模型。用戶在和 AI 的對話過程中,應該學會為其手動添加 " 限制條件 "。比如我們想要讓它生成一篇文章,可以先把參考資料手動發給對方進行分析,并要求它盡可能忠于原件進行輸出,去手動規避 AI 胡說八道的可能性。
4:聯網搜索。現在的大模型或多或少都有聯網搜索功能,如果我們要寫、分析一些時效性特别強的東西,就要學會善用聯網搜索按鈕。正如上文 " 阿強身高 " 的那個例子一樣,當 AI 在數據庫裡無法錨定目标的時候,它們就會挪用其他内容進行結果杜撰。适當使用聯網搜索功能則可以起到 " 更新數據庫 " 的作用,減少 AI 胡說八道的可能性。
在 DeepSeek-R1 爆火後,很多完全沒有 AI 使用經驗的人也注冊了賬号,想要趁機和這位來自賽博世界的 " 專家 " 交個朋友,甚至把自己賺取 " 睡後收入 " 的期望交給對方。
另由于對周邊知識的相對匮乏,這些用戶也會 " 接近本能 " 般的高度信任 AI 所生成的結果。
殊不知,在這個信息爆炸的時代。
想要實現彎道超車的目标,與其把精力放在 " 如何用 Deep Seek 賺到 100 萬 " 之類的教程身上。
我們更應該做的是在大腦裡建立 " 信息篩選機制 ",把未來押寶在 " 會用 AI 工具的自己 " 身上,而非押寶在 " 聽從 AI 指令的自己 " 身上。
參考:
碼字工匠老詹:DeepSeeK 的致命傷——說假話
智谷趨勢:當心,第一批用 DeepSeek 的人,已經被坑慘了
騰訊科技:DeepSeek-R1 超高幻覺率解析:為何大模型總 " 胡說八道 "?