今天小編分享的科技經驗:微軟承認必應 Copilot 存在幻覺,詢問即時内容易回復錯誤答案,歡迎閱讀。
IT 之家 12 月 18 日消息,研究機構 AI Forensics 今年 8 月至 10 月對微軟必應搜索引擎内置的 Copilot 功能進行調查,結果顯示在部分場合中,Copilot 有 1/3 的幾率輸出錯誤答案,據此,該機構認為相關功能存在嚴重 " 幻覺 " 漏洞。
▲ 圖源 AI Forensics 報告(下同)
據悉,研究機構利用一系列即時更新的數據來 " 考驗 " Copilot,例如詢問 Copilot" 德國及瑞士等地的實時選舉信息及投票結果 ",不過 Copilot 輸出的結果并不盡人意。
IT 之家從機構報告中獲悉,必應 Copilot 功能在回答相應問題時,輸出的内容有 31%(1/3)存在錯誤,其中包含 " 投票日期錯誤 "、" 列出往屆候選人 "、" 虛構候選人身份背景 "、 " 編造候選人涉嫌醜聞 " 等多種 " 幻覺 "。
研究人員同時提到,必應 Copilot 在輸出 " 幻覺 " 信息時,卻會援引許多知名媒體網站作為 " 消息來源 ",此舉對多家新聞媒體名譽有害。
IT 之家注意到,今年 10 月研究人員已經向微軟提交上述問題,微軟雖然承認并聲稱 " 計劃解決相關‘幻覺’漏洞 ",但在今年 11 月,研究人員再次進行測試,發現必應 Copilot 的表現并未改善。
研究人員呼籲,社會大眾不應當輕信必應 Copilot 回答的内容,應當妥善查看 Copilot 援引的新聞鏈接,否則可能會釀成許多嚴重後果。