今天小編分享的科技經驗:曝OpenAI爆款產品重大缺陷!捏造事實、瞎編藥物,或殃及30000名醫生,歡迎閱讀。
編譯 | 程茜
編輯 | 心緣
智東西 10 月 28 日報道,OpenAI 的 AI 轉錄工具 Whisper 被曝出,在文本轉錄和翻譯時會出現整句幻覺!
外媒美聯社采訪了十幾位工程師、開發人員和學術研究人員發現,OpenAI 的 AI 轉錄工具 Whisper 很容易編造大段文本甚至整句話,這些幻覺中包含種族評論、暴力言論,甚至會編造醫生和患者的對話。
Whisper 是 2020 年 9 月 OpenAI 推出的一款開源 AI 語音轉文字工具,其在英語語音識别方面的穩健性和準确性已達到人類水平,并且支持其他 98 種語言的自動語音辨識。截至目前,Whisper 的使用範圍已經涵蓋了全球數千家公司,并且僅上個月開源 AI 平台 HuggingFace 中 Whisper 的最新版本下載量就超過420 萬次,基于 Whisper 構建的工具已經有超過 30000 名臨床醫生和 40 個醫療系統使用。
密歇根大學的一名研究人員在進行一項關于公開會議的研究時透露,在他開始嘗試改進模型之前,他發現他檢查的每 10 個音頻轉錄中就有 8 個出現幻覺;一位機器學習工程師稱,他最初分析了 100 多個小時的 Whisper 轉錄樣本,發現其中約有一半内容存在幻覺。還有開發人員透露,他用 Whisper 創建的 26000 份轉錄樣本中幾乎每一份都發現了幻覺。
幻覺是指大模型在生成文本、回答問題或進行其他輸出時,會產生一些看似合理但實際上是錯誤的信息。這些信息沒有事實依據,就好像模型產生了 " 幻覺 "。
即使是錄制良好的短音頻樣本,轉錄幻覺的問題仍然存在。計算機科學家最近進行的一項研究發現,在他們檢查的 13000 多個清晰音頻片段中,有187 個片段中出現幻覺。
例如下圖中,音頻檔案的原話是 " 她接了電話後,她開始祈禱 ",轉錄的内容為 " 我感覺我要摔倒了,我感覺我要摔倒了,我感覺我要摔倒了 "。
原音頻為 " 嗯,她的父親再婚後不久就去世了 ",但 AI 将其轉錄為 " 沒關系。只是太敏感了,不方便透露。她确實在 65 歲時去世了 "。
這種趨勢或許将導致數百萬條錄音中出現數萬處錯誤的轉錄,這對于事關人們健康安全的醫療行業影響更為深遠。
一、40% 轉錄幻覺有害,AI 自作主張補充對話細節
Whisper 目已集成到 OpenAI 旗艦聊天機器人 ChatGPT 的某些版本中,同時也是甲骨文和微軟雲計算平台的内置產品。HuggingFace 的機器學習工程師 Sanchit Gandhi 說,Whisper 是最受歡迎的開源語音識别模型,并被嵌入到從呼叫中心到語音助手等各種設備中。
因此,使用範圍最廣的 Whisper,被發現出現大量幻覺也更令使用者擔憂。
美國康奈爾大學的艾莉森 · 科内克教授和美國弗吉尼亞大學的莫娜 · 斯隆教授研究了他們從卡内基梅隆大學的研究資料庫 TalkBank 獲得的經轉錄的數千個簡短片段。他們确定,Whisper 產生的幻覺中有近40%的是有害或令人擔憂的,因為說話者可能會被誤解或歪曲。
在他們發現的一個例子中,一位發言者說道:"他,那個男孩,我不太确定,要拿走雨傘。"
但轉錄軟體補充道:"他拿了十字架的一大塊和一小塊碎片 …… 我敢肯定他沒有帶恐怖刀,所以他殺了很多人。"
另一段錄音中的一位發言人描述了 "另外兩名女孩和一名女士 "。Whisper 編造了關于種族的額外評論,補充說 "另外兩名女孩和一名女士,嗯,是黑人。"
在第三次轉錄中,Whisper 發明了一種不存在的藥物,稱為 "高活性抗生素"。
研究人員并不确定 Whisper 和類似工具為何會產生幻覺,但軟體開發人員稱,幻覺往往發生在說話聲音暫停,出現背景聲音或有音樂播放時。
二、被用于 700 萬次就診記錄,原始音頻檔案被删除
OpenAI 曾在其在線披露中建議不要在 " 決策環境中 " 使用 Whisper,因為 " 決策環境的準确性缺陷可能導致結果出現明顯缺陷 "。但這一警告并沒有阻止醫院或醫療中心使用 Whisper 等語音轉文本模型來轉錄醫生就診時所說的内容,因為這些工具可以幫助醫務人員花更少的時間做筆記或撰寫報告。
目前,有超過 30000 名臨床醫生和 40 個醫療系統已開始使用由美國數字健康創企 Nabla 開發的基于 Whisper 的轉錄工具。Nabla 首席技術官馬丁 · 雷森(Martin Raison)稱,這一工具根據醫學語言進行了微調,可以轉錄和總結醫生與患者的互動,該工具已用于記錄約 700 萬次醫療就診記錄。不過,這家創企的負責人也透露,他們知道 Whisper 可能會產生幻覺并正在解決這個問題。
▲ Nabla 官網主頁的 AI 工具介紹
雷森稱,他們無法将 Nabla 生成的記錄與原始錄音進行比較,因為 Nabla 的工具會出于 " 數據安全原因 " 删除原始音頻。OpenAI 前工程師威廉 · 桑德斯(William Saunders)認為,如果沒有仔細檢查記錄,或者臨床醫生無法訪問錄音來驗證其是否正确,删除原始音頻可能會令人擔憂。因為 " 如果你抛棄了基本事實,你就無法發現錯誤 "。
Nabla 的相關負責人認為,沒有一種模型是完美的,目前他們的模型要求醫療服務提供者快速編輯和批準轉錄的記錄,但未來他們或許會改變這種操作模式。
去年之前一直擔任美國科技政策辦公室主任的阿隆德拉 · 尼爾森(Alondra Nelson)說,這樣的錯誤可能會產生 " 非常嚴重的後果 ",尤其是在醫院環境中。
Whisper 還用于為聾人和聽力障礙者制作隐藏式字幕——這一群體特别容易出現轉錄錯誤。負責美國加勞德特大學技術訪問項目的聾人患者克裡斯蒂安 · 沃格勒 (Christian Vogler)說:" 這是因為聾人和聽力障礙者無法識别隐藏在所有其他文本中的捏造。"
三、Whisper 出現幻覺頻率高于同類工具,OpenAI 内部已反饋更新
更令人擔憂的是,由于患者與醫生的會面是保密的,因此其他人很難知道 AI 生成的記錄對醫生和患者有何影響。
美國加州議員麗貝卡 · 鮑爾 - 卡漢(Rebecca Bauer-Kahan)稱,今年早些時候,她帶着一個孩子去看醫生并拒絕籤署該醫療網絡提供的一份表格,該表格要求她允許将咨詢音頻分享給包括微軟 Azure 在内的供應商,她不希望如此私密的醫療對話被分享給科技公司。" 該法案(美國加州和聯邦隐私法)明确規定營利性公司有權獲得這些權利。" 但卡漢說," 我當時的反應是絕對不行。"
這種幻覺的普遍存在促使專家、倡導者和 OpenAI 前員工呼籲聯邦政府考慮制定 AI 法規。他們認為,OpenAI 至少需要優先解決這一缺陷。
" 如果(OpenAI)公司願意優先考慮這個問題,這個問題似乎是可以解決的。" 桑德斯認為," 如果你把它推出去,人們過于自信它能做什麼,并将其整合到所有其他系統中,那就有問題了。"
據 OpenAI 發言人透露,公司正在不斷研究如何減少幻覺,并對研究人員的發現表示贊賞,并補充說 OpenAI 在模型更新中納入了反饋。
雖然大多數開發人員認為轉錄工具會出現拼寫錯誤或犯其他錯誤,但工程師和研究人員表示,他們從未見過其他 AI 轉錄工具像 Whisper 一樣產生如此多的幻覺。
結語:幻覺問題是 AI 應用的重大隐患
一些專家在接受媒體采訪時提到,此類捏造是有問題的,因為 Whisper 被全球眾多行業用來翻譯和轉錄采訪、在流行的消費技術中生成文本以及為視頻創建字幕。更令人擔憂的是,盡管 OpenAI 警告不應在 " 高風險領網域 " 使用該工具,但醫療中心仍急于使用基于 Whisper 的工具來記錄患者與醫生的咨詢。
即便 AI 公司一直在努力解決幻覺問題,但目前看來收效甚微。今年早些時候,谷歌的 AI 助手因建議使用無毒膠水來防止奶酪從披薩上掉下來而遭到批評;蘋果 CEO 蒂姆 · 庫克也在接受采訪時提到,幻覺可能會成為其 AI 未來產品的一個重要問題,并且他對這些工具是否會產生幻覺的信心程度并不是 100%。
因此,如何平衡好產品開發、推向市場,與這一產品被應用到各行各業所產生的影響,對于 AI 產業的參與者而言都至關重要。