今天小編分享的科技經驗:輕松盜走 2500 萬美元,我們該如何防範人工智能造假危機?,歡迎閱讀。
人工智能詐騙已成現實,引人憂慮。
1995 年上映的動畫電影《攻殼機動隊》描繪過這麼一段劇情:名為 " 傀儡師 " 的人工智能懂得冒充其他身份,迷惑和控制人類的思想和行為,這種能力使得它在網絡和虛拟空間中變得無迹可尋。雖然這種情節只出現在電影中,但倘若你長久以來深受埃隆 · 馬斯克(Elon Musk)或薩姆 · 奧爾特曼(Sam Altman)等人的警告影響,難免會設想一旦人工智能放任自流,便能演變成對人類的 " 天網 " 式威脅。
《攻殼機動隊》傀儡師
慶幸的是,這一擔憂并未得到廣大人工智能開發者們的普遍認同。許多學術界的人工智能巨頭,如圖靈獎得主 Joseph Sifakis 就曾在采訪中透露自己對這種想法的嗤之以鼻。目前,我們尚不具備能在馬路上安全行駛的人工智能,更不必說與人類智慧相匹敵了。
但這絕不意味人工智能無害。
AI 完全有可能成為迄今為止人類所創造出的最具破壞力的工具之一。關于這一點,近期一名不幸遭遇人工智能詐騙的财務高管深有體會,其損失高達 2500 萬美元,案發地不是在大洋彼岸,而是在離我們很近的香港特别行政區。面對此類人工智能犯罪,我們是否有應對之策呢?
偷天換日
2 月 5 日消息,據港媒香港電台報道,某匿名财務總監接收到一封自稱源自其英國同僚的郵件,提出一項隐秘交易。這位财務總監并非輕信之人,初見即疑其為網絡釣魚行為。
然而,發件人堅持安排一場 Zoom 視頻會議,當這位香港财務總監接入會議時,他看到并聽到了幾位熟識同事的面容與聲音。疑慮消除後,他們開始籌備交易,并按英國同僚指示,最終分 15 次匯款 2 億港币(當前約 1.84 億元人民币),轉賬至 5 個本地戶口。
圖源:AI 繪圖
直至另一位員工與總部核實時才發現異常,原來英國辦公室未曾發起過此項交易,亦未收到任何款項。試想該财務總監得知被騙後的極度懊悔與愧疚之情。調查後發現,該次視頻會議中唯一真實的參與者正是那位香港财務總監,其餘人員皆是由 Deepfake 人工智能技術模拟的英國财務總監及其他同事形象。
僅憑公開可獲取的少量數據、一套基礎的人工智能程式以及狡猾的騙術,這群騙子就成功騙取了足以購置一艘豪華超級遊艇的巨額現金。
此刻或許有人會對這個故事嗤之以鼻,斷言這位财務總監過于馬虎,畢竟我們平時在抖音、b 站上看到的 Deepfake " 整活視頻 " 都易辨真假,很難做到以假亂真。
然而,實際情況可能并不如此簡單,最新研究表明,人們實際上無法可靠地識别 Deepfake,這意味着大多數人在很多場合僅憑直覺判斷自己看到和聽到的東西。更令人不安的是,研究還揭示了人們更容易誤将 Deepfake 視頻當作真實情況而非虛假。換言之,如今的 Deepfake 技術已十分高明,足以輕易欺騙觀眾。
Deep-learning + Fake
Deepfake 這個詞是 " 深度學習 "(Deep-learning)和 " 假冒 "(Fake)兩個詞的組合。
因此,Deepfake 技術的核心要素是機器學習,這使得以更低的成本快速制作出深度偽造内容成為可能。若要制作某人的 Deepfake 視頻,創作者首先會利用大量該人的真實視頻片段對神經網絡進行訓練,使其獲得對該人從多個角度和不同光照條件下外觀的逼真 " 理解 "。随後,創作者将訓練好的網絡與計算機圖形技術相結合,将此人的復制品疊加到另一人身上。
許多人認為,一類稱為生成對抗網絡(GANs)的深度學習算法将在未來成為 Deepfake 技術發展的主要推動力。GAN 生成的面部影像幾乎無法與真人面孔區分開來。首次針對 Deepfake 領網域的調查報告專門用一個章節讨論了 GANs,預示着它們将使任何人都能制作出精巧的 Deepfake 内容。
圖源:AI 繪圖
2017 年底,名為 "deepfakes" 的 Reddit 用戶将許多知名影星甚至政要的面孔用于色情視頻轉換生成,并将其發布到網絡上。這類造假視頻瞬間傳遍社交網絡,此後大量新的 Deepfake 視頻開始出現,相應的檢測技術卻直到幾年後才逐漸出現。
不過,也有正面例子。Deepfake 第一次在銀幕上被觀眾所熟知是因為已故演員保羅 · 沃克在《速度與激情 7》中的 " 復活 "。2023 年的賀歲電影《流浪地球 2》也用 CG 技術復現了廣受大眾喜愛的 " 達叔 " 吳孟達。但在以前,需要一整個工作室的專家們耗費一年的時間才能創造出這些效果。
如今,這個過程比以前更快,哪怕是對技術一竅不通的普通人,也可以在幾分鍾之内創造一個 "AI 換臉 " 的視頻。
對 Deepfake 的擔憂導致了對策的激增。早在 2020 年,包括 Meta 和 X 在内的社交媒體平台禁止在其網絡中使用類似的 Deepfake 產品。各大計算機視覺和圖形會議上也邀請着專家上台演講防御方法。
既然 Deepfake 犯罪分子已經開始大規模地蒙蔽世人,我們又該如何反擊呢?
多重手段,防御 Deepfake 風險
首要策略是對人工智能進行 " 投毒 "。要制造出逼真的 Deepfake,攻擊者需要海量數據,包括目标人物眾多的照片、展示其面部表情變化的大量視頻片段及清晰的語音樣本。大部分 Deepfake 技術利用個人或企業在社交媒體上公開分享的資料作為素材。
不過,現在已有諸如 Nightshade 和 PhotoGuard 之類的程式,能夠在不影響人類感知的情況下修改這些檔案,從而讓 Deepfake 失效。比如,Nightshade 通過誤導性處理,使得人工智能誤判照片中的面部區網域,這種錯誤識别恰恰能擾亂構建 Deepfake 背後的人工智能學習機制。
其次,對自身或所在企業在網上發布的所有照片和視頻進行此類防護處理,可有效阻止 Deepfake 克隆。然而,這種方法并非萬無一失,它更像是場持久戰。随着人工智能逐漸提高對篡改檔案的識别能力,反 Deepfake 程式也需要不斷研發新的方法以保持其有效性。
想建立起更為堅固的防線,我們就需要不再單一依賴易于被攻破的身份驗證方式。在本文的案例中,涉事的财務總監将視頻通話視為确認身份的絕對依據,卻未能采取如撥打總部或英國分支機構其他人員電話進行二次身份驗證等額外措施。實際上,已有部分程式利用私鑰加密技術來确保線上身份驗證的可靠性。采用多重身份驗證步驟,大大降低此類欺詐的可能性,是所有企業應當立即着手實施的措施。
因此,當下次你身處視頻會議之中,或是接到同事、親友的來電時,請務必謹記,螢幕對面可能并非真人。特别是在對方要求你将 2500 萬美元秘密轉賬至一組聞所未聞的陌生銀行賬戶時,我們至少可以先給上司打個電話。