今天小編分享的科學經驗:AI 造假術!揭秘這項技術背後的真相,歡迎閱讀。
2024 年 12 月初,網絡上出現了一段帶貨視頻,在視頻中賣力地推銷某食品的居然是國家傳染病醫學中心主任、復旦大學附屬華山醫院感染科主任張文宏醫生。
不少網友出于對張文宏醫生的信任,不僅自己購買,還積極地把視頻轉發到家族群。然而,張文宏醫生本人很快對此做出了澄清:該視頻非其本人錄制,應該是用 AI 偽造的。
網絡截圖
近年來,随着人工智能技術的迅猛發展,此類 AI 偽造視頻事件頻頻曝光。不法分子利用 AI 技術,假冒名人身份進行詐騙、發布虛假廣告,甚至通過偽造視頻騙取巨額财產,嚴重威脅社會信任體系和信息安全。
今天,我們從技術角度來剖析一下此類事件。
AI 偽造視頻的技術:
從生存對抗網絡到 Deepfake
這類 AI 偽造視頻所用的技術并不是最近才出現的,上世紀九十年代學術界就開始了面部替換和影像生成相關技術的研究。2014 年,伊恩 · 古德費洛(Ian Goodfellow)提出了生成對抗網絡(GAN,Generative Adversarial Network),使得計算機可以生成更為逼真且高質量的影像。
生成對抗網絡由生成器(Generator)和判别器(Discriminator)兩部分組成。生成器創建内容,而判别器則檢測所創建的内容是不是真實的,并将結果反饋給生成器。在訓練過程中,兩者一攻一守,相互對抗,并在對抗中提升各自的能力,最終生成器能夠生成非常逼真的畫面。
2017 年,有人在網絡社區 Reddit 上創建了一個名為 "deepfakes" 的賬号,并發布了一些用生成對抗網絡技術制作的名人換臉視頻。從此,"Deepfake" 一詞開始被廣泛使用,通常是指代這類換臉視頻所用的技術。
2018 年 1 月,一款名為 FakeApp 的桌面應用程式發布。緊接着,Faceswap、DeepFaceLab 等具有類似功能的開源工具出現了。這些工具大大降低了 Deepfake 的門檻,使不具備專業知識的普通用戶也能輕松生成換臉視頻。
随着相關技術不斷進步,今天的 Deepfake 和之前相比,不僅生成的視頻分辨率更高、面部表情同步更自然,而且所需的數據更少、訓練時間更短。早期 Deepfake 訓練往往需要數百到上千張目标人物的圖片或數分鍾至數小時的視頻,以獲取不同角度、不同表情的臉部特征。但随着生成對抗網絡技術本身的發展,遷移學習(Transfer Learning)、小樣本學習(Few-Shot Learning)等技術的出現,現在僅需要幾十張甚至單張照片就可以生成 Deepfake 視頻。
圖庫版權圖片,轉載使用可能引發版權糾紛
另外,早期 Deepfake 只能生成畫面,現在結合聲音克隆(Voice Cloning)、語音風格遷移(Voice Style Transfer)等技術,還可以生成以假亂真的目标人物聲音,并且可以令視頻中的嘴部動作和聲音一致。
簡單來說,現在只需要有一張照片,幾秒鍾的語音,就可以生成 Deepfake 視頻。當然,如果有更多照片和更長的語音,生成的視頻也會更逼真。
Deepfake 技術的
正面應用和負面影響
Deepfake 雖然是 " 偽造 ",但在獲得被 " 偽造 " 者許可的情況下,可以有很多正面的應用。例如,2019 年,英國足球明星大衛 · 貝克漢姆發布了一段呼籲消滅瘧疾的視頻。在視頻中,他使用了包括斯瓦希裡語和約魯巴語等在内的 9 種語言。而除了英語之外,其餘 8 種語言都是用 Deepfake 技術生成的。
此外,Deepfake 所使用的各類技術在數字人等領網域也有廣泛應用,在視頻主播、影視制作、教育和培訓、心理治療康復等領網域都能發揮積極的作用。
但任何技術都可能被用在不好的地方。在前面提到的假張文宏之前,已經出現過假靳東、假馬雲、假雷軍、假于東來等。假冒名人賣貨不是最糟糕的,Deepfake 類技術還被用在很多更惡劣的地方,例如詐騙。
2024 年 12 月 20 日,BBC 報道了一則《愛情騙子利用 Deepfake 從我這裡騙走 1.7 萬英鎊》的故事。受害人是 77 歲的尼基 · 麥克勞德(Nikki MacLeod)。騙子告訴她,自己在一座石油鑽井平台上工作,并要求 Nikki 購買 Steam 禮品卡以及通過 Paypal 轉賬等方式提供金錢,以便在鑽井平台上獲得互聯網連接,以及支付到蘇格蘭來見她的旅行費用。Nikki 最初持懷疑态度,但看到對方發來的鑽井平台上的視頻後就相信了。
2024 年 1 月,某香港公司的一名員工從公司賬戶轉了 2500 萬美元給詐騙者。騙子以首席财務官的名義和他進行了視頻通話,要求他執行這筆轉賬。在視頻通話中,該員工不僅看到了首席财務官 " 本人 ",甚至還看到了其它 " 同事 "。
據著名會計師事務所德勤 2024 年 5 月發布的一份報告,2023 年美國的 Deepfake 欺詐增加了 700%,造成了 123 億美元的損失,并且這一數字在 2027 年可能會達到 400 億美元。
圖庫版權圖片,轉載使用可能引發版權糾紛
除了詐騙之外,Deepfake 技術可以還被用來騙過人臉識别。很多移動應用會使用人臉識别來驗證用戶身份。為防止用照片假冒人臉,現在的人臉識别技術通常都會進行活體檢測,類似 3D 結構光等活體識别技術需要特殊硬體,但只有部分手機支持。
目前,很多場合使用的還是基于手機前置攝像頭的 2D 人臉識别。而 2D 人臉識别的活體檢測主要是要求用戶做出眨眼、點頭等動作,以及用螢幕閃爍特定顏色的光線。于是就有人使用 Deepfake 技術結合一些其它的手段,來騙過人臉識别,從而盜取網絡賬号。
如何識别和檢測 Deepfake 視頻?
制作不夠精良的 Deepfake 視頻用肉眼就可看出異常。例如,人物的面部表情或眼神不自然,眨眼的次數過少,面部邊緣模糊,或者與背景的過渡不自然,人臉的光影效果與周圍環境的光線情況不符等。但是,随着 Deepfake 技術的進步,這些異常特征也越來越少。
目前已知的 Deepfake 技術能仿冒人臉做出的表情,但還不能仿冒人臉在受到外部壓力時產生的變形。所以,在視頻通話時,如果懷疑遭到了 Deepfake 欺詐,可以要求對方用食指按壓一側的鼻翼,或按壓一側的臉頰。
除了肉眼分辨,用 AI 來識别 AI 生成的内容也是熱門的研究方向。例如合成視頻可能在幀與幀之間存在不連續性,進行時序一致性分析就可能發現異常。另外,人的心髒跳動會導致皮膚出現和脈搏節律一致的細微色彩變化,通過這種色彩變化可以獲取脈搏信息,而 Deepfake 的視頻可能沒有這種特征。
但我們也要意識到,Deepfake 使用的生成式對抗網絡技術本來就是由生成器和判别器兩部分組成,任何一種檢測 Deepfake 的技術手段也都可以納入到 Deepfake 的判别器中,從而生成該技術難以檢測的偽造内容。
近年來,我國頒布實施了《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》等,但這些法律法規主要約束的是提供相關服務的平台。而随着軟硬體技術的發展,目前 Deepfake 完全可以只使用運行在個人電腦中的模型完成。
所以,要應對 Deepfake 帶來的各類問題,需要全流程的綜合治理機制,未來需要技術、平台、法律的多元協同。用 Deepfake 假冒名人身份,欺騙他人購買產品,不僅可能違反《民法典》第 1019 條和第 1024 條,侵犯他人的肖像權、名譽權,還可能涉及《刑法》第 266 條詐騙罪、《刑法》第 222 條虛假廣告罪等。對于使用 Deepfake 涉及違法乃至犯罪的行為,就需要依法進行打擊。
策劃制作
作者丨于旸 騰訊玄武實驗室負責人
審核丨于乃功 北京工業大學機器人工程專業負責人,北京人工智能研究院機器人研究中心主任,博士生導師
趙精武 北京航空航天大學法學院副教授,工信部工業和信息化法治戰略與管理重點實驗室副主任、網絡空間國際治理研究基地副主任
責編丨林林
審校丨徐來
相關推薦
2." 多喝水 " 真的有用!最新研究顯示:多喝水有助于減肥、治療腎結石……
本文封面圖片及文内圖片來自版權圖庫
轉載使用可能引發版權糾紛
原創圖文轉載請後台回復 " 轉載 "
點亮 " 在看 "
一起漲知識!