今天小編分享的科技經驗:韓國N号房卷土重來,這一次是深度偽造,波及超200所學校,歡迎閱讀。
Deepfake(深度偽造),再度深陷輿論的風波。
這一次,用這項 AI 技術犯罪的嚴重程度被網友直呼是" 韓國 N 号房 2.0",魔爪甚至伸向了眾多未成年人!
事件影響之大,直接衝上了各大熱搜、熱榜。
早在今年 5 月,《韓聯社》便通報過一則消息,内容是:
首爾大學畢業生樸某和姜某,從 2021 年 7 月至 2024 年 4 月,涉嫌利用 Deepfake 換臉合成色情照片和視頻,并在通信軟體 Telegram 上私密傳播,受害女性多達 61 人,包括 12 名首爾大學學生。
僅是這位樸某便用 Deepfake 合成了大約 400 個色情視頻和照片,并與同夥一起分發了1700 個露骨的内容。
然而,這件事情還是 Deepfake 在韓國泛濫的冰山一角。
就在最近,與之相關的更多細思極恐的内幕被陸續扒了出來。
例如韓國婦女人權研究所公布了一組數據:
從今年 1 月 1 日到上周日,共有781 名Deepfake 受害者在線求助,其中288 名(36.9%)是未成年人。
而這個"N 号房 2.0"也是非常恐怖的存在。
據《阿裡郎》進一步的報道:
一個與 Deepfake 相關的 Telegram 聊天室,竟吸引了220000 人,他們通過篡改婦女和女孩的照片來創建和分享偽造的影像,受害者包括大學生、教師,甚至是軍人。
不僅是受害者有未成年人,甚至加害者也有大量的青少年。
不僅如此,這次輿論的興起過程也是非常的 drama。
因為肇事的韓國男性們(以下簡稱韓男)可以說是非常的猖獗,有輿論苗頭的時候,他們就會稍微 " 克制 " 一下:
有些韓男對這件事的态度也是較為惡劣,甚至有初中男生開公開寫到" 不用擔心,你不夠漂亮,不至于被 Deepfake"這種話。
于是乎,韓國女性們(以下簡稱韓女)的反擊開始了。
她們将 " 陣地 " 轉向韓國之外的社交媒體,例如在 X 上,有人發布了制作 Deepfake 學校的地圖:
還有韓女在微博中發布" 求救貼 ":
随着輿論在各大社交媒體上發酵,韓國政府也出面做出了表态:
目前已經有超過 200 個學校受到 Deepfake 影響;計劃将 Deepfake 犯罪的刑期從 5 年提高到 7 年。
據了解,韓國警方已成立特别工作組,專門應對深度偽造性犯罪等虛假視頻案件,該工作組将運行到明年 3 月 31 日。
Deepfake 已逐漸進化
事實上,最新 Deepfake 技術已經進化到了 " 恐怖 " 階段!
生圖 AI Flux 以一組真假難分的 TED 演講照片,引千萬(前推特)網友在線打假。(左邊由 AI 生成)
深夜直播的 " 馬斯克 ",也吸引了上萬群眾圍觀打賞,甚至搞起了網友連麥。
要知道,整場直播僅用一張圖片就能實現實時換臉。
這一切果真如網友所言,Deepfake 已将科幻照進現實。
其實,Deepfake 一詞最早起源于 2017 年,當時一名 Reddit 用戶 "Deepfakes" 将色情女演員的面部替換成了一些美國知名演員,引起一片争議。
而這項技術可以追溯到 2014 年,Goodfellow 與同事發表了全球首篇介紹GAN的科學論文。
當時就有迹象表明,GAN 有望生成仿真度極高的人臉。
後來随着深度學習技術的發展,自動編碼器、生成對抗網絡等技術逐漸被應用到 Deepfake 中。
簡單介紹下 Deepfake 背後的技術原理。
比如偽造一個視頻。
其核心原理是利用深度學習算法将目标對象的面部 " 嫁接 " 到被模仿對象上。
由于視頻是連續的圖片組成,因此只需要把每一張圖片中的臉替換,就能得到變臉的新視頻。
這裡要用到自動編碼器,在應用于 Deepfake 的情況下輸入視頻幀,并編碼。
△圖源:維基百科
它們由編碼器和解碼器組成,編碼器将影像減少到較低維的潛空間,解碼器從潛表征中重建影像。
簡單說,編碼器将一些關鍵特征信息(如面部特征、身體姿勢)轉換成低維的潛在空間表示,而解碼器将影像從潛在表示中恢復出來,用于給網絡學習。
再比如偽造影像。
這裡主要用到生成對抗網絡(Gan),它是非監督式學習的一種方法,通過讓兩個神經網絡相互博弈的方式進行學習。(此方法也可以用于偽造視頻)
第一個算法稱為生成器,輸入随機噪聲并将其轉換為影像。
然後,該合成影像被添加到真實影像流(例如名人影像)中,這些影像被輸入到第二個算法(稱為判别器)中。
判别器試圖區分樣本來源于真實還是合成,每次注意到二者之間的差異時,生成器都會随之調整,直至最終再現真實影像,使判别器無法再區分。
然而,除了讓外觀上看起來無法區分,當前的 Deepfake 正在施展" 組合拳 "。
聲音克隆也更新了。現在,随便找一個 AI 工具,只需提供幾秒原音,就能立馬 copy 你的聲音。
用合成聲音偽造名人的事件也層出不窮。
此外,1 張圖生成視頻已不再新奇,而且目前的工作重點在于後續打磨,比如讓表情、姿勢看起來更自然。
其中就有一項唇形同步技術(Lip syncing),比如讓小李子開口說話。
如何識别 Deepfake?
雖然 Deepfake 現在已經很逼真了,但下面還是給大家介紹一些識别技巧。
目前網絡上大家讨論的各種方法,歸納起來就是 :
不尋常或尴尬的面部姿勢
不自然的身體運動(肢體畸變)
着色不自然
音頻不一致
不眨眼的人
皮膚的衰老與頭發和眼睛的衰老并不相符
眼鏡要麼沒有眩光,要麼有太多眩光,并且無論人如何移動,眩光角度都保持不變。
放大後看起來很奇怪的視頻
……
得,列文虎克看了直呼内行,不過單憑肉眼觀察着實有點費人了!
更高效的方法還得是,用魔法打敗魔法——用 AI 檢測 AI。
國内外知名科技企業均有相關動作,比如微軟就開發了一種身份驗證工具,可以分析照片或視頻,并對其是否被操縱給出評分。
OpenAI 此前也宣布推出一款工具,用于檢測由 AI 影像生成器 DALL-E 3 創建的影像。
在内部測試中,該工具在 98% 的時間内正确識别了 DALL-E 3 生成的影像,并且能以最小的影響處理常見修改,如壓縮、裁剪和飽和度變化。
芯片制造商英特爾的 FakeCatcher 則使用算法分析影像像素來确定真假。
而在國内,商湯數字水印技術可将特定信息嵌入到多模态的數字載體中,支持影像、視頻、音頻、文本等多模态數字載體。官方稱這種技術能保證超過 99% 的水印提取精度,且不會損失畫質精度。
當然了,量子位此前也介紹過一種很火的識别 AI 生圖的方法——調整飽和度檢查人物牙齒。
飽和度拉滿下,AI 人像的牙齒就會變得非常詭異,邊界模糊不清。
Science 發文:需要标準和檢測工具
就在昨天,Science 也發表了一篇文章對 Deepfake 進行了探讨。
這篇文章認為,Deepfake 所帶來的挑戰是科學研究的完整性——科學需要信任。
具體而言,就是由于 Deepfake 逼真的造假、以及難以檢測等原因,進一步威脅到對科學的信任。
而面對這一挑戰,Science 認為應當 " 兩手抓 ",一是使用 Deepfake 的技術道德标準,二是開發精準的檢測工具。
在談及 Deepfake 與教育發展的關系時,文章認為:
盡管 Deepfake 對科學研究和交流的完整性構成重大風險,但它們也為教育提供了機會。
Deepfake 的未來影響将取決于科學和教育界如何應對這些挑戰并利用這些機會。
有效的錯誤信息檢測工具、健全的道德标準和基于研究的教育方法,可以幫助确保 Deepfake 在科學中得到增強,而不是受到 Deepfake 的阻礙。
總而言之,科技道路千萬條,安全第一條。
One More Thing
當我們讓 ChatGPT 翻譯相關事件的内容時,它的反應是這樣:
嗯,AI 看了都覺得不妥。