今天小編分享的科學經驗:萬惡的Deepfake,為什麼百禁不絕?,歡迎閱讀。
在國慶假期期間,網友惡搞的雷軍 AI 配音突然爆火,引發了諸多争議。AI 造假音視頻,似乎已經成為一個無法關閉的潘多拉魔盒。在更早之前,韓國爆發的 Deepfake 危害事件就曾引發全球關注。根據相關報道,最初是由多名韓國女性通過社交平台,披露了傳播 Deepfake 換臉不雅視頻的事件。随後,有越來越多的危害事件與受害人被爆出。
根據社交媒體流傳的受 Deepfake 影響名單,有超過百所韓國中小學以及國際學校出現相關問題。有韓國官員表示,受害者可能達到 22 萬人。
這裡大家可能會有這樣一個疑問:為什麼多年來人人喊打的 Deepfake 反而愈演愈烈?
要知道,早在 2017 年 Deepfake 剛剛出現的時候,僅僅幾天就遭到了全球範圍的合力封殺,包括但不限于主流社交媒體的嚴格封禁。此後,多個國家與地區采用了立法的形式,嚴禁利用 Deepfake 以及其他 AI 換臉技術侵犯他人肖像權與隐私權。
危害難以杜絕,是因為 Deepfake 技術高深,讓人防不勝防嗎?
答案剛好相反,Deepfake 難以禁止的原因,恰恰在于其過分簡單,只需要簡單的技術資源就能造成巨大的破壞性影響。
而這些資源,在今天的互聯網環境下能夠輕而易舉地獲取。
我想,我們沒有必要從人性和動機上讨論為什麼有人制作和傳播 AI 換臉視頻。只要違法成本夠低,這種行為就必然無法杜絕。作為普通人,我們也難以從立法和執法的角度探讨如何打擊 Deepfake。我們能做的,是審視進行 Deepfake 的真實情況,進而考慮如何增大違法難度,壓縮這種行為的生存空間。
Deepfake 被很多媒體稱作 " 人類最邪惡的 AI 技術 "。這種描述有其合理性,但也客觀上對 Deepfake 進行了妖魔化、神秘化的修飾,讓不了解的人将其與黑客、勒索病毒、暗網等關鍵詞聯系起來,認為其非常隐秘而高深。
事實恰恰相反,Deepfake 的危害性與破壞性,恰恰在于其操作簡單。近乎沒有任何技術學習門檻,同時其所需要的每一步幫助,都可以在公開的互聯網環境中堂而皇之地獲取。
試想一下,韓國的 22 萬名受害者,不可能都是某幾個技術大牛進行的施暴。當普通人可以随時随地,沒有成本地作惡,惡意才真正難以被遏制。
之所以這樣說,是我們必須先了解 Deepfake 的具體流程。一般來說,使用 Deepfake 進行 AI 換臉,需要經歷以下幾個步驟:
1. 準備 Deepfake 相關軟體,或者找到具有類似功能的在線 AI 開發平台。
2. 準備要進行人臉替換的視頻,對視頻進行照片化切圖。
3. 挑選出若幹照片中要替換的人臉并進行操作。俗稱切臉,提臉。
4. 将準備好的照片進行覆蓋,進而進行模型訓練。這一步對于缺乏技術功底的人來說,大概率需要預訓練模型來輔助訓練。
5. 訓練完成,生成視頻。
從這個流程中我們可以總結出,想要進行一次有危害性的 Deepfake 最多只需要四件東西:AI 換臉軟體、預訓練模型、被換臉的視頻、受害人照片。
獲取這些東西過分容易,就是 Deepfake 百禁不絕,反而流毒更廣的核心原因。
我們可以來分步驟看看,Deepfake 的 " 作案工具 " 究竟來自哪裡。讨論這些的原因絕不是希望普及相關知識,而是希望指出互聯網環境下,留給 Deepfake 作惡者的機會與漏洞究竟在哪裡。這些漏洞不被斬斷,僅憑道德層面的号召倡議,或者對 AI 換臉視頻的技術識别,是斷然無法組織别有用心者的。
首先,AI 換臉必然需要受害人的照片。根據相關技術社區的分享,最初版本的 Deepfake 大概需要 50 張、多角度、高清晰度的照片,才能實現較為自然的視頻合成。但經過幾年的迭代,目前只需要 20 張左右的照片就可以實現。
試想一下,對于稍微有社交媒體分享習慣的朋友來說,20 張照片被盜用簡直是輕而易舉。
加上一段很容易找到的不雅視頻,一場無妄之災可能就此開啟。
唯一可能給不法者造成阻礙的,是 AI 換臉依舊需要比較好的顯卡來進行訓練加速,但中高端的遊戲顯卡也已經完全足夠。
獲取成本為 0 的不法軟體,技術成本為 0 的操作難度,構成了 Deepfake 真正恐怖的地方。
到以上為止,如果是一個有 AI 技術能力的人,已經獲得了全部進行 Deepfake 施暴的前提條件。但對不太了解 AI 技術的人來說,還有一個關鍵需求,就是獲取預訓練模型。
預訓練模型,是 AI 開發的一個基本機制。由于大部分 AI 模型的前置訓練任務是相同的,因此開發者傾向将相同的部分進行預訓練,在同類任務中作為公用底座來使用。而在 AI 換臉任務中,由于難以掌握訓練方法,大部分新手訓練出的 AI 換臉模型會出現貼臉不自然,嚴重掉幀等現象。這時候就需要使用預訓練模型進行訓練,從而在提升模型精度的同時,也降低模型訓練所需時間。
按理說,作為非技術人員的普通人,應該較難獲得預訓練模型來進行 Deepfake 吧?
事實并非如此,打開很多電商平台、二手交易平台,就可以輕松找到專用于 Deepfake 的預訓練模型。這些模型一般被稱為 "AI 金丹 "。
在某主流二手交易平台,搜索 AI 金丹、AI 仙丹、AI 底丹,或者 DFL 丹藥、DFL 靈丹等關鍵詞,會出現大量 Deepfake 預訓練模型的出售聯接。一般只需要幾元錢成本。
由于平台缺乏監管,這類售賣行為長期存在,成為滋長惡行的 " 產業鏈 "。就連上文提到的 DeepFaceLab 軟體,很多時候也可以在二手交易平台買到,賣家還對進行操作教程與指引。
而這種 "AI 仙丹產業鏈 " 另一個難以杜絕的地方在于,一個 Deepfake 用戶熟練操作之後,又可以将自己的模型制作為預訓練模型,也被俗稱為 " 煉丹 "。煉好的彈藥再到二手平台進行販賣,這種灰色產業就這樣不斷擴散綿延。
總結 Deepfake 施暴者每一步的支持來源,是為了指出杜絕其危害,真正應該着手發力的地方。
目前相關話題的讨論,經常會陷入某種誤區:總是想要用非常前沿的,高成本的方法去阻擊 Deepfake,比如倡導利用 AI 技術來鑑别視頻是否為 AI 生成等。
當然,通過 AI 算法來分辨 AI 換臉有重要的應用場景,比如在 AI 換臉詐騙識别上,檢測視頻造假就至關重要。
但在類似韓國 Deepfake 事件,這類利用 AI 換臉炮制不雅視頻的犯罪中,識别視頻為假是無力的,甚至是無用的。
對于造假者與傳播者而言,他們大多不在乎視頻是否為假。依靠高精尖的智能化技術去檢測 Deepfake,就像用微小的技術沙袋,去堵決堤的人性江河,不過是揚湯止沸而已。
更有效的方法,或許是釜底抽薪,是從源頭上杜絕别有用心者嘗試 Deepfake。
首先,或許我們需要在社交媒體上分享照片時更加慎重。誠然,不能讓受害者承擔制止犯罪的義務,但在這個充滿不确定性的網絡環境中,個人隐私的保護責任也在變得愈發重要。
接下來,是對相關軟體要采取更具嚴格的封禁策略。對傳播類似軟體采取适當的制止行為。尤其在 AIGC 興起後,大量新型平台開始為普通開發者提供各種各樣的 AI 開發功能。一定要謹慎提防類似功能混迹其中,成為新的 AI 安全漏洞。
此外,電商平台與二手交易平台需要更加嚴格監管。堵住 Deepfake 軟體與預訓練模型的售賣渠道。切斷利益鏈,往往是禁止不法行為的關鍵。
在今天,我們與 Deepfake 的鬥争才剛剛開始。對它的祛魅與了解,是抵制惡意的第一步。