今天小編分享的科技經驗:一個AI恐怖故事:我在色情網站,看到了自己,歡迎閲讀。
文 | 有界 UnKnown
" 我在群裏看到你,是你嗎?"
在韓國,如果有朋友給你發來這句問候,不要誤會,他大概率不是要和你叙舊,因為接下來他給你發的,很可能就是你的裸照。
看着螢幕,你如遭雷擊,腦子一片空白。雖然你百分百确認自己從來沒有拍攝這樣的照片,可手機螢幕裏的那個人眉目清楚,卻又分明就是你。
你不明白發生了什麼,心髒被攥緊,恐懼開始在全身蔓延。
照片當然和女孩兒無關,它是由一種名叫深度偽造(DeepFake)的技術生成,這種技術在國内更被人熟知的稱呼是 "AI 換臉 "。在如今的韓國,這種技術正在變成一團巨大的陰影,籠罩在所有女性的頭頂,帶來恐慌和迫害。
在韓國,犯罪者通過 DeepFake 将普通人的形象替換到色情圖片或視頻中,然後通過社交媒體上進行傳播,對當事人進行羞辱。
據《朝鮮日報》的報道,最近一周在警方發現的相關 Telegram 社群裏,參與制作和傳播 DeepFake 的加害者已多達 23 萬人。這些人不局限在韓國,也來自世界各地。
另據一位韓國網友在 X 上發布的帖子表示,受到 DeepFake 影響的受害者已經遍及韓國數百所國中、高中和大學。這些受害者中,80% 是女性,她們有的還在念初高中,屬于未成年人、有的是大學生或者教師,其中甚至包括女性軍人,她們的照片被稱為 " 軍需品 "。
▲ X 上披露受 Deepfake 技術影響的校園名單
回顧這場風暴,DeepFake 無疑是其中的關鍵。但它卻并不是一項新技術,最早出現在 2016 年的 DeepFake 到如今已有将近十年的歷史。
這十年間,DeepFake 一直遊走在罪惡和法律的邊緣,不斷挑戰着人性和道德的底線。從美國到中國,從韓國到印度,DeepFake 每隔一兩年就會有一次技術突破,然後又給這個世界帶來一場更大的恐慌。
技術有罪嗎?DeepFake 好像确實如此。但技術真的有罪嗎?卻似乎又與 DeepFake 無關。
被害人,從明星到百姓
追溯起來,DeepFake 最早出現在 2016 年。
當時,機器視覺還是全球 AI 研究最熱門的方向之一,一些研究人員在研究機器視覺的過程中使用 DCNN(深度卷積神經網絡)實現了人臉識别、表情轉換以及其他與影像處理相關的任務,這是 DeepFake 最早的雛形。
差不多一年之後,以這些技術為基礎,科研人員進一步采用 GAN(生成對抗網絡)實現了生成逼真的人臉影像。之後," 換臉 " 很快以極具破壞性的首秀向大眾展示它的威力。
2017 年,一位 Reddit 用户在 Reddit 新建了一個名為 "DeepFake" 的社區,開始用名人的肖像來制作色情内容進行傳播。知名女星斯嘉麗 · 約翰遜(Scarlett Johansson)、加爾 · 加朵(Gal Gadot)都成為了受害者,其帶來的惡劣影響,也曾喧嚣一時。
後來,這個社區雖然被很快删除了,但 "DeepFake" 這個名字卻被保留了下來,并成為 AI 合成内容的代名詞。
在這個階段,DeepFake 還掌握在以學術研究為主的少數群體手中,導致它的使用仍然存在一些門檻。直到 2019 年,開源工具 FaceSwap 将 DeepFake 的應用從學術研究普及到大眾,然後第一個廣泛流行的 DeepFake 應用 FakeApp 就随之出現,它讓非技術人員也能輕松創建 DeepFake 視頻。
DeepFake 從此開始越來越普遍,從 2019 年到 2020 年,DeepFake 頻繁引發各類公共事件,其影響範圍也從娛樂色情擴展到經濟社會的各個方面,甚至包括總統選舉。
而韓國新 N 号事件最大的一個變化在于,它説明 DeepFake 的受害者正在加速平民化,未來 DeepFake 的受害者,不再局限于明星政要,包括你我在内,每一個人都有可能成為新的受害者。
▲ DeepFake 相關代表事件
如今,随着 AI 大模型技術的發展,制作一張 DeepFake 圖片的成本幾乎已經可以忽略不計。
這次韓國新 N 号房之所以波及範圍如此之廣,一個重要的原因是,在 Telegram 上随便加入一個 DeepFake 的社群,就會獲得兩次免費的圖片生成機會。
" 将你喜歡的女生照片發給我。" 這是很多人加入在 Telegram 上加入 DeepFake 社群的第一步。
兩次免費的生成機會之後,新的内容生成雖然需要付費,但價格也并不高,每一次只需要支付一顆鑽石(Telegram 的一種加密貨币,約合 0.49 美元,3.49 元人民币)。而且和所有充值辦卡的邏輯一樣,充得越多,價格還會越便宜。
當然,你也可以選擇不付費,那麼你只需要再邀請一位新朋友加入,就可以再獲得一次免費生成的機會。由一個人拉來另一個人,罪惡通過熟人關系進行裂變,然後如病毒般擴散 [ 1 ] 。
這也導致另一個問題,那些所有通過 DeepFake 生成的淫穢内容,都由熟人進行制作,并在熟人圈子裏進行傳播。
比如在韓國學校裏,許多人就将身邊朋友的照片用來生成淫穢色情内容。很多照片,可能就來自你剛剛生日,或者旅遊之後在社交媒體發布的美照。
由于熟人的關系,這些 " 臉 " 屬于誰也通常被标記得一清二楚。你可能會莫名收到來自陌生人的短信或者郵件,對方能夠明确指出你學校和班級,或者你的工作部門和家庭住址,然後在末尾放上一段由 " 你 " 出演的性愛視頻。
▲韓國媒體報道中的 Telegram 截圖 圖源微博
對于身處其中的受害者而言,這件事情最可怕之處在于,你不知道平日裏衣冠楚楚的朋友們,會不會就是這 23 萬人中的一員;你不知道之前發布在社交媒體的照片會不會已經被他們保存下來,然後替換到那些淫穢不堪的場景當中。
你不知道他們會把這些照片發給誰,如何對着這些東西對你品頭論足,身邊又有多少人看過這些内容。
你只知道,這個世界有一雙無形的眼睛,在不為人知處默默的注視着、觊觎着你。
只是一場遊戲
受害者們自然不會緘口不言。
8 月份以來,韓國女性開始在國内外互聯網平台上進行抗議,要求将 " 加害者 " 繩之以法。但當韓國女性四處求告之時,加害者們卻頗有一種漫不經心,不以為然的态度。
有韓國女孩兒截圖犯罪者的言論,他們将受害者的抗議當做是一種女權主義,并表示 " 女人們對這件事情過分誇張 "。
韓國媒體的報道中也提到許多有關犯罪者的言論,他們説用熟人的形象制作深偽色情内容" 只是覺得有趣 "、" 只是在開玩笑 "、以及 " 用熟人的照片 P 圖更真實 ",而當有人説這樣做犯法時,他們甚至發出" 只有傻瓜才會被被警察逮住 "的言論。
▲在微博求助的韓國網友
是的,這件讓許多受害者深感痛苦的事情,在許多在許多加害者眼中只是一場 " 遊戲 "。
韓國媒體 Pressian 報道,截至今年 6 月,Telegram 上一個名叫 " 朋友 COCKHERO(Cock Hero)chat" 的群聊中 [ 2 ] ,已有數百名參與者上傳自己女性朋友的照片或視頻,然後利用 DeepFake 将它們制作成淫穢内容。
他們群聊裏分享素材和自己制作的内容,甚至有人在群裏表示," 請用我的朋友制作的 Cock Hero 并分享一些感想 ",并将其視為一種榮譽。當然,他們也會對受害女性的外貌,以及被性剝削的可能品頭論足。
在這個過程中,參與者被要求提供更多的素材,并表示 " 提供女性朋友的照片和視頻越多,生成的深偽内容質量就越好 "。
當然,這也只是數千甚至上萬個 Telegram 群聊中的一個,沒有人知道 Telegram 上這樣的群聊有多少。
而随着參與者的逐漸增多,這場由所謂 " 玩笑 " 引發的深偽色情内容制作正在變得越來越有組織,有預謀,并逐漸有脱離網絡犯罪範疇的迹象。
韓國媒體報道,現在已經有越來越多的受害者收到恐吓内容。施暴者通過制造深偽色情内容對受害者進行威脅,并索要錢财。許多加害者甚至開始讨論,如何将受害者綁架并将其變成性奴隸。
正如同潘多拉魔盒裏的罪惡,DeepFake 也正在衝破其 " 虛拟 " 的屬性,變得一發不可收拾。
DeepFake,法外之地?
面對這些問題,許多人肯定會有一個直接的疑問:法律難道不管嗎?
答案是管,但管的不多,且不同國家和地區法律能夠幹預的程度也有所不同。
比如今天 DeepFake 内容泛濫最嚴重的韓國,雖然在 2019 年的 "N 号房 " 事件和 2020 年 " 傳播虛假視頻 " 事件後,韓國當局在《性暴力處罰法》中增加了 " 數字性犯罪 " 的概念和相應的處罰條款,但約束能力實在有限。
與非法拍攝的視頻不同,在韓國,單純擁有和觀看深度偽造視頻是不會受到處罰的。而即使你利用 DeepFake 制作了破壞受害人人格的非法深度偽造影像或者視頻,但只要你説你沒有 " 以傳播為目的 ",你依然可以避免受到懲罰 [ 3 ] 。
這也是韓國在處理新 N 号房事件時出現非常多非常戲劇性案例的原因。
比如在今年一場針對 Telegram 上制作 DeepFake 内容的社群進行調查時,雖然警方知道社群的參與人數達到 1200 人,但卻僅有一人被捕。而他被捕的原因,是因為他将群裏的 DeepFake 内容傳播到了其他地方。除了他之外,這個社群包括運營方在内,沒有一個人受到懲罰。
除了韓國之外,美國、英國、歐盟針對 DeepFake 的内容也都有相應的法律,但各個國家的側重點和保護力度有所不同。
其中,美國的相關法律更傾向于保護政治選舉的可靠性。
加利福利亞州明确提出禁止 DeepFake 在政治和性侵害方面的施暴,并且條款具體,比如提出 " 禁止在選舉前 60 天内傳播可能影響選舉結果的虛假視頻 "。
但在聯邦層面上,美國缺乏統一的 DeepFake 法規。各州的法律執行在跨州和跨國案件中面臨困難,尤其是在涉及跨境的 DeepFake 内容傳播時,這些法律可能面臨執行力不足的情況。
英國的《诽謗法》可以用于打擊涉及 DeepFake 的诽謗行為,但這種法律通常需要受害者主動提起訴訟,成本高、時間長,普通人可能難以負擔。
雖然英國明确對傳播渠道做了規定,但 DeepFake 内容的跨國性傳播使得法律的執行復雜化,可能削弱其實際效果。
歐盟的法律相對比較嚴格,《一般數據保護條例》(GDPR)和《數字服務法》(DSA)通過嚴格的隐私保護和數字内容管理要求,對 DeepFake 技術的濫用進行限制,并對違反規定的公司施加了高額罰款。這些法律要求平台對 DeepFake 内容負有更高的責任,必須主動監測和移除虛假信息。
▲世界各國 DeepFake 法律法規一覽
而與大多數國家不同,中國針對 DeepFake 的内容,特别是涉及淫穢色情内容的部分,管理要更加嚴格。
今年 3 月份,杭州互聯網法院就曾審結一起關于利用 AI 換臉傳播淫穢色情内容的案件。
這個案子發生在 2020 年,和韓國人在 Telegram 上的玩法一樣,案犯通過 AI 工具制作換臉視頻,然後在社交軟體上創建社群進行分發。
案犯創建的社群名叫 " 浏覽群 " 和 " 私人訂制群 "。浏覽群主要用來傳播 DeepFake 視頻,招攬觀眾和客户;定制群則支持付費定制,按照 5 分鍾 300 元,10 分鍾 500 元的标準收費。案犯在審理中表示," 只要能看到臉的都能換,有人甚至要定制暗戀女生的換臉視頻。"
經過審理,該案犯最終因侵犯公民個人信息,以及制作、傳播淫穢物品牟利罪被判有期徒刑七年三個月。
通過這個案件我們也能看到,在中國通過 DeepFake 制作色情内容進行傳播,其犯罪成本要比國外高很多。
這樣的好處自然是中國沒有出現 DeepFake 内容大規模泛濫的問題,但另一面,也有更多人開始不滿足于高風險低回報的情色内容制作,而開始铤而走險,通過 AI 換臉技術進行電信詐騙。
可以看到,在中國犯罪成本比在韓國要高很多。所以很多人利用 AI 換臉技術,并不是制造淫穢色情内容,而是電信詐騙,而這種 DeepFake 也不止局限于面目,甚至包括聲音和個人身份信息。
2022 年以來,随着生成式 AI 技術的發展,國内電信詐騙案件持續高漲。
20 多年前的 2000 年,中國刑事案件中盜竊案件占比最多,達到總量的 60%,反扒小組曾一度成為一個專門的警察編隊。20 多年後的今天,網絡電信詐騙取而代之,成為新的 " 時代罪惡 " [ 4 ] 。
據中國警察協會最新數據,2024 年上半年,詐騙占刑案的比例上升至 60%,其中絕大部分是網絡電信詐騙。這是一個時代的變遷。
技術的發展,似乎在給這個社會帶來更多的疼痛。
結語
在歷史的傳統叙事中,人們喜歡将 DeepFake 這樣的事物歸結為原罪,比如魔丸轉世的哪吒,或者希臘神話中的阿多尼斯。但現代社會,我們并不這麼思考問題。
2014 年,因 P2P(peer to peer)分享傳輸技術而成為 " 宅男神器 " 的快播轟然倒塌,創始人王欣被逮捕。兩年之後,王欣在案件庭審中為自己和快播做出了一番經典的辯護——技術無罪。
在王欣的理論中,自己和快播只是創造了一項技術,至于用户拿他做什麼,與他無關。
但這件事情并沒有回答,為什麼技術帶來的罪惡仍然頻頻出現。直到兩年後,在距離王欣受審的法院不到 20 公裏的地方,騰訊研究院舉辦了一場活動,它的主題是" 科技向善 "。
食,色,性也。
技術發展的難點,除了技術本身之外,更本質的難點在于,如何限制撬動人性 " 惡 " 的杠杆。而在騰訊的理念中,使用技術的人本身應該承擔起這樣的責任,人類應該善用科技,避免濫用,杜絕惡用。
如今,科技向善已經被越來越多企業接受,成為中國技術發展的一項底層理念,但科技向善,卻是一個更長久的課題。