今天小編分享的互聯網經驗:從換臉騙錢到套殼賣課,AI詐騙如何避坑?,歡迎閲讀。
圖片系 AI 生成
文 | 太平洋科技,作者 | 趙甜怡,編輯 | 曾憲天
當人們把 2023 年看作是 AI 元年時,2024 年的目光自然地聚集在了 AI 應用的落地上。然而,在商業化之前,AI 已經變成了某些灰色產業的斂财工具。
莫名其妙的電話、熱情的異國美女、謠言、詐騙……在你無意識的時候,AI 騙局就已經來到你身邊。PConline 收集整理了四大 AI 新騙局,來看看你最 " 眼熟 " 哪一個?
騙局一:語音求救
常見範圍:微信、電話
目标人群:覆蓋所有,其中家長居多
面對陌生的号碼你可能會直接挂掉,但是如果是家人打來的 " 求救電話 " 呢?
根據中國新聞網的報道,去年 11 月,王欣的母親突然接到一通 " 王欣 " 打來的電話,聲稱自己被綁架,讓母親轉賬 30 萬元,否則 " 後果自負!" 着急的王欣母親立馬就打算給對方轉錢,被同事攔了下來。同事建議先給王欣打電話,确認情況。結果,真實的王欣正在睡午覺,啥事也沒。而那通 " 求救電話 " 就是騙子利用王欣的 AI 克隆聲音制作的。
近幾年,AI 語音合成技術有了顯著的發展,一些 C 端的應用也逐漸成熟。像 Voice AI、剪映等應用中都提供生成 AI 克隆音色的功能。只要念兩個例句,人人都能輕松生成自己的 AI 音色。不僅如此,現在的技術已經可以在保證聲音的高保真度的同時,模拟你的音色,甚至細致到你説話時的口音、重音、換氣的節奏等等,完全可以滿足實時的互動需求。
先前在網絡上爆火的 "AI 孫燕姿 " 就曾引得一眾讨論。Up 主用孫燕姿的 AI 克隆音色翻唱《發如雪》《Melody》等眾多知名歌曲。該視頻合集獲得了 2000 多萬的播放量。網友們都在驚嘆,AI 甚至會改變原曲中的部分旋律,依照孫燕姿的曲風特點進行調整,幾乎能做到以假亂真的水平。同時,網友們也都開始擔心,技術一旦被濫用,防詐騙的成本就更高了。
這樣的擔心不無道理。據網友分享,自己曾接到過一通莫名其妙的電話。一接通,對方就問 " 你家在哪 "。一頭霧水的網友回答 " 不知道 ",徑直挂斷了電話。然而就在幾天後,網友的家人就接到了 " 網友 " 的求救電話——騙子僅憑一句話就能生成網友的 AI 克隆聲音,實施詐騙。
如果你認為,耳聽為虛,眼見為實。視頻信息才能确認身份,那麼接下來這個騙局,将會颠覆你的想法,讓你驚呼 " 防不勝防!"
騙局二:換臉詐騙
常見範圍:微信、線上會議、FaceTime
目标人群:覆蓋所有,熟人關系居多、針對女性居多
如今,眼見為實的 " 鐵律 " 也會面臨意外的情況。福州市的郭先生就曾因為這條 " 鐵律 " 狠狠吃了虧。
" 平安包頭 " 曾公布一起案例:在去年 4 月份,郭先生的朋友突然打來微信視頻電話,説自己在外地投标,需要 430 萬的保證金,想借郭先生公司的賬户走一下帳。這位 " 朋友 " 随即将錢打到了郭先生的賬户上,并且截圖讓郭先生确認。雖然還未等來銀行的通知信息,但郭先生還是先把錢轉了過去。結果,跟他視頻的,是用 AI 換了臉的騙子,佯裝成郭先生的朋友來騙錢。
郭先生報警後,還專門表示:" 我在視頻中确認了面孔和聲音,才放松了戒備。"
其實," 眼見為虛 " 的換臉技術我們早就見過。這種技術名叫 Deepfake 深度偽造,是一種将圖片 / 視頻合并疊加到源圖片 / 視頻上,生成虛假的個人表情、動作的 AI 技術。在 2023 年上映的《流浪地球 2》中,就是利用這個技術,将 62 歲的劉德華還原到我們印象中年輕的華仔模樣。
據《流浪地球 2》的視覺特效徐建的分享,在電影中,Deepfake 的技術方案是用要替換的目标演員的海量素材訓練 AI 替換拍攝素材的一種方式,相對省時省力省錢。在好萊塢電影制作中,這樣的操作很常見。漫威的年輕版鋼鐵俠和年輕版黑豹都是基于 Deepfake 和演員年輕時的 2D 素材訓練 AI 得出的。
但先進的技術往往是一把雙刃劍。落到居心叵測的人手裏,就變成了傷人的利刃。
前不久,數百萬網友在推特上看到了由 AI 生成的美國著名女歌手 Taylor Swift 的不雅照。這一組在推特上被查看了 4700 萬次的照片,就是由 Deepfake 生成的。影響之惡劣,以至于推特直接禁止搜索 #Taylor swift# 的詞條。然而,Taylor 并不是第一個受害的女明星。打開某些網站,甚至會有專門的 " 名人明星 " 分類,裏面充斥着各種 AI 換臉的女明星。
根據專注于檢測 Deepfake 的情報公司 Sensity AI 的一份報告,目前網上超過 96% 的 Deepfake 影像都具有色情性質,而且幾乎所有影像都針對女性。
發布在社交媒體上的照片,可能被别有用心的人拿來 " 喂 "AI。普通人也随時面臨着被 " 開盒 "(指網絡上公開曝光他人隐私的行為)的風險。根據奇安信集團發布的《2024 人工智能安全報告》,"2023 年基于 AI 的深度偽造(Deepfake)欺詐暴增了 3000%"。
利用換臉技術來招搖詐騙固然可怕,然而更深的套路是 " 攻心計 "。
騙局三:美女帶貨
常見範圍:視頻号、抖音、小紅書等多家社交媒體平台
目标人群:覆蓋所有,其中男性居多
一個俄羅斯大美女向你發來視頻,説想嫁到中國,你會支持她嗎?相信 90% 的人都會表示支持。
外國人的面孔、些許生硬的中文,再配上濃厚的濾鏡,就組成了龐大的異國美女隊伍。這些 " 小姐姐 " 來自全球各地(近兩年以俄羅斯居多),# 中俄友誼 # 是她們一定會帶的視頻标籤詞。在她們發布的視頻中,首當其衝的主題就是 " 想要嫁到中國 "。
在這一主題下," 小姐姐們 " 的視頻叙事采取了豐富多樣的角度:
" 雖然我是 xx 國人,但中國是我的家。"
" 朋友家人都不理解,但我知道我遲早是中國媳婦。"
" 你願意娶一個不要彩禮的俄羅斯女生嗎?"
……
如果你對美女這個賽道不感興趣,也沒關系。還有認知思維賽道、軍事賽道、時事評論賽道等等,各式各樣的 " 外國人 " 都任你選擇。
這就是 AI 的新套路。視頻全部都是由 AI 合成的假人,再配上機器語音,打着 " 促進國際友誼 " 的旗号,出售商品。這些 " 外國人 " 談論着中國社會的方方面面,評論區收獲了許多真心實意的支持。不少粉絲評論留言:" 你比中國人還了解中國!"" 為你的中文點贊!"
即使視頻中," 外國友人 " 把 " 了(li ǎ o)解 " 念成了 "le" 解,仍能收獲 10 萬 + 的點贊,櫥窗中 19.9 元的雜糧粥仍能賣出 30 萬的驚人銷量。
在這背後操刀的是自媒體團隊。他們的商業思路十分清晰:先通過視頻來積累粉絲——到達一定粉絲量後,開櫥窗帶貨——實現變現。由于制作成本低,在起号階段,一人往往能運營數十個賬号,視頻的腳本也是通用的。無所謂單個賬号是否有爆款," 廣撒網,多斂魚 ",商品銷量才是最終目的。
即使常有文案 " 撞車 " 的情況發生,這類視頻還是吸引了大量來自三四線城市的中老年粉絲群體,紛紛為了 " 國際友誼 " 下單。
如果你認為,這是對下沉市場的招數,你絕不會上當。那麼下一個騙局,就是專門針對年輕群體的 AI 套路。
騙局四:AI 知識付費
常見範圍:微博、抖音、小紅書等多家社交媒體平台
目标人群:積極學習的年輕群體
" 現在不學 AI,第一波失業的就是你!""AI 工作年薪 200 萬,入門方法免費教你!""AI 是普通人逆襲的最後機會!" 你一定沒少看到這樣的标語。
從 2022 年底,OpenAI 發布 ChatGPT 開始,學習 AI 就成了新風潮。随着科技巨頭們不斷推陳出新,各行各業的内容創作者們也鉚足了勁,在自己的賬号、社群中發布越來越多的 AI 課程—— " 零基礎學 AI""AI 繪畫教程 ",甚至還有 " 教你如何做 AI 課程 " 的課程。
但大水漫灌的結果,必然是泥沙俱下。
不少年輕粉絲奔着學習新知識去,卻領了 " 吃一塹,不長智 " 的教訓。許多内容創作者利用信息差,将國外免費開放的官方 AI 教學翻譯過來,就成了自己的課件,美美賣課。像許多 " 零基礎 AI" 課程中常見的 "prompt 使用技巧 ",其實是來自 OpenAI 官網發布的教學内容。這些标價 199、299 元的課程還贈送了 " 免費 AI 體驗 "。但實際上,是本就免費開放的大模型,再加上一個套殼包裝罷了。
一些粗制濫造的 AI 課程絲毫不影響這個市場的火熱程度。不少焦慮的年輕人仍在直播間瘋狂下單。在抖音,一個 4 萬粉絲的博主,近 800 元的 AI 錄播課竟有 2000+ 人學習,這意味着,單課程銷售額至少 160 萬元。
這些授課人就是通過傳播焦慮的方式來促進課件的下單量。一不小心你就會成為 " 韭菜園裏最靓的一棵 "。
寫在最後
上面四種 AI 騙局,你被哪個絆住了腳?
其實,現在互聯網上的 AI 騙局遠不止這些。網絡安全公司 Fortinet 發布的《2024 全球安全威脅預測》中提到,AI 已經成為 " 頭号關注 "。假視頻被頻繁用于傳播謠言,一張朋友圈照片也有可能被拿去換臉。有些人借着 AI 技術的發展,炮制了一個又一個新騙局。不明真相的我們,一不小心就會走入這 " 量身定制 " 的套路。
雖然關于 AI 的法制監管都在積極的推進中,但政策只是保護的一方面。另一方面還在于我們自身。擦亮眼睛、審慎思考,才是我們面對騙局的有效出路。
本篇文章中的案例均為真實事件,化名。