今天小編分享的社會經驗:又一起AI換臉詐騙,安徽一男子被“9秒AI換臉視頻”騙上百萬,歡迎閲讀。
日前,"AI 換臉詐騙正在爆發 " 的話題引發廣泛關注。福建一男子在跟 " 好友 " 視頻聊天後把 430 萬轉到了好友朋友的銀行卡上,之後發現被騙,所幸福建、内蒙古兩地警方和銀行迅速啓動止付機制成功止付攔截 336.84 萬元。北京青年報記者注意到,5 月 25 日,安徽省公安廳也通報了一起類似案件。
今年 4 月底,安慶經開區發生一起 " 冒充熟人 " 詐騙案。民警調查發現,詐騙分子使用了一段 9 秒鍾的智能 AI 換臉視頻,佯裝 " 熟人 " 讓受害人放松警惕,從而實施詐騙
4 月 28 日,專案民警連夜趕赴外省,抓獲 3 名涉詐嫌疑人。5 月 22 日,警方将先行追回的 132 萬元被騙款返還給群眾。目前案件正在進一步偵辦中。
北京青年報此前曾報道,日前,中國互聯網協會發文稱,伴随着深度合成技術的開放開源,深度合成產品和服務逐漸增多,利用 "AI 換臉 ""AI 換聲 " 等虛假音視頻進行詐騙、诽謗的違法行為屢見不鮮。
而北京青年報記者查詢發現,國内多地警方已經發布了相關案例。武漢市公安局刑偵局反電信網絡詐騙中心曾總結了目前 AI 詐騙的常用手法。
聲音合成。騙子通過騷擾電話錄音等來提取某人聲音,獲取素材後進行聲音合成,從而可以用偽造的聲音騙過對方。
AI 換臉。人臉效果更易取得對方信任,騙子用 AI 技術換臉,可以偽裝成任何人,再通過視頻方式進行信息确認。騙子首先分析公眾發布在網上的各類信息,根據所要實施的騙術,通過 AI 技術篩選目标人群。在視頻通話中利用 AI 換臉,騙取信任。
轉發微信語音。微信語音居然也能轉發,這操作簡直了!騙子在盜取微信号後,便向其好友 " 借錢 ",為取得對方的信任,他們會轉發之前的語音,進而騙取錢款。
盡管微信沒有語音轉發功能,但他們通過提取語音檔案或安裝非官方版本(插件),實現語音轉發。
通過 AI 技術篩選受騙人群。騙子不是漫無目的地全面撒網,而是别有用心地鎖定特定對象。他們會根據所要實施的騙術對人群進行篩選,從而選出目标對象。