今天小編分享的社會經驗:多地正在爆發?有人10分鍾損失430萬,歡迎閱讀。
5 月 22 日
話題 #AI 詐騙正在爆發 #
衝上微博熱搜
據 " 平安包頭 " 微信公眾号消息,近日,内蒙古包頭市公安局電信網絡犯罪偵查局發布一起使用智能 AI 技術進行電信詐騙的案件,福州市某科技公司法人代表郭先生 10 分鍾内被騙 430 萬元。
4 月 20 日中午,郭先生的好友突然通過微信視頻聯系他,自己的朋友在外地競标,需要 430 萬保證金,且需要公對公賬戶過賬,想要借郭先生公司的賬戶走賬。基于對好友的信任,加上已經視頻聊天核實了身份,郭先生沒有核實錢款是否到賬,就分兩筆把 430 萬轉到了好友朋友的銀行卡上。郭先生撥打好友電話,才知道被騙。騙子通過智能 AI 換臉和拟聲技術,佯裝好友對他實施了詐騙。
" 從頭到尾都沒有和我提借錢的事情,就說會先把錢給我打過來,再讓我給他朋友賬戶轉過去,而且當時是給我打了視頻的,我在視頻中也确認了面孔和聲音,所以才放松了戒備 ",郭先生說。
幸運的是,接到報警後,福州、包頭兩地警銀迅速啟動止付機制,成功止付攔截 336.84 萬元,但仍有 93.16 萬元被轉移,目前正在全力追繳中。
多地出現 AI 詐騙案例
據華西都市報此前報道,2022 年 2 月,有位陳先生到浙江溫州市公安局瓯海分局仙岩派出所報案稱,自己被 " 好友 " 詐騙了近 5 萬元。經警方核實,詐騙分子利用陳先生好友 " 阿誠 " 在社交平台發布的視頻,截取其面部視頻畫面後再利用 "AI 換臉 " 技術合成,制造陳先生與 " 好友 " 視頻聊天的假象騙取其信任,從而實施詐騙。
浙江溫州公安曾發布消息,2021 年拱宸橋派出所接到報警,受害人小陳稱他在與女網友視頻聊天後被對方敲詐勒索。經警方調查,對方利用 AI 換臉技術,将小陳視頻中的面部合成到不雅視頻中,借此對其實施勒索。
2020 年,上海某公司高管因對方使用 AI 換臉與人工生成的語音技術制作公司領導的面孔,并要該高管轉賬,致使該高管被詐騙 150 萬元。
AI 詐騙常用手法
第一種:聲音合成
騙子通過騷擾電話錄音等來提取某人聲音,獲取素材後進行聲音合成,從而可以用偽造的聲音騙過對方。
第二種:AI 換臉
人臉效果更易取得對方信任,騙子用 AI 技術換臉,可以偽裝成任何人,再通過視頻方式進行信息确認。
騙子首先分析公眾發布在網上的各類信息,根據所要實施的騙術,通過 AI 技術篩選目标人群。在視頻通話中利用 AI 換臉,騙取信任。
第三種:轉發微信語音
騙子在盜取微信号後,便向其好友 " 借錢 ",為取得對方的信任,他們會轉發之前的語音,進而騙取錢款。
盡管微信沒有語音轉發功能,但他們通過提取語音檔案或安裝非官方版本(插件),實現語音轉發。
第四種:AI 程式篩選受害人
騙子利用 AI 來分析公眾發布在網上的各類信息,根據所要實施的騙術對人群進行篩選,在短時間内便可生產出定制化的詐騙腳本,從而實施精準詐騙。
例如:實施情感詐騙時,可以篩選出經常發布感情類信息的人群;實施金融詐騙時,可以篩選出經常搜索投資理财信息的人群。
如何防範?
多重驗證,确認身份
如果有人要求你分享個人身份信息,如你的地址、出生日期或名字,要小心。
對突如其來的電話保持警惕,即使是來自你認識的人,因為來電顯示的号碼可能是偽造的。
網絡轉賬前要通過電話等多種溝通渠道核驗對方身份,一旦發現風險,及時報警求助。
如果有人自稱 " 熟人 "、" 領導 " 通過社交軟體、短信以各種理由誘導你匯款,務必通過電話、見面等途徑核實确認,不要未經核實随意轉賬匯款,不要輕易透露自己的身份證、銀行卡、驗證碼等信息。
保護信息,避免誘惑
不輕易提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻等。
陌生鏈接不要點,陌生軟體不要下載,陌生好友不要随便加,防止手機、電腦中病毒,微信、QQ 等被盜号。
提高安全防範意識
公檢法沒有安全賬戶,警察不會網上辦案,如果有網絡警察說你犯事了,讓他聯系你當地的派出所,你也可以主動打 110 咨詢。
如不慎被騙或遇可疑情形,請注意保護證據立即撥打 96110 報警。
來源|人民網科普、新街派生活報、黑龍江日報