今天小编分享的社会经验:又一起AI换脸诈骗,安徽一男子被“9秒AI换脸视频”骗上百万,欢迎阅读。
日前,"AI 换脸诈骗正在爆发 " 的话题引发广泛关注。福建一男子在跟 " 好友 " 视频聊天后把 430 万转到了好友朋友的银行卡上,之后发现被骗,所幸福建、内蒙古两地警方和银行迅速启动止付机制成功止付拦截 336.84 万元。北京青年报记者注意到,5 月 25 日,安徽省公安厅也通报了一起类似案件。
今年 4 月底,安庆经开区发生一起 " 冒充熟人 " 诈骗案。民警调查发现,诈骗分子使用了一段 9 秒钟的智能 AI 换脸视频,佯装 " 熟人 " 让受害人放松警惕,从而实施诈骗
4 月 28 日,专案民警连夜赶赴外省,抓获 3 名涉诈嫌疑人。5 月 22 日,警方将先行追回的 132 万元被骗款返还给群众。目前案件正在进一步侦办中。
北京青年报此前曾报道,日前,中国互联网协会发文称,伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用 "AI 换脸 ""AI 换声 " 等虚假音视频进行诈骗、诽谤的违法行为屡见不鲜。
而北京青年报记者查询发现,国内多地警方已经发布了相关案例。武汉市公安局刑侦局反电信网络诈骗中心曾总结了目前 AI 诈骗的常用手法。
声音合成。骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
AI 换脸。人脸效果更易取得对方信任,骗子用 AI 技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过 AI 技术筛选目标人群。在视频通话中利用 AI 换脸,骗取信任。
转发微信语音。微信语音居然也能转发,这操作简直了!骗子在盗取微信号后,便向其好友 " 借钱 ",为取得对方的信任,他们会转发之前的语音,进而骗取钱款。
尽管微信没有语音转发功能,但他们通过提取语音檔案或安装非官方版本(插件),实现语音转发。
通过 AI 技术筛选受骗人群。骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。