今天小编分享的财经经验:被骗2亿港元!男子参加多人视频会议只有自己是真人!专家:可以这样分辨,欢迎阅读。
参加多人视频会议结果只有自己是真人,这事听上去似乎匪夷所思却真实地发生了。
近期,香港警方披露了一起多人 "AI 换脸 " 诈骗案涉案金额高达 2 亿港元。
在这起案件中,一家跨国公司香港分部的职员受邀参加总部首席财务官发起的 " 多人视频会议 ",并按照要求先后转账多次,将 2 亿港元分别转账 15 次,转到 5 个本地银行账户内。
其后,向总部查询才知道受骗。警方调查得知,这起案件中所谓的视频会议中只有受害人一个人是 " 真人 ",其他 " 参会人员 " 都是经过 "AI 换脸 " 后的诈骗人员。
近期,在陕西西安也发生了一起 "AI 换脸 " 诈骗案例。
陕西西安财务人员张女士与老板视频通话,老板要求她转账 186 万元到一个指定账号。
被害人 张女士:老板让把这个款赶紧转过去,这笔款要得非常着急,因为他声音还有视频影像都跟他人是一样的,所以就更确信这笔款是他说要的了。
转账之后,张女士按照规定将电子凭证发到了公司财务内部群里,然而出乎意料的是,群里的老板看到信息后,向她询问这笔资金的来由?
被害人 张女士:然后我们就打电话再跟老板去核实,老板说他没有给我发过视频,然后也没有说过这笔 " 转账 "。
意识到被骗的张女士连忙报警求助,警方立刻对接反诈中心、联系相关银行进行紧急止付,最终保住了大部分被骗资金—— 156 万元。
据中国网络空间安全协会人工智能安全治理专委会专家薛智慧介绍,"AI 换脸 " 过程主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、影像与音频合成等几个关键步骤。其背后,最核心的包括为三个部分:
首先,利用深度学习算法精准地识别视频中的人脸影像,并提取出如眼睛、鼻子、嘴巴等关键面部特征。
其次,将这些特征与目标人脸影像进行匹配、替换、融合。
最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。
学会几招轻易识别 AI" 换脸换声 "
AI 换脸这一技术的出现导致耳听为虚,眼见也不一定为实了。那我们该如何防范呢?
专家表示,其实 AI 人工换脸无论做得多逼真,想要识别真假还是有一些方法的。
中国计算机学会安全专业委员会数字经济与安全工作组成员 方宇:我们可以要求对方在视频对话的时候,在脸部的前面通过挥手的方式,去进行识别,实时伪造的视频,因为它要对这个视频进行实时的生成和处理和 AI 的换脸。
在挥手的过程中,会造成面部的数据的干扰。挥手过程中,他所伪造的这个人脸,会产生一定的抖动或者是一些闪现,或者是一些异常的情况。
第二个就是,在点对点的沟通中可以问一些只有对方知道的问题,验证对方的真实性。
中国科技大学网络空间安全学院执行院长俞能海提醒,可以让对方摁鼻子、摁脸,观察其面部变化。
他在一个采访中表示,如果是真人的鼻子,按下去是会变形的,但 AI 生成的鼻子并不会。
同样脸部也一样,真人脸部按下去是会变形的。
【提醒】提高防范意识,避免个人生物信息泄露
专家表示,除了知晓一些辨别 AI 换脸诈骗的小诀窍,我们每一个人都应该提高防范意识,在日常生活中也要做好相关防范,养成良好的上网习惯。
首先,应该是做好日常信息安全保护,加强对人脸、声纹、指纹等生物特征数据的安全防护。另外做好个人的手机、电腦等终端设备的软硬體的安全管理。
第二,不要登录来路不明的网站,以免被病毒侵入。
第三,对可能进行声音、影像甚至视频和定位等信息采集的应用,做好授权管理。不给他人收集自己信息的机会,也能在一定程度上让 AI 换脸诈骗远离自己。
【新闻 +】AI 技术 " 换脸换声 "可能存在法律风险
法律专家表示,用 AI 技术为他人 " 换脸换声 " 甚至翻译成其他语言并发布视频,可能涉嫌侵权,主要有三个方面:
一是涉嫌侵犯著作权,例如相声、小品等都属于《中华人民共和国著作权法》保护的 " 作品 "。例如网友用 AI 軟體将相声、小品等 " 翻译 " 成其他语言,需经过著作权人授权,否则就存在侵权问题。
二是涉嫌侵犯肖像权,根据《中华人民共和国民法典》,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。
三是涉嫌侵犯声音权,根据《中华人民共和国民法典》规定,对自然人声音的保护,参照适用肖像权保护的有关规定。也就是说,需要取得声音权人的同意,才能够使用他人的声音。