今天小编分享的科技经验:轻松盗走 2500 万美元,我们该如何防范人工智能造假危机?,欢迎阅读。
人工智能诈骗已成现实,引人忧虑。
1995 年上映的动画电影《攻壳机动队》描绘过这么一段剧情:名为 " 傀儡师 " 的人工智能懂得冒充其他身份,迷惑和控制人类的思想和行为,这种能力使得它在网络和虚拟空间中变得无迹可寻。虽然这种情节只出现在电影中,但倘若你长久以来深受埃隆 · 马斯克(Elon Musk)或萨姆 · 奥尔特曼(Sam Altman)等人的警告影响,难免会设想一旦人工智能放任自流,便能演变成对人类的 " 天网 " 式威胁。
《攻壳机动队》傀儡师
庆幸的是,这一担忧并未得到广大人工智能开发者们的普遍认同。许多学术界的人工智能巨头,如图灵奖得主 Joseph Sifakis 就曾在采访中透露自己对这种想法的嗤之以鼻。目前,我们尚不具备能在马路上安全行驶的人工智能,更不必说与人类智慧相匹敌了。
但这绝不意味人工智能无害。
AI 完全有可能成为迄今为止人类所创造出的最具破坏力的工具之一。关于这一点,近期一名不幸遭遇人工智能诈骗的财务高管深有体会,其损失高达 2500 万美元,案发地不是在大洋彼岸,而是在离我们很近的香港特别行政区。面对此类人工智能犯罪,我们是否有应对之策呢?
偷天换日
2 月 5 日消息,据港媒香港电台报道,某匿名财务总监接收到一封自称源自其英国同僚的邮件,提出一项隐秘交易。这位财务总监并非轻信之人,初见即疑其为网络钓鱼行为。
然而,发件人坚持安排一场 Zoom 视频会议,当这位香港财务总监接入会议时,他看到并听到了几位熟识同事的面容与声音。疑虑消除后,他们开始筹备交易,并按英国同僚指示,最终分 15 次汇款 2 亿港币(当前约 1.84 亿元人民币),转账至 5 个本地户口。
图源:AI 绘图
直至另一位员工与总部核实时才发现异常,原来英国办公室未曾发起过此项交易,亦未收到任何款项。试想该财务总监得知被骗后的极度懊悔与愧疚之情。调查后发现,该次视频会议中唯一真实的参与者正是那位香港财务总监,其余人员皆是由 Deepfake 人工智能技术模拟的英国财务总监及其他同事形象。
仅凭公开可获取的少量数据、一套基础的人工智能程式以及狡猾的骗术,这群骗子就成功骗取了足以购置一艘豪华超级游艇的巨额现金。
此刻或许有人会对这个故事嗤之以鼻,断言这位财务总监过于马虎,毕竟我们平时在抖音、b 站上看到的 Deepfake " 整活视频 " 都易辨真假,很难做到以假乱真。
然而,实际情况可能并不如此简单,最新研究表明,人们实际上无法可靠地识别 Deepfake,这意味着大多数人在很多场合仅凭直觉判断自己看到和听到的东西。更令人不安的是,研究还揭示了人们更容易误将 Deepfake 视频当作真实情况而非虚假。换言之,如今的 Deepfake 技术已十分高明,足以轻易欺骗观众。
Deep-learning + Fake
Deepfake 这个词是 " 深度学习 "(Deep-learning)和 " 假冒 "(Fake)两个词的组合。
因此,Deepfake 技术的核心要素是机器学习,这使得以更低的成本快速制作出深度伪造内容成为可能。若要制作某人的 Deepfake 视频,创作者首先会利用大量该人的真实视频片段对神经网络进行训练,使其获得对该人从多个角度和不同光照条件下外观的逼真 " 理解 "。随后,创作者将训练好的网络与计算机图形技术相结合,将此人的复制品叠加到另一人身上。
许多人认为,一类称为生成对抗网络(GANs)的深度学习算法将在未来成为 Deepfake 技术发展的主要推动力。GAN 生成的面部影像几乎无法与真人面孔区分开来。首次针对 Deepfake 领網域的调查报告专门用一个章节讨论了 GANs,预示着它们将使任何人都能制作出精巧的 Deepfake 内容。
图源:AI 绘图
2017 年底,名为 "deepfakes" 的 Reddit 用户将许多知名影星甚至政要的面孔用于色情视频转换生成,并将其发布到网络上。这类造假视频瞬间传遍社交网络,此后大量新的 Deepfake 视频开始出现,相应的检测技术却直到几年后才逐渐出现。
不过,也有正面例子。Deepfake 第一次在银幕上被观众所熟知是因为已故演员保罗 · 沃克在《速度与激情 7》中的 " 复活 "。2023 年的贺岁电影《流浪地球 2》也用 CG 技术复现了广受大众喜爱的 " 达叔 " 吴孟达。但在以前,需要一整个工作室的专家们耗费一年的时间才能创造出这些效果。
如今,这个过程比以前更快,哪怕是对技术一窍不通的普通人,也可以在几分钟之内创造一个 "AI 换脸 " 的视频。
对 Deepfake 的担忧导致了对策的激增。早在 2020 年,包括 Meta 和 X 在内的社交媒体平台禁止在其网络中使用类似的 Deepfake 产品。各大计算机视觉和图形会议上也邀请着专家上台演讲防御方法。
既然 Deepfake 犯罪分子已经开始大规模地蒙蔽世人,我们又该如何反击呢?
多重手段,防御 Deepfake 风险
首要策略是对人工智能进行 " 投毒 "。要制造出逼真的 Deepfake,攻击者需要海量数据,包括目标人物众多的照片、展示其面部表情变化的大量视频片段及清晰的语音样本。大部分 Deepfake 技术利用个人或企业在社交媒体上公开分享的资料作为素材。
不过,现在已有诸如 Nightshade 和 PhotoGuard 之类的程式,能够在不影响人类感知的情况下修改这些檔案,从而让 Deepfake 失效。比如,Nightshade 通过误导性处理,使得人工智能误判照片中的面部区網域,这种错误识别恰恰能扰乱构建 Deepfake 背后的人工智能学习机制。
其次,对自身或所在企业在网上发布的所有照片和视频进行此类防护处理,可有效阻止 Deepfake 克隆。然而,这种方法并非万无一失,它更像是场持久战。随着人工智能逐渐提高对篡改檔案的识别能力,反 Deepfake 程式也需要不断研发新的方法以保持其有效性。
想建立起更为坚固的防线,我们就需要不再单一依赖易于被攻破的身份验证方式。在本文的案例中,涉事的财务总监将视频通话视为确认身份的绝对依据,却未能采取如拨打总部或英国分支机构其他人员电话进行二次身份验证等额外措施。实际上,已有部分程式利用私钥加密技术来确保线上身份验证的可靠性。采用多重身份验证步骤,大大降低此类欺诈的可能性,是所有企业应当立即着手实施的措施。
因此,当下次你身处视频会议之中,或是接到同事、亲友的来电时,请务必谨记,螢幕对面可能并非真人。特别是在对方要求你将 2500 万美元秘密转账至一组闻所未闻的陌生银行账户时,我们至少可以先给上司打个电话。