今天小编分享的互联网经验:从换脸骗钱到套壳卖课,AI诈骗如何避坑?,欢迎阅读。
图片系 AI 生成
文 | 太平洋科技,作者 | 赵甜怡,编辑 | 曾宪天
当人们把 2023 年看作是 AI 元年时,2024 年的目光自然地聚集在了 AI 应用的落地上。然而,在商业化之前,AI 已经变成了某些灰色产业的敛财工具。
莫名其妙的电话、热情的异国美女、谣言、诈骗……在你无意识的时候,AI 骗局就已经来到你身边。PConline 收集整理了四大 AI 新骗局,来看看你最 " 眼熟 " 哪一个?
骗局一:语音求救
常见范围:微信、电话
目标人群:覆盖所有,其中家长居多
面对陌生的号码你可能会直接挂掉,但是如果是家人打来的 " 求救电话 " 呢?
根据中国新闻网的报道,去年 11 月,王欣的母亲突然接到一通 " 王欣 " 打来的电话,声称自己被绑架,让母亲转账 30 万元,否则 " 后果自负!" 着急的王欣母亲立马就打算给对方转钱,被同事拦了下来。同事建议先给王欣打电话,确认情况。结果,真实的王欣正在睡午觉,啥事也没。而那通 " 求救电话 " 就是骗子利用王欣的 AI 克隆声音制作的。
近几年,AI 语音合成技术有了显著的发展,一些 C 端的应用也逐渐成熟。像 Voice AI、剪映等应用中都提供生成 AI 克隆音色的功能。只要念两个例句,人人都能轻松生成自己的 AI 音色。不仅如此,现在的技术已经可以在保证声音的高保真度的同时,模拟你的音色,甚至细致到你说话时的口音、重音、换气的节奏等等,完全可以满足实时的互动需求。
先前在网络上爆火的 "AI 孙燕姿 " 就曾引得一众讨论。Up 主用孙燕姿的 AI 克隆音色翻唱《发如雪》《Melody》等众多知名歌曲。该视频合集获得了 2000 多万的播放量。网友们都在惊叹,AI 甚至会改变原曲中的部分旋律,依照孙燕姿的曲风特点进行调整,几乎能做到以假乱真的水平。同时,网友们也都开始担心,技术一旦被滥用,防诈骗的成本就更高了。
这样的担心不无道理。据网友分享,自己曾接到过一通莫名其妙的电话。一接通,对方就问 " 你家在哪 "。一头雾水的网友回答 " 不知道 ",径直挂断了电话。然而就在几天后,网友的家人就接到了 " 网友 " 的求救电话——骗子仅凭一句话就能生成网友的 AI 克隆声音,实施诈骗。
如果你认为,耳听为虚,眼见为实。视频信息才能确认身份,那么接下来这个骗局,将会颠覆你的想法,让你惊呼 " 防不胜防!"
骗局二:换脸诈骗
常见范围:微信、线上会议、FaceTime
目标人群:覆盖所有,熟人关系居多、针对女性居多
如今,眼见为实的 " 铁律 " 也会面临意外的情况。福州市的郭先生就曾因为这条 " 铁律 " 狠狠吃了亏。
" 平安包头 " 曾公布一起案例:在去年 4 月份,郭先生的朋友突然打来微信视频电话,说自己在外地投标,需要 430 万的保证金,想借郭先生公司的账户走一下帐。这位 " 朋友 " 随即将钱打到了郭先生的账户上,并且截图让郭先生确认。虽然还未等来银行的通知信息,但郭先生还是先把钱转了过去。结果,跟他视频的,是用 AI 换了脸的骗子,佯装成郭先生的朋友来骗钱。
郭先生报警后,还专门表示:" 我在视频中确认了面孔和声音,才放松了戒备。"
其实," 眼见为虚 " 的换脸技术我们早就见过。这种技术名叫 Deepfake 深度伪造,是一种将图片 / 视频合并叠加到源图片 / 视频上,生成虚假的个人表情、动作的 AI 技术。在 2023 年上映的《流浪地球 2》中,就是利用这个技术,将 62 岁的刘德华还原到我们印象中年轻的华仔模样。
据《流浪地球 2》的视觉特效徐建的分享,在电影中,Deepfake 的技术方案是用要替换的目标演员的海量素材训练 AI 替换拍摄素材的一种方式,相对省时省力省钱。在好莱坞电影制作中,这样的操作很常见。漫威的年轻版钢铁侠和年轻版黑豹都是基于 Deepfake 和演员年轻时的 2D 素材训练 AI 得出的。
但先进的技术往往是一把双刃剑。落到居心叵测的人手里,就变成了伤人的利刃。
前不久,数百万网友在推特上看到了由 AI 生成的美国著名女歌手 Taylor Swift 的不雅照。这一组在推特上被查看了 4700 万次的照片,就是由 Deepfake 生成的。影响之恶劣,以至于推特直接禁止搜索 #Taylor swift# 的词条。然而,Taylor 并不是第一个受害的女明星。打开某些网站,甚至会有专门的 " 名人明星 " 分类,里面充斥着各种 AI 换脸的女明星。
根据专注于检测 Deepfake 的情报公司 Sensity AI 的一份报告,目前网上超过 96% 的 Deepfake 影像都具有色情性质,而且几乎所有影像都针对女性。
发布在社交媒体上的照片,可能被别有用心的人拿来 " 喂 "AI。普通人也随时面临着被 " 开盒 "(指网络上公开曝光他人隐私的行为)的风险。根据奇安信集团发布的《2024 人工智能安全报告》,"2023 年基于 AI 的深度伪造(Deepfake)欺诈暴增了 3000%"。
利用换脸技术来招摇诈骗固然可怕,然而更深的套路是 " 攻心计 "。
骗局三:美女带货
常见范围:视频号、抖音、小红书等多家社交媒体平台
目标人群:覆盖所有,其中男性居多
一个俄罗斯大美女向你发来视频,说想嫁到中国,你会支持她吗?相信 90% 的人都会表示支持。
外国人的面孔、些许生硬的中文,再配上浓厚的滤镜,就组成了庞大的异国美女队伍。这些 " 小姐姐 " 来自全球各地(近两年以俄罗斯居多),# 中俄友谊 # 是她们一定会带的视频标签词。在她们发布的视频中,首当其冲的主题就是 " 想要嫁到中国 "。
在这一主题下," 小姐姐们 " 的视频叙事采取了丰富多样的角度:
" 虽然我是 xx 国人,但中国是我的家。"
" 朋友家人都不理解,但我知道我迟早是中国媳妇。"
" 你愿意娶一个不要彩礼的俄罗斯女生吗?"
……
如果你对美女这个赛道不感兴趣,也没关系。还有认知思维赛道、军事赛道、时事评论赛道等等,各式各样的 " 外国人 " 都任你选择。
这就是 AI 的新套路。视频全部都是由 AI 合成的假人,再配上机器语音,打着 " 促进国际友谊 " 的旗号,出售商品。这些 " 外国人 " 谈论着中国社会的方方面面,评论区收获了许多真心实意的支持。不少粉丝评论留言:" 你比中国人还了解中国!"" 为你的中文点赞!"
即使视频中," 外国友人 " 把 " 了(li ǎ o)解 " 念成了 "le" 解,仍能收获 10 万 + 的点赞,橱窗中 19.9 元的杂粮粥仍能卖出 30 万的惊人销量。
在这背后操刀的是自媒体团队。他们的商业思路十分清晰:先通过视频来积累粉丝——到达一定粉丝量后,开橱窗带货——实现变现。由于制作成本低,在起号阶段,一人往往能运营数十个账号,视频的脚本也是通用的。无所谓单个账号是否有爆款," 广撒网,多敛鱼 ",商品销量才是最终目的。
即使常有文案 " 撞车 " 的情况发生,这类视频还是吸引了大量来自三四线城市的中老年粉丝群体,纷纷为了 " 国际友谊 " 下单。
如果你认为,这是对下沉市场的招数,你绝不会上当。那么下一个骗局,就是专门针对年轻群体的 AI 套路。
骗局四:AI 知识付费
常见范围:微博、抖音、小红书等多家社交媒体平台
目标人群:积极学习的年轻群体
" 现在不学 AI,第一波失业的就是你!""AI 工作年薪 200 万,入门方法免费教你!""AI 是普通人逆袭的最后机会!" 你一定没少看到这样的标语。
从 2022 年底,OpenAI 发布 ChatGPT 开始,学习 AI 就成了新风潮。随着科技巨头们不断推陈出新,各行各业的内容创作者们也铆足了劲,在自己的账号、社群中发布越来越多的 AI 课程—— " 零基础学 AI""AI 绘画教程 ",甚至还有 " 教你如何做 AI 课程 " 的课程。
但大水漫灌的结果,必然是泥沙俱下。
不少年轻粉丝奔着学习新知识去,却领了 " 吃一堑,不长智 " 的教训。许多内容创作者利用信息差,将国外免费开放的官方 AI 教学翻译过来,就成了自己的课件,美美卖课。像许多 " 零基础 AI" 课程中常见的 "prompt 使用技巧 ",其实是来自 OpenAI 官网发布的教学内容。这些标价 199、299 元的课程还赠送了 " 免费 AI 体验 "。但实际上,是本就免费开放的大模型,再加上一个套壳包装罢了。
一些粗制滥造的 AI 课程丝毫不影响这个市场的火热程度。不少焦虑的年轻人仍在直播间疯狂下单。在抖音,一个 4 万粉丝的博主,近 800 元的 AI 录播课竟有 2000+ 人学习,这意味着,单课程销售额至少 160 万元。
这些授课人就是通过传播焦虑的方式来促进课件的下单量。一不小心你就会成为 " 韭菜园里最靓的一棵 "。
写在最后
上面四种 AI 骗局,你被哪个绊住了脚?
其实,现在互联网上的 AI 骗局远不止这些。网络安全公司 Fortinet 发布的《2024 全球安全威胁预测》中提到,AI 已经成为 " 头号关注 "。假视频被频繁用于传播谣言,一张朋友圈照片也有可能被拿去换脸。有些人借着 AI 技术的发展,炮制了一个又一个新骗局。不明真相的我们,一不小心就会走入这 " 量身定制 " 的套路。
虽然关于 AI 的法制监管都在积极的推进中,但政策只是保护的一方面。另一方面还在于我们自身。擦亮眼睛、审慎思考,才是我们面对骗局的有效出路。
本篇文章中的案例均为真实事件,化名。