今天小编分享的科技经验:微软、OpenAI 阻止俄罗斯、朝鲜的黑客使用 AI 大模型,欢迎阅读。
(图片来源:The Verge)
随着 AI 技术迅速发展,黑客已经开始使用大模型来更新网络攻击技术。
钛媒体 App 2 月 15 日消息,美国科技巨头微软公司(Microsoft)昨夜在官网发布了一篇题为 " 在人工智能时代领先于威胁参与者 "(Staying ahead of threat actors in the age of AI)的研究文章。
微软声称,他们与 OpenAI 团队共同研究发现,俄罗斯、朝鲜、伊朗等多国的黑客组织正使用 ChatGPT 等生成式 AI 工具进行目标研究、改进脚本和帮助构建社交工程技巧,从而改进和完善现有的网络攻击技术。
" 网络犯罪团体、国家威胁行为者和其他对手正在探索和测试不同的 AI 技术,试图了解它们对操作的潜在价值,以及可能需要规避的安全控制。" 微软在文章中称。
微软强调,AI 技术的进步使网络安全和安全措施的需求增加。微软要持续与 OpenAI 合作,不断改进防御措施,识别、检测和阻止黑客的潜在恶意使用或滥用,并保护客户的数据安全。
据悉,自 2019 年微软向 OpenAI 投资数十亿美元之后,两家公司开始密切合作。尤其当 ChatGPT 发布之后,微软成为新一轮 AI 热潮的重要受益者,该公司市值已超过苹果公司,达 3.01 万亿美元,成为全球市值最高的科技公司。
微软透露,其与 OpenAI 对于这项研究的合作目标是确保安全、负责任地使用 ChatGPT 等 AI 技术,坚持道德应用的最高标准,以保护用户免受潜在的滥用。
作为研究的一部分,2023 年,微软研发了一种叫 "Microsoft 威胁情报 " 产品,跟踪 300 多个网络攻击行为者,涵盖 160 个国家 / 地区的行动者、50 个勒索軟體组织等,每秒收集超过 7500 亿个信号,使用复杂的数据分析和 AI 算法进行合成,以了解和防范网络威胁和犯罪活动。
同时,截至 2023 年底,微软招聘了全球超过 10000 名安全和威胁情报专家,包括工程师、研究人员、数据科学家、网络安全专家、威胁搜寻者、分析师、调查员和一线响应人员等,有超过 1.5 万个合作伙伴提供专业解决方案。在过去的 2023 年里,微软威胁情报平均每秒阻止 4000 个身份信息验证的黑客入侵威胁,1.35 亿台托管设备提供安全方法服务反馈。
此次微软和 OpenAI 的研究当中,主要提到以下四个黑客组织利用 AI 模型技术对网络攻击进行改进和更新,认为这有可能会对国家造成一定威胁。
Forest Blizzard ( STRONTIUM ) ,这是与 GRU 26165 部队有联系的俄罗斯军事情报技术(组织),威胁活动涉及国防、运输 / 物流、政府、能源、非政府组织 ( NGO ) 和信息技术等多个领網域。研究发现,他们使用大模型(LLMs)" 了解卫星通信協定、雷达成像技术和特定技术参数 "。
Emerald Sleet ( THALLIUM ) ,这是一个来自朝鲜的黑客技术(团体),在 2023 年一直保持高度活跃。他们使用大模型公开的研究报告漏洞,针对相关信息帮助和起草网络钓鱼活动内容,包括冒充知名学术机构和非政府组织引诱受害者回复有关朝鲜外交政策的专家见解和评论等。
Crimson Sandstorm ( CURIUM ) 是一个来自伊朗的黑客组织,自 2017 年以来一直活跃在多个领網域,涉及包括国防、海运、交通、医疗保健和技术。微软称,他们使用大模型生成网络钓鱼邮件甚至用于规避防病毒軟體检测的代码。
Charcoal Typhoon ( CHROMIUM ) ,其组织也利用模型进行研究、脚本编写、翻译和改进现有工具。
具体到案例当中,微软透露,有些黑客使用 " 声音模仿 " 等方式,让 AI 进行语音合成,三秒钟的声音样本可以训练一个听起来像人的模型,从而攻击和恶意骗取用户重要隐私信息," 甚至你的声音邮件问候语也可以被用来获取足够的采样。"
事实上,随着 ChatGPT 等多个文字、音视频等多模态 AI 模型工具的出现,除了帮助更多人提升生产力之外,它还被一些不法分子创建恶意邮件、破解工具,利用 AI 技术进行网络攻击。美国国家安全局的官员曾警告称,黑客正在使用 AI 使他们的网络钓鱼邮件看起来更可信。
不过,OpenAI 也强调,其发现 GPT 模型仅为黑客组织提供 " 有限的增量 " 功能。微软则强调,他们尚未检测到使用大模型进行任何 " 重大攻击 " 的方案。目前,微软和 OpenAI 已经将相关黑客团体的账户和资产进行了关闭或冻结。
事实上,最近关于 AI 技术的诈骗案例呈现上升趋势。
今年 2 月初,香港警方披露当地一公司财务职员遭遇 DeepFake(深度伪造技术)诈骗,对方声称要进行机密交易,邀请参与多人视频会议,最终接受假冒首席财务官(CFO)指示,当事人分 15 次汇款了 2 亿港元,转账至 5 个本地账户。而当事人 5 天后向总公司求证,才发现被骗,并向警方报案。
据不完全统计,2020-2022 年,国内 AI 诈骗案件数量共计 5 起,2023 年全年 AI 诈骗案件增长到 16 起;同时,个案金额方面,用 AI 诈骗的涉案金额从 2020 年的最少 3000 元,到 2023 年达到 430 万元。而香港警方此次披露的这起诈骗案,涉案金额提升至 2 亿港元(约合人民币 1.82 亿元)。
那么,我们如何防范并解决 AI 诈骗问题?
微软主要总结了两个方面:一是该公司使用 AI 来应对 AI 攻击,比如让防护墙(网络攻击)技术更加复杂,用 AI 加强信息保护、检测和反馈;二是通过 " 微软 Security Copilot" 等的基于 AI 的网络安全工具,检测和帮助用户识别漏洞,最终用軟體方式阻挡黑客攻击。
多位国内安全方面专家曾总结了四个方法:首先,用户可以在视频时可有意识地引导对方做一些动作,如大幅度的摇头或张嘴,以此发现对方面部边缘或者牙齿的瑕疵;同时,你可以问几个只有你们二人知道的私密信息,来核实对方身份;再次,尽量避免在公开平台大量晒自己或家人的照片和视频,给不法分子提供便利;最后,及时更新和安装安全軟體,进一步加强源头的网络安全管控。
" 我们认为这是一项重要的研究,以揭露黑客组织试图通过 AI 进行早期、渐进的行动,并与客户分享我们如何阻止和反击他们的网络攻击。" 微软表示,未来将进一步增强 AI 大模型技术能力,从而帮助他们利用模型收集有关技术和潜在漏洞情报、寻找规避网络攻击的方法等。
(本文首发钛媒体 App,作者|林志佳)