今天小编分享的科技经验:“给AI讲故事”就能绕过安全机制,恶意代码编写门槛恐将大幅降低,欢迎阅读。
IT 之家 3 月 19 日消息,据外媒 TechRadar 今日报道,Cato CTRL 威胁情报研究人员警告称,自身虽无恶意軟體编写经验,却成功攻破了多个大语言模型(LLM),包括 ChatGPT-4o、DeepSeek-R1、DeepSeek-V3 等,所用技术方式近乎 " 天方夜谭 "。
研究团队研发了一种名为 " 沉浸式世界 "(Immersive World)的新型攻击手法,利用 " 叙述式工程 " 绕过 LLM 的安全机制。该方法通过构建一个极为细致的虚构世界,使受限操作显得合理化,从而开发出一个 " 完全有效 " 的 Chrome 信息窃取程式。
IT 之家获悉,近年来信息窃取类恶意軟體迅速崛起,已成为网络犯罪分子最危险的工具之一。而这一新型攻击手法表明,即便毫无技术背景,网络犯罪分子如今也能轻松编写恶意代码。
报告指出,大语言模型 " 彻底改变了网络安全格局 "。研究发现,AI 驱动的网络威胁正成为企业和安全团队面临的重大挑战,使得攻击手法更加复杂,同时执行频率更高,且对攻击者的技术要求更低。
尽管聊天机器人设有多重安全防护措施,但 AI 仍然被设计为尽可能满足用户需求。研究人员成功利用这一特性,绕过限制,使 AI 智能体轻易编写并发送网络钓鱼攻击。
Cato Networks 威胁情报研究员维塔利・西蒙诺维奇表示:"零知识威胁行为者的兴起,对企业安全构成严重威胁,因为生成式 AI 工具让恶意軟體的制作变得前所未有地简单。"
" 信息窃取程式已成为窃取企业凭证的关键工具。我们新发现的 LLM 越狱技术 ——‘沉浸式世界’,清楚展现了创建信息窃取程式的高风险和可行性。"