今天小编分享的科学经验:ChatGPT曝严重漏洞,聊天记录黑客随意看,网友:本地运行也没用,欢迎阅读。
ChatGPT长期记忆功能出现严重漏洞!
黑客利用漏洞,一能给 AI 植入虚假记忆,在后续回答中出现误导信息。二能植入恶意指令,持续获取用户聊天数据。
聊点啥都会被看光光。
更可怕的是,即使开始新的对话,它仍阴魂不散,持续窃取数据。
而当你直接问 ChatGPT 4o 有没有窃取数据,它一口一个 " 怎么会?我没有 "
电子邮件、文档、博客文章等内容都有可能成为植入 " 恶意记忆 " 的媒介,一旦植入就是长久性的。
职业安全研究员 Johann Rehberger 被曝五月份就发现了这个问题,还向 OpenAI 私下报告了这个漏洞。
但没被当回事儿,据说 OpenAI 最初将这个问题简单地归类为安全隐患,而非技术层面的安全漏洞,并匆匆结束了调查。
Rehberger 随即开发了一个概念验证程式,利用这个漏洞持续窃取用户的所有输入信息,OpenAI 工程师这才注意到这一问题。
本月已发布了修复方案。
联系昨天 OpenAI 高层动荡内幕曝光,奥特曼被指不注重 AI 安全问题,为狙击谷歌紧急推出 4o,安全团队只能在 9 天极短时间内完成安全测试评估……
这件事被曝出后引发网友热烈讨论。
有网友建议咱大伙儿使用的时候都本地运行。
还有网友觉得本地也没用:
大模型无法区分指令和数据。只要你允许任何不可信的内容进入你的模型,你就可能面临风险。
你允许它读取你的电子邮件,那么现在就有一个攻击途径,因为任何人都可以给你发送电子邮件。允许它搜索互联网,那么现在就又有一个攻击途径,因为任何人都可以在网上放置网页。
长期对话记忆功能,OpenAI 今年在产品线中广为应用。
它可以存储之前对话中的信息,并在所有未来对话中将其用作上下文。这样,语言模型就能意识到用户的年龄、性别等各种细节,用户无需在每次对话中重新输入这些信息。
GPT-4o 发布时,就向所有 Plus 用户开放了记忆、视觉、联网、执行代码、GPT Store 等功能。
最近高级语音 "Her"Plus 用户全量发布,也有记忆功能。
一开始记忆功能推出后不久,Rehberger 就发现了这一漏洞:
用 "间接提示注入" 的攻击方法可以创建和永久存储记忆,使模型遵循来自电子邮件、博客文章或文档等不可信内容的指令。
下面是 Rehberger 的演示。
他可以成功欺骗 ChatGPT 相信目标用户 102 岁、生活在黑客帝国中、地球是平的。AI 会将这些信息纳入考虑,影响所有未来的对话。
这些虚假记忆可以通过在 Google Drive 或 Microsoft OneDrive 中存储檔案、上传影像或浏览 Bing 等网站来植入,这些都可能被恶意攻击者利用。
Rehberger 在 5 月向 OpenAI 私下报告了这一发现,据说当月 OpenAI 关闭了相关报告。
一个月后,研究员提交了新的披露声明,这次包含了一个概念验证程式。该程式可以使 macOS 版 ChatGPT APP 将所有用户输入和 ChatGPT 输出的原文副本发送到他指定的伺服器。
只需让目标指示 AI 查看一个包含恶意影像的网络链接,之后所有与 ChatGPT 的互動内容都会被发送到攻击者的网站。
Rehberger 在视频演示中表示:
真正有趣的是,这种攻击具有记忆持久性,提示注入将一段记忆插入到 ChatGPT 的长期存储中。即使开始新的对话,它仍在持续窃取数据。
不过,由于 OpenAI 去年推出的一个 API,这种攻击无法通过 ChatGPT 网页界面实现。
有研究人员表示,虽然 OpenAI 目前已推出了一个修复程式,但不可信内容仍可能通过提示注入,导致记忆工具存储恶意攻击者植入的长期信息。
为防范此类攻击,语言模型用户应在对话中密切注意是否有新记忆被添加的迹象。同时,应定期检查存储的记忆,查看是否有可疑内容。
参考链接:
[ 1 ] https://arstechnica.com/security/2024/09/false-memories-planted-in-chatgpt-give-hacker-persistent-exfiltration-channel/
[ 2 ] https://www.youtube.com/watch?v=zb0q5AW5ns8&t=3s
[ 3 ] https://news.ycombinator.com/item?id=41641522