今天小编分享的科技经验:OpenAI视频模型Sora被恶意泄露,又拉马斯克背锅?,欢迎阅读。
11 月 27 日凌晨,OpenAI 的文生视频模型 Sora,被人恶意泄露了 API,使其短暂地开放了 1 小时左右。
据了解,此次泄露事件是由于自今年年初 OpenAI 首次预告了其文本转视频 AI 模型 Sora 后,一直没有提供任何具体的更新。导致一群参与 OpenAI 新型文本转视频 AI 模型 Sora 的测试艺术家,因对公司的不满而泄露了该模型的早期访问权限。
在 OpenAI 介入并关闭相应权限之前,已经有不少人制作了 AI 视频并流出。此次对于 OpenAI 会造成什么样的影响呢 ?
艺术家们的愤怒
据悉,泄露者通过 AI 开发平台 Hugging Face 发布了一个与 Sora API 相关的项目,利用早期访问的认证 token,创建了一个前端界面,允许用户生成视频。通过这个前端,任何用户都可以输入简短的文字描述,生成最长 10 秒、分辨率高达 1080p 的视频。
随后,许多用户在社交媒体上分享了生成的视频示例,这些视频大多带有 OpenAI 的视觉水印。然而,短暂地开放了 1 小时左右,前端界面就停止了工作,外界猜测 OpenAI 和 Hugging Face 可能已经撤销了访问权限。
而且,这些艺术家在 Hugging Face 这一公共 AI 模型平台上发布了他们的抗议信,声称自己在测试过程中被公司利用,成为 " 无偿的研发和公关工具 "。
在这封公开信中,艺术家们表示:" 亲爱的企业 AI 领主们,我们获得 Sora 的测试权限时,被承诺是早期测试者和创意合作伙伴。然而,我们认为自己只是被引诱进入一种‘艺术洗白’的过程,为 Sora 做宣传。" 他们强调,艺术家不是公司的 " 免费 bug 测试员、宣传工具、训练数据或验证 token"。
有意思的是,在公开信相关网站上,它获得了 122 名联名支持者,其中甚至出现了马斯克的名字。但考虑到签名系统不需要严格的身份认证,暂时不能确定其是否为马斯克本人。
在事件发生后,当有媒体联系 OpenAI 时,OpenAI 并未证实 Sora 泄露的真实性,但强调参与 " 研究预览 " 的艺术家是自愿的,并不需要提供反馈或使用该工具。
科技旋涡认为,年初 OpenAI 首次向世界展示了 Sora,其生成视频的时长、质量让人耳目一新,但几乎一年时间过去了,OpenAI 对 Sora 还没有有效更新,不过这还不是最可怕的,如果当它的正式版本发布后,已经属于落后的技术,那才是 OpenAI 的悲哀。
OpenAI 的安全问题
Sora 相关项目的泄露很容易让人们联想到安全的问题,如果这个事件继续发酵,很容易让大家对利用大量数据进行训练的 AI 公司失去信任。
而且,这样的安全隐患随着一位已辞职的 OpenAI 团队负责人的发言变得越来越接近,他表示,科技巨头微软斥巨资支持的 OpenAI 正在解散其聚集于 AI 安全研究的 "AGI Readiness" 团队,该团队曾经负责向这家 AI 初创公司提供如何处理与应对越来越强大的 AI 技术方面的解决方案与建议,以及提供当今世界是否准备好管理这些技术方面的建议。"AGI Readiness" 团队曾经的团队主管表示,希望在外部继续 AGI 领網域的相关研究。近期越来越多迹象表明,OpenAI 似乎全身心投入 AI 创收,无暇顾及 AI 安全。
而在本月初,OpenAI 再痛失一员大将,OpenAI 安全研究副总裁 Lilian Weng 发出长信,官宣离开 OpenAI 的安全团队。
今年 9 月,OpenAI 宣布其安全与安保委员会将成为独立的董事会监督委员会,该委员会于今年 5 月成立,负责处理有关安全流程的争议。该委员会最近结束了为期 90 天的审查,对 OpenAI 的流程和保障措施进行了评估,然后向董事会提出了建议。
高管离职和董事会变动的消息也是继今年夏天围绕 OpenAI 的安全问题和争议日益增多之后传出的,此时 OpenAI 与谷歌、微软、Meta 和其他公司正处于生成式人工智能军备竞赛的风口浪尖——据预测,这个市场将在十年内达到 1 万亿美元的营收规模——因为各行各业的公司似乎都急于增加人工智能聊天机器人和代理,以避免被竞争对手甩在身后。
据 The Information 援引一位了解相关会议情况的人士透露,今年夏天,在一些并未公开的会议上,奥特曼的团队向美国国家安全官员展示了 " 草莓 " 模型。
报道指出,通过向政府官员展示一项尚未发布的技术,OpenAI 可能为人工智能开发者树立了新标准,尤其是在先进人工智能日益成为潜在安全隐患的今天。此次演示可能是 OpenAI 努力向政策制定者提高透明度的一部分,但如果政策制定者认为该项技术形成威胁,那么他们可能给公司带来麻烦。
不过,一些业界人士对此并不买账,因为 OpenAI 并未向公众提升透明度。AI 初创公司 Abacus.AI CEO Bindu Reddy 表示,封闭的 OpenAI 将他们最好的大模型藏在背后,以此来取得领先优势。" 如果没有开源 AI,我们都会完蛋,我们可能会把文明的控制权交给 1 到 2 家公司。"
写在最后
虽然这次艺术家们的泄露只是抒发出自己的不满,好像没有造成更大的影响,但 OpenAI 的 ChatGPT 平台被曝出一系列沙盒漏洞,用户竟能在本不该接触的环境中游刃有余,檔案上传、命令执行甚至檔案结构浏览,这令人不禁想起黑客神秘的入侵操作。这些安全问题的出现,进一步凸显了 OpenAI 在网络安全方面的潜在风险。
>>>