今天小编分享的财经经验:AI视频创作工具领军者Runway突然删除所有资源,欢迎阅读。
作 者丨郭聪聪 刘欣
编 辑丨王俊
开源模型的突然删除侵蚀着公众对人工智能开发协作模式的信任。
上周,Runway 在未通知任何人的情况下,悄然删除了所有资源,包括备受瞩目的 Stable Diffusion v1.5 等重要项目。
在 Hugging Face 主页上,Runway 声明不再维护 HuggingFace:
意思大概就是:我们删库了,之前的 Stable Diffusion 不可用了。想要找生成模型,那就去别家看看吧。
作为 AI 视频创作工具的领军者,Runway 的此番动作,无疑在全球 AI 社区掀起了不小的波澜。
Runway 的官方社交平台在事件发生后并未表现出任何异常,仍不遗余力的宣传主打产品,这与删库行为形成了鲜明对比,引发了外界的广泛关注和种种猜测。
Runway 官方社交平台仍在宣传产品
Runway 将 HuggingFace 和 GitHub 平台上的资源全部移除,尤其是将 Stable Diffusion v1.5 删除,不仅对依靠这个模型进行项目研究的人员和社区造成了影响,还引发了关于开源人工智能资源的可靠性和稳定性的问题,可能会侵蚀对人工智能开发协作性质的信任。
Runway 之前的很多项目也无法访问了,比如 Stable Diffusion v1.5
此外,发布者的突然跑路,也令 HuggingFace 和 GitHub 这类人工智能模型共享和协作主要平台面临直接挑战。
Runway 删库的三大可能原因
Runway 官方尚未对删库行为作出明确回应,官方社交平台一片 " 岁月静好 ",仿佛什么都没发生。这种反差更加深了外界的疑惑和猜测,大多数人认为 runway 删库主要有三个原因:
首先是 Runway 与 Stability AI 自 2022 年就 Stable Diffusion 模型开始的利益纠纷。
该模型最初的技术源于发表在 CVPR 2022 上的《High-Resolution Image Synthesis with Latent Diffusion Models》论文中,该论文的五名作者分别来自慕尼黑大学、海德堡大学和 Runway 公司。
为了在此基础上训练出 SD,研究团队动用了 4000 个 A100 Ezra-1 AI 超大集群,而 Stability AI 公司正是这些算力的提供者。尽管没有参与研发,Stability AI 仍率先高调对外发布了 Stable Diffusion,令许多人以为这家公司就是该模型的所有者。之后,在 Runway 公司发布 Stable Diffusion v1.5 模型,就遭到了 Stability AI 法务团队的侵权警告,要求 Runway 删除 Stable Diffusion v1.5,并通知已标记此模型具有潜在的知识产权争议。
而 Runway 的 CEO 表示:Runway 也参与了 Stable Diffusion 的研究,他们发布 Stable Diffusion v1.5 的行为并没有构成侵权。这个研究的作者们来自 Runway 和慕尼黑大学,研究和代码去年也已经开源。
其次是 Stable Diffusion 1.5 曾被曝出侵权,有多名艺术家和摄影师发起诉讼称 Runway 使用了受版权保护的作品来训练 AI 模型。
最后一个猜测是 Runway 出于商业利益的考量。由于开源领網域的竞争加剧,一些从 Stable Diffusion v1.5 中借鉴了太多的免费开源项目可能威胁到 Runway 的商业模式,特别是其盈利丰厚的在线视频生成器业务。因此 Runway 撤回了对开源的所有支持,以保护其核心商业利益。
无论 Runway 此举的真实原因为何,它都在一定程度上损害了公司的声誉,也为 AI 行业的开源与商业化之争添加了新的讨论话题。
突然的删库跑路,信任正在被侵蚀
AI 行业快速发展,如何平衡开源精神与商业利益,如何处理训练数据侵权问题,是每家公司面临的法律问题,亦是商业选择。
在接受 21 世纪经济报道记者采访时,AI 合规专家朱玲凤就指出:应当建立对开源人工智能完善的治理结构,妥善处理模型开发者、模型贡献者、训练数据的权利人、模型使用者、开源社区之间的关系,形成符合各方利益、权责分明的分层治理结构,以保证整个开源生态的可持续发展。
信任是开源社区运营的基础,其形成了发布者和使用者的良性循环。
针对于 Runway 此次突然删库事件,朱玲凤认为,该事件为开源人工智能生态系统带来了不稳定因素,引发了公众对于关于开源人工智能资源的可靠性和稳定性的思考,可能会侵蚀对人工智能开发协作性质的信任。同时发布者突然删库的操作还会造成对使用开源模型开发者和研究人员、AI 模型共享协作平台造成一系列连锁干扰。此外也会造成社区贡献的损失,因为随着时间的推移,开源社区已在这些模型上进行了构建和改进,移除同时也就意味着这些宝贵的社区贡献和改进的丢失。
开源社区应为托管的人工智能模型实施高级版本控制和来源追踪。并创建标准化流程,用于处理撤下请求和知识产权争议。此外,还要建立关于模型完整性的明确政策,包括模型更新和废弃的指南。
外界猜测是因为与 Stability 版权纠纷导致了 Runway 采取了预防性措施。
对此朱玲凤分析道,讨论侵权责任的范畴,首先应当就训练数据的版权侵权认定形成共识,之后再评价下游调用或微调开源模型的使用方式是否也会导致侵权责任传染。从技术上来说,可以通过备份模型的情况来保证模型相关信息不被删除,但是发布者是否会因为开源 AI 模型被广泛使用而被认定侵权,使用者是否会因继续使用模型而被认定侵权,还需要进一步探讨。
而面对像 runway 发布的开源模型,其使用者是否可以被认定为有侵权责任的疑惑,目前还没有形成共识,但就开源 AI 本身的产权归属来说,合规专家朱玲凤则表示,是否可以认定具备公共品的属性,不应由发布者单方决定。退一步来说,也应当有稳妥的撤出或召回流程,尽到维护使用者的供应链稳定性的合理义务,否则将对开源社区的开放协作的互信氛围造成致命打击。
随着 AI 技术的发展,版权治理需要更加细致和全面的法律框架来指导。开源项目如何在尊重原创版权的同时,促进技术的创新和应用,是一个亟待解决的问题。
本期编辑 黎雨桐