今天小編分享的财經經驗:AI視頻創作工具領軍者Runway突然删除所有資源,歡迎閱讀。
作 者丨郭聰聰 劉欣
編 輯丨王俊
開源模型的突然删除侵蝕着公眾對人工智能開發協作模式的信任。
上周,Runway 在未通知任何人的情況下,悄然删除了所有資源,包括備受矚目的 Stable Diffusion v1.5 等重要項目。
在 Hugging Face 主頁上,Runway 聲明不再維護 HuggingFace:
意思大概就是:我們删庫了,之前的 Stable Diffusion 不可用了。想要找生成模型,那就去别家看看吧。
作為 AI 視頻創作工具的領軍者,Runway 的此番動作,無疑在全球 AI 社區掀起了不小的波瀾。
Runway 的官方社交平台在事件發生後并未表現出任何異常,仍不遺餘力的宣傳主打產品,這與删庫行為形成了鮮明對比,引發了外界的廣泛關注和種種猜測。
Runway 官方社交平台仍在宣傳產品
Runway 将 HuggingFace 和 GitHub 平台上的資源全部移除,尤其是将 Stable Diffusion v1.5 删除,不僅對依靠這個模型進行項目研究的人員和社區造成了影響,還引發了關于開源人工智能資源的可靠性和穩定性的問題,可能會侵蝕對人工智能開發協作性質的信任。
Runway 之前的很多項目也無法訪問了,比如 Stable Diffusion v1.5
此外,發布者的突然跑路,也令 HuggingFace 和 GitHub 這類人工智能模型共享和協作主要平台面臨直接挑戰。
Runway 删庫的三大可能原因
Runway 官方尚未對删庫行為作出明确回應,官方社交平台一片 " 歲月靜好 ",仿佛什麼都沒發生。這種反差更加深了外界的疑惑和猜測,大多數人認為 runway 删庫主要有三個原因:
首先是 Runway 與 Stability AI 自 2022 年就 Stable Diffusion 模型開始的利益糾紛。
該模型最初的技術源于發表在 CVPR 2022 上的《High-Resolution Image Synthesis with Latent Diffusion Models》論文中,該論文的五名作者分别來自慕尼黑大學、海德堡大學和 Runway 公司。
為了在此基礎上訓練出 SD,研究團隊動用了 4000 個 A100 Ezra-1 AI 超大集群,而 Stability AI 公司正是這些算力的提供者。盡管沒有參與研發,Stability AI 仍率先高調對外發布了 Stable Diffusion,令許多人以為這家公司就是該模型的所有者。之後,在 Runway 公司發布 Stable Diffusion v1.5 模型,就遭到了 Stability AI 法務團隊的侵權警告,要求 Runway 删除 Stable Diffusion v1.5,并通知已标記此模型具有潛在的知識產權争議。
而 Runway 的 CEO 表示:Runway 也參與了 Stable Diffusion 的研究,他們發布 Stable Diffusion v1.5 的行為并沒有構成侵權。這個研究的作者們來自 Runway 和慕尼黑大學,研究和代碼去年也已經開源。
其次是 Stable Diffusion 1.5 曾被曝出侵權,有多名藝術家和攝影師發起訴訟稱 Runway 使用了受版權保護的作品來訓練 AI 模型。
最後一個猜測是 Runway 出于商業利益的考量。由于開源領網域的競争加劇,一些從 Stable Diffusion v1.5 中借鑑了太多的免費開源項目可能威脅到 Runway 的商業模式,特别是其盈利豐厚的在線視頻生成器業務。因此 Runway 撤回了對開源的所有支持,以保護其核心商業利益。
無論 Runway 此舉的真實原因為何,它都在一定程度上損害了公司的聲譽,也為 AI 行業的開源與商業化之争添加了新的讨論話題。
突然的删庫跑路,信任正在被侵蝕
AI 行業快速發展,如何平衡開源精神與商業利益,如何處理訓練數據侵權問題,是每家公司面臨的法律問題,亦是商業選擇。
在接受 21 世紀經濟報道記者采訪時,AI 合規專家朱玲鳳就指出:應當建立對開源人工智能完善的治理結構,妥善處理模型開發者、模型貢獻者、訓練數據的權利人、模型使用者、開源社區之間的關系,形成符合各方利益、權責分明的分層治理結構,以保證整個開源生态的可持續發展。
信任是開源社區運營的基礎,其形成了發布者和使用者的良性循環。
針對于 Runway 此次突然删庫事件,朱玲鳳認為,該事件為開源人工智能生态系統帶來了不穩定因素,引發了公眾對于關于開源人工智能資源的可靠性和穩定性的思考,可能會侵蝕對人工智能開發協作性質的信任。同時發布者突然删庫的操作還會造成對使用開源模型開發者和研究人員、AI 模型共享協作平台造成一系列連鎖幹擾。此外也會造成社區貢獻的損失,因為随着時間的推移,開源社區已在這些模型上進行了構建和改進,移除同時也就意味着這些寶貴的社區貢獻和改進的丢失。
開源社區應為托管的人工智能模型實施高級版本控制和來源追蹤。并創建标準化流程,用于處理撤下請求和知識產權争議。此外,還要建立關于模型完整性的明确政策,包括模型更新和廢棄的指南。
外界猜測是因為與 Stability 版權糾紛導致了 Runway 采取了預防性措施。
對此朱玲鳳分析道,讨論侵權責任的範疇,首先應當就訓練數據的版權侵權認定形成共識,之後再評價下遊調用或微調開源模型的使用方式是否也會導致侵權責任傳染。從技術上來說,可以通過備份模型的情況來保證模型相關信息不被删除,但是發布者是否會因為開源 AI 模型被廣泛使用而被認定侵權,使用者是否會因繼續使用模型而被認定侵權,還需要進一步探讨。
而面對像 runway 發布的開源模型,其使用者是否可以被認定為有侵權責任的疑惑,目前還沒有形成共識,但就開源 AI 本身的產權歸屬來說,合規專家朱玲鳳則表示,是否可以認定具備公共品的屬性,不應由發布者單方決定。退一步來說,也應當有穩妥的撤出或召回流程,盡到維護使用者的供應鏈穩定性的合理義務,否則将對開源社區的開放協作的互信氛圍造成致命打擊。
随着 AI 技術的發展,版權治理需要更加細致和全面的法律框架來指導。開源項目如何在尊重原創版權的同時,促進技術的創新和應用,是一個亟待解決的問題。
本期編輯 黎雨桐