今天小編分享的科技經驗:歐盟通過AI監管草案後,斯坦福研究顯示:全球主流AI模型均不達标,歡迎閱讀。
作者 | 黃金瓊
編輯 | 鄧詠儀
以 ChatGPT 為代表的 AI 大模型技術席卷全球的同時,也引起了廣泛争議。如今,監管腳步正在快速迫近。
6 月中旬,斯坦福大學 AI 研究實驗室發布了一項對 AI 大模型的研究的結果。研究以十個 AI 大模型為研究對象,評估他們是否達到歐盟 AI 法案的标準。結果顯示,這些頂尖的 AI 模型均沒有達标。
斯坦福研究團隊在報告中表示:" 主要基礎模型提供商目前基本上沒有遵守這些草案要求。他們很少披露有關其模型的數據、計算和部署以及模型本身的關鍵特征的足夠信息。尤其是,他們不遵守草案要求來描述受版權保護的訓練數據的使用、訓練中使用的硬體和產生的排放,也不披露如何評估和測試模型的方式。"
歐盟 AI 法案是世界上第一個 AI 監管相關法案,從被提出開始即引起全球廣泛關注,也會影響大多數 AI 大模型在歐洲的發展前景。
6 月 14 日,歐洲議會以 299 票贊成、28 票反對、93 票棄權的表決結果通過了關于人工智能法案的草案。人工智能草案的内容中,包括明确了關于 Open AI 和谷歌等模型的義務。法規旨在确保人工智能技術對用戶能夠保持透明、公平和安全,計劃将于 2024 年生效。
來源:斯坦福
在斯坦福大學的研究中,研究團隊先從監管草案選取出 22 項要求,再以是否有意義地使用公眾信息作為标準,最終選擇出 12 項評估要求,為每個評估要求配備了5 點評分标準。在此基礎上,研究人員将這 12 項要求進行維度劃分為四個層次,分别是數據來源、數據處理、模型本身和實踐應用。
各大 AI 模型的得分與滿分仍有很大差距。主要的問題集中在:版權責任不明确;能源使用報告不均衡;風險緩解方面披露不充分;缺乏評估标準或審計生态系統等等問題。
各家大模型提供商的合規性差異也很大。一些 AI 大模型公司的得分低于 25%(AI21 Labs、Aleph Alpha、Anthropic)。目前綜合得分最高的,是 AI 大模型開源社區 Hugging Face。
最近幾個月,大公司的 AI 發布會同樣是證明。在 Open AI 的 GPT-4 和谷歌的 PaLM2 的發布會上,他們也都沒有披露關于數據、評估方式等相關内容。
斯坦福團隊表示,歐盟所出台的法規具備可行性,目前的 AI 模型遵守法規要求并非難題。他們在報告對政策制定者、全球政策制定者、模型提供商數方提供建議。比如,AI 模型的政策制定者需要在歐盟 AI 法規的要求下,優先考慮模型的透明度,對于基礎模型的開發、使用和性能有關的披露等,這都會提高整個人工智能生态系統的透明度。
而對于模型提供商而言,行業标準是比較大的挑戰。在 AI 大模型領網域尚沒有成型标準前,斯坦福團隊也提出了一些實用的建議——比如改善為大模型開發人員提供的文檔。" 提供商可以而且應該通過模仿最合規的大模型提供商,來提高自身的合規性。"