今天小編分享的科技經驗:「AI 七巨頭」在白宮做出「8 大承諾」,他們都承諾了什麼?,歡迎閲讀。
就在 Meta 公布了新一代開源大語言模型 Llama 2 三天之後,公司高層就和微軟、OpenAI、亞馬遜、Anthropic 等七家目前在 AI 行業中的巨頭和炙手可熱的創業公司管理人員,再次聚首美國白宮。
在這次的活動中,七家公司籤訂了一份「自願承諾書」(Voluntary Commitments),就 AI 技術和研發的安全、透明、以及風險等做出「8 大承諾」。
AI 公司「求監管」的戲碼,到此達到了一個小高潮。
NYT 專欄作者 Kevin Roose 撰文,詳解了這「8 大承諾」到底都説了什麼,以及因此帶來的改變。
研究的結果是,這 8 項承諾,例如安全測試、分享 AI 安全信息、報告漏洞以及「優先用 AI 解決社會挑戰」,看起來都是一些大問題,而對應的承諾也缺乏細節,其中不少問題本身就是 AI 公司已經「公示」給大眾的。
此份「資源承諾書」,更像是過去半年美國監管層對 AI 公司數次問詢的一次間接性的「成果展示」,很可能不具備太多執行層面的意義。但是,監管對于 AI 數次表示關切,标明政府對于 AI 技術應用的立場,才是這場秀最大的意義。
以下為 Kevin Roose 對于「自願承諾書」中 8 項承諾的解讀:
作者:Kevin Roose
來源:NYT
鏈接:https://www.nytimes.com/2023/07/22/technology/ai-regulation-white-house.html
編譯:靖宇
承諾 1:公司承諾在發布人工智能系統之前,對其進行内部和外部安全測試。
這些人工智能公司在發布之前都已經對其模型進行了安全測試——通常稱為「紅隊測試」。從某種程度上來説,這并不是一個真正的新承諾,它很模糊。沒有提供有關需要進行何種測試或由誰進行測試的詳細信息。
在随後一份聲明中,白宮僅表示,人工智能模型的測試「将部分由獨立專家進行」,并重點關注「生物安全和網絡安全等人工智能風險,及其更廣泛的社會影響」。
讓人工智能公司公開承諾繼續進行此類測試,并鼓勵測試過程更加透明,這是一個好主意。還有一些類型的人工智能風險——例如人工智能模型可用于開發生物武器的危險——政府和軍事官員可能比公司更适合評估。
我很高興看到 AI 行業就一系列标準安全測試達成一致,例如 Alignment 研究中心對 OpenAI 和 Anthropic 預發布的模型進行的「自主復制」測試。我還希望看到聯邦政府資助此類測試,這些測試可能成本很高,并且需要具有重要技術專業知識的工程師。目前,許多安全測試都是由公司資助和監督的,這引發了明顯的利益衝突問題。
承諾 2:公司承諾在整個行業以及與政府、民間社會和學術界分享有關管理人工智能風險的信息。
這個承諾也有點模糊。其中一些公司已經發布了有關其人工智能模型的信息——通常是在學術論文或企業博客文章中。其中一些公司,包括 OpenAI 和 Anthropic,還發布了名為「系統卡片」(System Cards)的文檔,其中概述了他們為使這些模型更安全而采取的步驟。
但他們有時也會以安全問題為由隐瞞信息。當 OpenAI 今年發布最新的人工智能模型 GPT-4 時,它打破了行業慣例,選擇不透露其訓練數據量或模型有多大(稱為「參數」的指标)。該公司表示,出于對競争和安全的擔憂,拒絕透露這一信息。這也恰好是科技公司喜歡遠離競争對手的數據類型。
根據這些新的承諾,人工智能公司是否會被迫公開此類信息?如果這樣做有加速人工智能軍備競賽的風險怎麼辦?
我懷疑白宮的目标不是強迫公司披露其參數數量,而是鼓勵他們相互交換有關其模型确實(或不)構成風險的信息。
但即使是這種信息共享也可能存在風險。如果谷歌的人工智能團隊,在預發布測試期間阻止新模型被用來設計致命的生物武器,那麼它是否應該在谷歌之外分享這些信息?這是否會給不良行為者,帶來關于如何讓一個較少保護的模型來執行相同任務的想法?
承諾 3:公司承諾投資網絡安全和内部威脅防護措施,以保護專有和未發布的模型權重。
這個問題非常簡單,在我采訪過的人工智能内部人士中也沒有争議。「模型權重」(Model Weights)是一個技術術語,指的是賦予人工智能模型運行能力的數學指令。如果你是外國政府(或競争對手公司)的代理人,想要構建自己版本的 ChatGPT 或其他人工智能產品,那麼權重就是你想要竊取的東西。人工智能公司嚴格控制這一點符合既得利益。
模型權重泄露的問題已經廣為人知。
例如,Meta 的原始 LLaMA 語言模型的權重,在模型公開發布幾天後就在 4chan 和其他網站上泄露。考慮到更多泄密的風險,以及其他國家可能有興趣從美國公司竊取這項技術,要求人工智能公司在自身安全方面進行更多投資似乎是理所當然的事情。
承諾 4:兩家公司承諾促進第三方發現,和報告其人工智能系統中的漏洞。
我不太确定這意味什麼。每家人工智能公司在發布模型後,都會發現其模型中的漏洞,通常是因為用户試圖用模型做壞事,或以公司未預見到的方式規避「越獄」。
白宮承諾要求公司針對這些漏洞建立「強大的報告機制」,但尚不清楚這可能意味着什麼。
應用内反饋按鈕,類似于允許 Facebook 和 Twitter 用户舉報違規帖子的按鈕?一個漏洞賞金計劃,就像 OpenAI 今年啓動的獎勵在其系統中發現缺陷的用户的計劃?還有别的事嗎?我們将不得不等待更多細節。
承諾 5:公司致力于開發強大的技術機制,以确保用户知道内容何時由人工智能生成,例如水印系統。
這是一個有趣的想法,但留下了很大的解釋空間。
到目前為止,人工智能公司一直在努力設計工具,讓人們能夠判斷他們是否正在查看人工智能生成的内容。這有很好的技術原因,但當人們可以将人工智能生成的工作,冒充為自己的工作時,這就是一個真正的問題(問問任何一位高中老師。)
目前許多被宣傳為能夠檢測人工智能輸出的工具實際上無法以任何程度的準确性做到這一點。
我對這個問題能夠完全解決并不樂觀,但很高興各公司承諾為此努力。
承諾 6:公司承諾公開報告其人工智能系統的功能、局限性以及适當和不适當使用的領網域。
另一個聽起來很明智的承諾,有很大的回旋餘地。
公司多久需要報告其系統的功能和限制?這些信息必須有多詳細?考慮到許多構建人工智能系統的公司在事後都對自己系統的功能感到驚訝,那麼他們真的能在多大程度上提前描述這些系統呢?
承諾 7:公司承諾優先研究人工智能系統可能帶來的社會風險,包括避免有害的偏見和歧視以及保護隐私。
致力于「優先考慮研究」是一種模糊的承諾。盡管如此,我相信這一承諾會受到人工智能道德人群中許多人的歡迎,他們希望人工智能公司,将預防偏見和歧視等近期傷害作為優先事項,而不是擔心世界末日場景,就像人工智能安全人士所做的那樣。
如果您對「人工智能倫理」和「人工智能安全」之間的差異感到困惑,請了解人工智能研究界内存在兩個敵對派系,每個派系都認為對方專注于防止錯誤的傷害。
承諾 8:兩家公司致力于開發和部署先進的人工智能系統,以幫助解決社會面臨的最大挑戰。
我認為沒有多少人會認為,先進的人工智能不應該被用來幫助解決社會面臨的最大挑戰。白宮将「癌症預防」和「緩解氣候變化」列為希望人工智能公司重點關注的兩個領網域,我對此不會有異議。
然而,讓這個目标變得有些復雜的是,在人工智能研究中,一開始看起來無聊的事情往往會產生更嚴重的影響。
DeepMind 的 AlphaGo(一種經過訓練可以玩棋盤遊戲圍棋的人工智能系統)所采用的一些技術在預測蛋白質的三維結構方面非常有用,這是一項促進基礎科學研究的重大發現。
總體而言,白宮與人工智能公司的交易似乎更具象征意義,而不是實質性的。沒有執行機制來确保公司遵守這些承諾,其中許多承諾反映了人工智能公司已經采取的預防措施。
盡管如此,這仍然是合理的第一步。
同意遵守這些規則表明人工智能公司,已經從早期科技公司的失敗中吸取了教訓,這些公司等到遇到麻煩才與政府接觸。在華盛頓,至少在科技監管方面,盡早出現是值得的。
頭圖來源:視覺中國