今天小編分享的科技經驗:7家AI巨頭,在白宮做出“自願”承諾,歡迎閲讀。
作者 | 周愚
編輯 | 鄧詠儀
" 我們必須對新興技術的風險保持清醒和警惕,這些風險可能會對我們的民主和價值觀構成威脅。"
美國時間 7 月 21 日,美國總統拜登在講話中如此説道。當天,白宮宣布,7 家人工智能領網域的巨頭經過與白宮數月的磋商後," 自願 " 做出一系列承諾,以應對 AI 帶來的風險。
這 7 家公司包括 Google、微軟、Meta、OpenAI、亞馬遜、Anthropic 和 Inflection。
7 家 AI 公司的代表在白宮,與美國總統拜登共同宣布承諾。來源:Getty Images
在實質性的法律法規到來之前,拜登政府希望用 " 自願承諾 " 的方式,實現人工智能技術安全、可靠和透明的發展目标。白宮官員承認,目前沒有執行機制來确保這些公司遵守承諾,但正在制定一項有關的行政命令。
随着生成式 AI 的廣泛運用,各類圖文、甚至音視頻的假消息開始泛濫,虛假信息傳播成為了人們對 AI 的一大擔憂。尤其是在美國 2024 大選前夕,這一議題受到了更多關注。
7 家公司共同宣布,将開發例如水印系統的技術,以确保用户能夠分别人工智能生成的内容。
此次,7 家公司共同或部分做出的其他承諾還包括:
投資網絡安全和内部威脅防護措施,以保護專有和未發布的模型權重;
促進第三方發現和報告其人工智能模型中的漏洞;
公開報告其人工智能模型的能力、限制以及适當和不适當使用的領網域;
優先研究人工智能模型可能帶來的社會風險,包括避免有害的偏見和歧視以及保護隐私;
開發和部署先進的人工智能模型,以幫助解決社會面臨的最大挑戰。
在今年 6 月,歐盟專員蒂埃裏 · 布雷頓訪問舊金山期間,就曾與 OpenAI CEO 奧特曼讨論過人工智能生成内容水印的問題。奧特曼當時表示," 很樂意很快 " 展示 OpenAI 對水印的處理。
盡管拜登稱這些承諾是 " 真實而具體的 ",但其中的許多項都有些模糊,缺乏具體執行的細節,反而更具象征意義。
例如,7 家公司共同承諾,在行業内及與政府、民間社會和學術界分享有關管理人工智能風險的信息。不過,如何确定風險信息的披露範圍、如何進行披露都存在待商讨的模糊地帶。
不同 AI 公司對于信息披露的态度也截然不同。Meta 對于其 AI 模型的分享顯然更加開放,大部分模型均為開源,公開供所有人使用。然而,OpenAI 在發布 GPT-4 時則稱,出于對競争和安全的考慮,拒絕公布模型的訓練數據量和模型尺寸。
承諾中還指出,在發布 AI 模型之前,會對其進行内部和外部的安全測試。然而,這條承諾并沒有明确説明這些模型需要經過什麼測試,測試應當由什麼機構完成,測試的具體标準是怎樣的。
事實上,這些 AI 公司在發布模型之前,都宣稱已經對其進行了内部的安全測試。不過,此次是這些公司首次集體承諾,允許外部專家對其模型進行測試。