今天小編分享的科技經驗:AI應該如何被監管?業内辯論更新,谷歌和OpenAI存嚴重分歧,歡迎閲讀。
随着 ChatGPT 大火帶來的 AI 熱潮,如今,如何監管 AI 技術成為市場熱議的話題。
一份最新的檔案顯示,谷歌和 OpenAI 這兩大 AI 領網域的領導者對政府應如何監管人工智能持有相反的看法。
OpenAI 首席執行官 Sam Altman 最近一直在鼓吹由政府來監管 AI 技術,甚至提到要建立一個類似國際原子能機構的政府間組織來監管 AI,而且他認為,該機構應該專注于監管 AI 技術,以及為使用該技術的實體頒發許可。但谷歌則不希望 AI 監管一切都由政府統領,該公司更傾向于 " 多層次、多利益相關者的 AI 治理方法 "。
AI 領網域的其他人,包括研究人員,也表達了和谷歌類似的觀點,稱政府部門對 AI 進行監管可能是保護邊緣化社區的更好方式——盡管 OpenAI 認為技術進步太快無法采用這種方法。
谷歌稱:
在國家層面,我們支持中心輻射式方法——由美國國家标準與技術研究院(NIST)等中央機構通知部門監管機構監督 AI 實施——而不是一個 " 人工智能部門 "。AI 将在金融服務、醫療保健和其他受監管的行業帶來前所未有的挑戰,這些挑戰将由具有這些行業經驗的監管機構來應對,而不是一個新的、獨立的部門來監管。
華盛頓大學計算語言學實驗室教授兼主任 Emily M. Bender 説:
我完全同意所謂的 AI 系統不應該在沒有某種認證程式的情況下部署。但是這個過程應該取決于系統的用途。現有的監管機構應保持其管轄權和決定權。
谷歌的這一觀點與 OpenAI 和微軟偏愛更集中的監管模式形成鮮明對比。微軟總裁 Brad Smith 表示,他支持組建一個新的政府機構來監管人工智能,而 OpenAI 的創始人們也公開表達了他們的願景,即組建一個類似國際原子能機構的組織來監管 AI。
谷歌全球事務總裁 Kent Walker 表示,他 " 不反對 " 由新監管機構監督大型語言模型許可的想法,但表示政府應該 " 更全面地 " 看待這項技術。
谷歌和微軟在監管方面看似相反的觀點表明人工智能領網域的争論越來越多,争論遠遠超出了技術應該受到多少監管的範疇。
今年 5 月,美國副總統哈裏斯在會見了 AI 界重要公司的領導人後稱,這項技術 " 有可能極大地增加對安全和安保的威脅,侵犯公民權利和隐私,并侵蝕公眾對民主的信任和信心 "。
她補充説,企業有責任遵守現有的法律,以及 " 倫理、道德和法律責任,以确保其產品的安全和保障 "。