今天小編分享的财經經驗:7年内超級AI将問世!OpenAI宣布:20%算力投入,4年内控制超級智能,歡迎閲讀。
為了控制、引導超級智能對齊問題,OpenAI 周三(5 日)表示,組建了一支人工智能對齊團隊 Superalignment。同時該團隊也是對 OpenAI 現有工作的補充,可提升 ChatGPT 等產品的安全性,在 4 年内解決超級智能對齊問題。
超級智能将是人類發明的最具影響力的技術之一,可以幫助我們解決世界上許多難題。但超級智能的巨大力量也可能非常危險,并導致人類失去控制權,甚至滅絕人類。雖然超級智能還很遙遠,但 OpenAI 認為,10 年之内就很有可能實現。
目前,OpenAI 還沒有一個明确的解決方案來引導或控制超級人工智能。當下可控制的人工智能技術,例如,根據人類反饋進行強化學習,依賴于人類監督的 AI 能力等。但人類無法可靠地監督,比我們聰明多的 AI 系統,因此,我們目前的對齊技術無法擴展到超級智能,需要新的科學技術突破。
20% 算力用來解決 AI 失控問題
為了控制、引導超級智能對齊問題,OpenAI 組建了一支由 Ilya Sutskever(OpenAI 聯合創始人兼首席科學家)和 Jan Leike 領導的人工智能對齊團隊—— Superalignment。
同時該團隊也是對 OpenAI 現有工作的補充,可提升 ChatGPT 等產品的安全性,包括非法濫用、經濟破壞、虛假信息、偏見和歧視、數據隐私和其他可能出現的問題。
他們預測,超智能 AI(即比人類更聰明的系統)可能在這個十年(2030 年前)就會到來,人類将需要比目前更好的技術來控制超智能 AI,因此需要在所謂的 " 一致性研究 " 方面取得突破,該研究的重點是确保人工智能對人類有益。
根據他們的説法,在微軟(Microsoft)的支持下,OpenAI 将拿出未來四年所獲算力的 20% 用于解決 AI 失控的問題。此外,該公司正在組建一個新的團隊來組織這項工作,稱為超級一致性團隊。
據悉,該團隊的目标是創建一個 " 人類級别 " 的 AI 研究人員,然後通過大量的計算能力進行擴展。OpenAI 表示,這意味着他們将使用人類反饋來訓練 AI 系統,訓練 AI 系統來輔助人類評估,然後最終訓練 AI 系統進行實際的一致性研究。
OpenAI 的方法
建立一個大致達到人類水平的自動對齊系統。然後,可以使用大量算力來擴展工作,并調整超級智能。
1、開發可擴展的訓練方法:為了針對人類難以評估的任務提供訓練方法,可以通過人工智能系統來協助評估,其他人工智能系統(可擴展的監督)。此外,OpenAI 希望了解和控制其模型,将監督應用到無法監督的任務(泛化)上。
2、驗證生成的模型:為了驗證系統的一致性,OpenAI 将自動搜索有問題的行為(穩定性)和有問題的内部結構(自動可解釋性)。
3、對整個對齊管道進行壓力測試:可以通過故意訓練未對準的模型,來測試整個安全流程,并确認技術檢測到最差的未對準類型(對抗性測試)。
OpenAI 預計,随着對超級智能對齊了解越來越多,研究重點将會發生重大變化,可能會增加全新的研究領網域。
未來,會分享更多有關技術研究路線圖的信息。
每日經濟新聞綜合 OpenAI 官網
每日經濟新聞