今天小編分享的科技經驗:數月 → 幾天:OpenAI 被曝縮水模型安全測試,AI 競賽埋下隐患,歡迎閱讀。
IT 之家 4 月 12 日消息,金融時報(FT)昨日(4 月 11 日)發布博文,報道稱 OpenAI 大幅壓縮最新大型語言模型(LLM)安全測試時間,此前需要數月時間,而最新 o3 模型僅有幾天時間。
競争驅動,安全讓步
據八位知情人士透露,OpenAI 大幅壓縮模型的安全測試時間,留給員工和第三方測試團隊 " 評估 "(evaluations,即測試模型風險和性能)時間僅有數天時間,而此前通常會耗時數月時間。
IT 之家援引博文介紹,OpenAI 面臨來自 Meta、Google 及 xAI 等對手的激烈競争,需快速推出新模型以維持市場優勢。o3 模型計劃最早下周發布,留給測試者安全檢查時間不到一周,而此前 GPT-4 的測試期長達六個月。
一位測試過 GPT-4 的人士透露,過去安全測試更徹底,某些危險能力在測試兩個月後才被發現,而如今競争壓力迫使公司追求速度,忽視潛在風險。
測試不足,監管缺位
全球目前尚未統一 AI 安全測試标準,但歐盟《AI 法案》将于今年晚些時候上線,要求企業對其最強大的模型進行安全測試。
AI Futures Project 負責人 Daniel Kokotajlo 表示,由于缺乏強制監管,企業不會主動披露模型的危險能力,競争壓力進一步加劇了風險。
OpenAI 曾承諾構建定制模型版本,測試其潛在濫用風險,例如是否能協助制造更具傳染性的生物病毒。
這種測試需投入大量資源,包括聘請外部專家、創建特定數據集并進行 " 微調 "(fine-tuning)。但 OpenAI 僅對較老舊的模型進行有限微調,最新模型如 o1 和 o3-mini 未全面測試。前 OpenAI 安全研究員 Steven Adler 批評,若不兌現測試承諾,公眾有權知情。
安全測試未覆蓋最終模型
另一問題在于,安全測試通常基于早期 " 檢查點 "(checkpoints),而非最終發布模型。一位前 OpenAI 技術人員表示,發布未經測試的更新模型是 " 不良做法 ",而 OpenAI 辯稱,其檢查點與最終模型 " 基本一致 ",并通過自動化測試提高效率,确保安全。