今天小編分享的科技經驗:内部數百工程師可随意攝取 OpenAI 先進模型,OpenAI 前員工揭露:谏言即被開除,祈禱公司不報復,歡迎閱讀。
就在 OpenAI 新模型發布不久還被廣泛贊譽的時候,OpenAI 舉報人對其悄悄 " 背刺一刀 "。
就在 OpenAI 新模型發布不久還被廣泛贊譽的時候,OpenAI 舉報人對其悄悄 " 背刺一刀 "。
" 我在 OpenAI 工作期間,運營體系有很長一段時間都存在漏洞,這些漏洞可能允許我或者公司内的其他數百名工程師繞過訪問控制、竊取包括 GPT-4 在内的最先進 AI 系統。"OpenAI 舉報人 William Saunders 在近日參加的一場關于人工智能監管的聽證會上說道。
去年年初,一名黑客入侵了 OpenAI 的内部消息系統,并竊取了該公司 AI 技術設計的詳細信息。這件事大家是最近才知道的。OpenAI 高管于 2023 年 4 月在公司舊金山辦公室舉行的全體會議上向員工透露了這一事件,并通知了董事會。但高管們決定不對外公開這一消息,因為沒有關于客戶或合作夥伴的信息被竊取。另外高管層也認為這與所謂國家安全沒有關系,因為他們相信黑客是一名個人,與外國政府沒有聯系。
Saunders 在過去三年,一直擔任 OpenAI 公司的技術人員。"OpenAI 一直強調自己正在進步,但我和其他已經辭職的員工都懷疑他們能不能跟得上發展的節奏。"Saunders 說道。
他以 OpenAI 最新模型 o1 為例稱,這是首個向着生物武器風險邁進的系統,因為它能夠幫助專家規劃并重現已知的生物威脅。" 如果不是經過了嚴格測試,o1 項目的開發者很可能忽略掉這種危險的能力。雖然 OpenAI 率先開展了相關測試,但公司的總體思路仍然是以部署為優先、而非以嚴格監管為優先。因此我認為,OpenAI 确實有可能遺漏未來 AI 系統當中某些重要的危險能力。"
" 我之所以從 OpenAI 辭職,是因為我不再相信他們會以負責任的态度制定 AGI 相關決策。" 看得出來,他抨擊的 OpenAI 不止不關心 AI 安全,自家的安全也是一點都不擔心。
批評 OpenAI,是要被 " 懲罰 " 的
今年 6 月有媒體曝出,OpenAI 員工如果想離開公司,将面臨大量的、限制性極強的離職檔案。如果他們在相對較短的時間内拒絕籤字,就可能被威脅失去公司既得股權。這種做法在矽谷并不常見。這項政策迫使離職員工在放棄他們已經賺到的數百萬美元和同意不批評公司之間做出選擇,而且沒有截止日期。
這一消息在 OpenAI 内部引起了軒然大波。與許多矽谷初創公司一樣,OpenAI 的員工通常以股權的形式獲得大部分的預期薪酬。員工們往往認為,一旦按照合同中規定的時間表 " 歸屬 ",這些股權就屬于他們了,公司無法收回。
外媒報道後的第二天,首席執行官 Sam Altman 就發文道歉,總體意思是:我不知道我們有一些威脅公平的條款,我保證我們不會再這樣做了。OpenAI 部分高管在公司内部也表達了同樣的歉意。OpenAI 首席戰略官 Jason Kwon 承認,該規定自 2019 年以來就已實施,但 " 團隊确實在一個月前就發現了這個問題。這麼久了才被發現,是我的錯。"
但外媒指出,公司領導層的道歉存在問題。終止檔案中的離職信中寫道:" 如果您擁有任何既得的權益部門 … 您必須在 60 天内籤署一份放棄索賠協定,以便保留這些權益部門。" 該協定由 Kwon 和 前 OpenAI 人力副總裁 Diane Yoon 籤署。這份秘密的超限制性保密協定僅針對已既得股權的 " 對價 ",由首席運營官 Brad Lightcap 籤署。
用威脅既得股權的方式讓前員工籤署極其嚴格的保密協定只是一部分,這裡面還涉及更多細節。OpenAI 發出的冗長而復雜的解雇檔案有效期只有七天,這意味着前員工只有一周的時間來決定是接受 OpenAI " 封殺 ",在無限期内無法發聲批評 OpenAI,還是承擔失去數百萬美元的風險。但時間非常緊迫,他們幾乎沒有時間去尋找外部顧問。
" 我們希望确保你們明白,如果不籤署,可能會影響你們的股權。這對每個人來說都是如此,我們只是按規矩辦事。"OpenAI 的代表如是說道。
大多數前員工在壓力之下屈服了。對于拒絕籤署第一份終止協定并尋求法律顧問的員工,OpenAI 改變了策略:沒有說要取消股權,而是說阻止其出售股權。" 你必須明白,此外你将沒有資格參與未來我們贊助或促成的招标活動或其他流動性機會。"
此外,公司檔案中還包含," 根據公司的全權酌情決定權 ",任何被公司解雇員工的既得股權可以減至零。還有條款規定,公司可以全權決定哪些員工可以參與出售其股權的招标要約。
解雇一個員工,找個理由就可以
可能有人還記得,今年 OpenAI 因涉嫌洩露信息解雇了兩名員工,其中一個就是 Leopold Aschenbrenner。Aschenbrenner 後來解釋了他為什麼會被解雇,并透露了更多細節。
" 去年某個時候,我寫了一份關于未來 AGI 道路上需要做的準備、安全和保障措施的頭腦風暴檔案。我與三位外部研究人員分享了這份檔案以征求反饋。這就是洩密的内容。"Aschenbrenner 解釋稱," 當時在 OpenAI,與外部研究人員分享安全理念以獲得反饋是完全正常的。這種情況一直都有。文檔中有我的想法。在我分享之前,我審查了它是否有任何敏感内容。内部版本提到了未來的集群,我在外部副本中删去了它。有一些内部 PPT 的鏈接,但對于外部人員來說,這是一個無效鏈接。PPT 也沒有與他們分享。"OpenAI 給他的回復是 " 計劃在 2027-2028 年實現 AGI",但公司并未設定準備時間表。
但這并不是他被解雇的真相,真正的原因是他寫了一份關于 OpenAI 安全性内部備忘錄并與董事會分享了該備忘錄。
去年,我寫了一份關于 OpenAI 安全性的内部備忘錄,我認為這份備忘錄嚴重不足,無法防止外國參與者竊取模型權重或關鍵算法機密。我與幾位同事和幾位領導分享了這份備忘錄,他們大多表示這份備忘錄很有幫助。
幾周後,發生了一起重大安全事件。這促使我與幾位董事會成員分享了這份備忘錄。幾天後,我清楚地知道,領導層對我與董事會分享這份備忘錄非常不滿。顯然,董事會就安全問題向領導層提出了質問。
我因與董事會分享備忘錄而收到人力資源部門的正式警告。人力資源部的人告訴我,擔心間諜活動是種族主義行為,而且沒有建設性。我可能沒有發揮出最佳外交能力,本可以更精通政治。我認為這是一個非常重要的問題。安全事件讓我非常擔心。
我之所以提起這件事,是因為當我被解雇時,他們明确表示安全備忘錄是我被解雇的主要原因。他們說:" 這是解雇而不是警告,因為這份安全備忘錄。"
Aschenbrenner 透露,在被解雇前,他被拉到一邊跟律師交談,但雙方很快就對峙了起來。律師問了他對人工智能發展的看法、對 AGI 的看法、AGI 的适當安全級别、政府是否應該參與 AGI、我和超級聯盟團隊是否忠于公司,以及他在 OpenAI 董事會活動期間做了什麼。然後律師還和 Aschenbrenner 的幾個同事談了談,然後回來告訴就告他被解雇了。" 他們查看了我在 OpenAI 工作期間的所有數字檔案,然後發現了洩密事件。"
此外,律師團隊還提出了其他幾項指控。其中一件是,Aschenbrenner 在調查期間不願透露與誰分享了頭腦風暴檔案,他表示自己确實不記得了,只記得曾與一些外部研究人員讨論過這些想法。" 這份檔案已經有六個多月了,我花了一天的時間研究它。"Aschenbrenner 表示," 它根本就不值得關注,因為它根本不是什麼問題。"
Aschenbrenner 表示,OpenAI 還聲稱不喜歡他參與政策的方式。
" 他們引用了我曾與幾位外部研究人員談過的觀點,即 AGI 将成為政府項目。事實上,我當時正在與該領網域的許多人讨論這一觀點。我認為這是一件值得思考的重要事情。所以他們找到了我五、六個月前寫給一位同事的 DM,他們也引用了這一點。"Aschenbrenner 說道。" 我曾認為,與該領網域的外部人士讨論有關 AGI 未來的高層問題是符合 OpenAI 規範的。"
OpenAI 公司内部的其他員工都對這樣的事情表示驚訝。
從那時起,我和幾十位前同事談過這件事。他們的普遍反應是 " 這太瘋狂了 "。我也感到驚訝。幾個月前我才剛剛升職。當時,Ilya 對我升職一事的評論是:"Leopold 太棒了。我們很幸運能擁有他。"
" 從某種意義上說,這是合理的。我有時在安全問題上可能很煩人,這惹惱了一些人。我反復提到這一點,也許并不總是以最圓滑的方式提出來的。盡管有壓力要求我在董事會活動期間籤署員工信,但我并沒有籤署。"Aschenbrenner。
Saunders 和其他 OpenAI 員工此前籤署了關于 " 對先進人工智能發出警告的權利 " 公開信。他們認為,只要政府還沒有對 AI 企業施以有效監督,那就只有現任及前任員工來負起責任。然而,廣泛的保密協定卻阻止了他們表達自身擔憂的權利,除非企業主動承認他們無力解決這些問題。"
Saunders 在聽證會上隐隐透露出擔心被報復的想法。他表示," 鑑于整個行業的歷史上曾經發生過極端情況,我們中有一部分人可能擔心受到各種形式的報復。我們并不是第一批遇到、或者決定正視這些問題的人。"
參考鏈接:
https://www.judiciary.senate.gov/imo/media/doc/2024-09-17_pm_-_testimony_-_saunders.pdf
https://www.vox.com/future-perfect/351132/openai-vested-equity-nda-sam-altman-documents-employees
https://www.dwarkeshpatel.com/p/leopold-aschenbrenner?open=false#%C2%A7what-happened-at-openai
本文來自微信公眾号 "AI 前線 ",整理:褚杏娟 核子可樂,36 氪經授權發布。