今天小編分享的互聯網經驗:OpenAI 公開曝光高管郵件,坦言:埃隆·馬斯克是得不到就想毀掉,歡迎閱讀。
OpenAI 今天在官網發布新聞稿,回應埃隆 · 馬斯克起訴一事。該文章由 Sam Altman、Greg Brockman、Ilya Sutskever 等人共同署名。文章表示,OpenAI 打算駁回埃隆 · 馬斯克的所有訴訟請求,并公布了一些高層和埃隆 · 馬斯克的歷史往來郵件作為證據。
以下為新聞稿原文翻譯:
OpenAI 的使命是确保 AGI 造福全人類,這意味着既要構建安全有益的 AGI,又要幫助人類創造收益。現在,我們将與大家分享我們在完成使命方面的心得,以及我們與埃隆之間關系的一些事實情況。
我們正打算駁回埃隆的所有訴訟請求。
我們意識到,構建 AGI 所需的資源遠遠超出我們最初的想象
埃隆說,我們應該布向 OpenAI 提供 10 億美元的初始資金承諾。實際上,這家非營利組織總共從埃隆那裡籌集了不到 4500 萬美元,從其他捐贈者那裡籌集了 9000 多萬美元。
在 2015 年底創辦 OpenAI 時,格雷格和薩姆最初計劃籌集 1 億美元。但是埃隆在一封電子郵件中表示 " 我們需要一個比 1 億美元大得多的數字,以免讓人聽起來覺得毫無希望……我認為我們應該從 10 億美元的資金承諾開始 . 如果其他人不提供的,我會承擔。" [ 1 ]
我們花了很多時間來設想通往 AGI 的合理路徑。2017 年初,我們意識到構建 AGI 需要大量的計算。我們開始計算 AGI 可能需要多少計算量。我們都明白,要想成功完成使命,我們将需要更多的資金 -- 這将達到每年數十億美元,遠遠超出了我們任何人的想象,尤其是埃隆,他認為我們作為非營利組織無法籌集到這麼多資金。
我們和埃隆都認識到,要獲得這些資源,就必須建立一個營利實體。
在我們讨論營利性結構以推進使命時,埃隆希望我們與特斯拉合并,否則他需要獲得全部的控制權。這之後埃隆離開了 OpenAI,他說需要有一個與谷歌 /DeepMind 相對應的競争對手,而他打算自己來做這件事。他同事表示,他會支持我們找到自己的道路。
2017 年底,我們和埃隆決定下一步的任務是創建一個營利實體。埃隆希望獲得多數股權以及最初的董事會控制權,并擔任首席執行官。在這些讨論中,他扣留了資金。Reid Hoffman 填補了資金缺口,為我們支付了工資和運營費用。
我們無法就營利性公司的條款與埃隆達成一致,因為我們認為任何個人對 OpenAI 擁有絕對控制權都有悖于公司的使命。于是,他建議将 OpenAI 并入特斯拉。2018 年 2 月初,埃隆給我們轉發了一封郵件,建議 OpenAI " 依附于特斯拉,将其作為自己的資金來源 ",并評論說 " 完全正确……特斯拉是唯一一條甚至有望與谷歌相提并論的道路。即便如此,與谷歌抗衡的可能性也很小。但并不是零 "。 [ 2 ]
埃隆很快選擇離開 OpenAI,他說我們的成功概率為 0,他計劃在特斯拉内部建立一個 AGI 團隊與我們競争。他在 2018 年 2 月底離開時告訴我們,他支持我們自己尋找籌集數十億美元的道路。2018 年 12 月,埃隆給我們發郵件說:" 即使籌集到幾億美元也不夠。這需要每年籌集數十億美元,否則就算了。" [ 3 ]
我們通過構建可廣泛使用的有益工具來推進我們的使命
我們通過開源等方式,使我們的技術能夠廣泛使用,從而提高人們的效率,改善他們的日常生活。
我們向大眾提供了當今最強大的人工智能,包括每天有數億人使用的免費版本。舉個例子,阿爾巴尼亞正在使用 OpenAI 的工具将其加入歐盟的時間加快了 5.5 年;數字綠色公司正在幫助肯亞和印度提高農民收入,通過在 OpenAI 的基礎上将農業推廣服務的成本降低 100 倍;羅德島州最大的醫療保健提供商 Lifespan 使用 GPT-4 将其手術同意書從大學閱讀水平簡化到六年級水平;而冰島正在使用 GPT-4 保護越來越少人使用的冰島語。
埃隆明白,這些工作并不意味着開源 AGI。正如伊利亞告訴埃隆的那樣 " 随着我們越來越接近 AGI,開始降低開放程度是有意義的。 OpenAI 中的 " 開放 " 是指人工智能建成後,每個人都應從人工智能的成果中受益,但不分享科學成果也完全沒問題…… ",埃隆回答道: " 是的 "。 [ 4 ]
對于埃隆的起訴,我們倍感遺憾。我們深深欽佩的一個人走到了這一步。他曾激勵我們向更高的目标邁進,然後告訴我們會失敗,建立了一個競争對手團隊,而當我們開始在沒有他的情況下朝着 OpenAI 的使命取得有意義的進展時,他又将我們告上法庭。
我們專注于推進自己的使命,這還有很長的路要走。我們相信随着我們的產品越來越好,他們将更好地為每個人賦權。
以下為往來郵件翻譯:
[ 1 ]
發件人 埃隆 - 馬斯克
收件人 格雷格 - 布羅克曼
抄送: Sam Altman
Date: Sun, Nov 22, 2015 at 7:48 PM
主題: 通話後續
博客聽起來不錯,但要考慮到中立性和以青委會為中心。
我更傾向于将博客定位為更吸引普通大眾--讓大眾支持我們取得成功有很大的價值--然後為招聘工作準備一個更長、更詳細、更有内幕的版本,并在普通大眾版本的末尾提供鏈接。
我們需要一個比 1 億美元大得多的數字,以避免與谷歌或 Facebook 的支出相比顯得毫無希望。我認為我們應該說,我們将從 10 億美元的資金承諾開始。這是真的。其他人不提供的,我都會提供。
模板看起來還不錯,除了默認轉為歸屬現金紅利外,還可以選擇将其轉為 YC 或 SpaceX(需要了解具體數額)的股票。
[ 2 ]
收件人 Ilya Sutskever 、Greg Brockman
Date: 2018 年 2 月 1 日 星期四 凌晨 3:52
主題 Fwd: 今天的頂級人工智能機構
說得一點沒錯。我們或許希望如此,但在我看來,特斯拉是唯一能與谷歌抗衡的公司。即便如此,與谷歌抗衡的可能性也很小,但也不是零。
開始轉發信息:
發件人:
致 埃隆 - 馬斯克
日期 太平洋标準時間 2018 年 1 月 31 日下午 11:54:30
主題 Re: 當今頂尖的人工智能機構
不幸的是,在人工智能的最前沿工作是昂貴的。除了 DeepMind,谷歌還有 Google Brain、Research 和 Cloud。還有 TensorFlow、TPU,它們擁有大約三分之一的研究成果(事實上,它們還舉辦自己的人工智能會議)。
我還強烈懷疑,要實現 AGI,計算能力将是必要的。如果歷史趨勢能夠說明問題,那麼人工智能的進步主要是由系統--計算、數據、基礎設施--驅動的。我們今天使用的核心算法與上世紀 90 年代相比基本沒有變化。不僅如此,任何發表在論文中的算法進展幾乎都可以立即被重新實現和整合。反過來說,如果沒有一定的規模,單靠算法的進步是沒有生命力的。
在我看來,如今的 OpenAI 正在燒錢,其融資模式無法達到與谷歌(一家 8000 億美元的公司)認真競争的規模。如果你無法與谷歌認真競争,卻繼續在開放環境中進行研究,那麼你可能會讓事情變得更糟,并 " 免費 " 幫助他們,因為他們很容易復制任何進步,并立即将其規模化。
以營利為目的的轉型可能會随着時間的推移創造出更穩定的收入來源,而就目前的團隊而言,很可能會帶來大量投資。然而,從零開始打造產品會搶走人工智能研究的重點,而且需要很長時間,目前還不清楚一家公司能否 " 趕上 " 谷歌的規模,投資者也可能會在錯誤的方向上施加過多壓力。我所能想到的最有希望的方案,正如我之前提到的,就是讓 OpenAI 附屬于特斯拉,将其作為自己的資金來源。我認為,依附于其他大型公司(如蘋果、亞馬遜),會因公司基因不兼容而失敗。打個比方,特斯拉已經建造了火箭的 " 第一級 ",包括 Model 3 的整個供應鏈、車載電腦和持續的互聯網連接。第二階段 " 将是基于大規模神經網絡訓練的完全自動駕駛解決方案,OpenAI 的專業技術可以大大幫助加快這一進程。在大約 2-3 年的時間裡,我們就能推出功能完善的完全自動駕駛解決方案,銷售大量汽車 / 卡車。如果我們真的做得很好,運輸行業的規模足夠大,我們可以将特斯拉的市值提高到 O(約 10 萬美金),并利用這筆收入為适當規模的人工智能工作提供資金。
我看不到有任何其他公司有潛力在十年内達到可持續的谷歌規模資本。
[ 3 ]
收件人 Ilya Sutskever 、Greg Brockman
抄送: Sam Altman
Date: Wed, Dec 26, 2018 at 12:07 PM
主題: 我覺得我應該重申
在執行和資源沒有發生巨大變化的情況下,我對 OpenAI 與 DeepMind/Google 相關性的概率評估是 0%。而不是 1%。我希望不是這樣。
即使籌集到幾億美元也不夠。這需要每年立即籌集數十億美元,否則就算了。
不幸的是,人類的未來掌握在【未透露名稱】手中。
他們所做的遠不止這些。
我真希望我錯了。
埃隆
【4】
Fwd: 恭喜獵鷹 9
包含 3 條信息
發件人 Elon Musk
收件人 Sam Altman、Ilya Sutskever、 Greg Brockman
日期 Sat, Jan 2, 2016 at 8:18 AM
主題 收件人: 恭喜獵鷹 9 号
開始轉發消息:
From: 未透露姓名
To: 埃隆 - 馬斯克
日期: 美國中部時間 2016 年 1 月 2 日上午 10:12:32
主題: 恭喜獵鷹 9 号
嗨,埃隆
祝你新年快樂,
首先祝賀獵鷹 9 号着陸,這是一項了不起的成就。現在是時候組建艦隊了!
我看到你(還有薩姆和其他 OpenAI 人士)最近接受了很多采訪,大肆宣揚人工智能開源的優點,但我想你應該意識到,這并不是某種能神奇地解決安全問題的靈丹妙藥吧?有很多很好的論據可以說明,為什麼你所采取的方法實際上是非常危險的,事實上可能會增加世界的風險。在這篇博文中,一些比較明顯的觀點得到了很好地闡述,我相信你已經看到了,但還有其他一些重要的考慮因素:
http://slatestarcodex.com/2015/12/17/should-ai-be-open/
我很想聽聽你對這些觀點的反駁。
發件人 Ilya Sutskever
致 Elon Musk 、Sam Altman、 Greg Brockman
日期 Sat, Jan 2, 2016 at 9:06 AM
主題 Fwd: 恭喜獵鷹 9 号
這篇文章關注的是 " 硬起飛 "
如果發生 " 硬起飛 ",而安全的人工智能比不安全的人工智能更難構建,那麼通過開放一切,我們就會讓那些能夠獲得大量硬體的不法分子輕而易舉地構建出不安全的人工智能,從而遭遇 " 硬起飛 "。
當我們越來越接近構建人工智能時,開始降低開放程度将變得更有意義。openAI 中的 " 開放 " 意味着,在人工智能建成後,每個人都應從人工智能的成果中獲益,但不分享科學知識也是完全可以的(盡管在短期和中期内,為了招聘的目的,分享一切絕對是正确的策略)。
來自 埃隆 - 馬斯克
收件人 Ilya Sutskever
日期 Sat, Jan 2, 2016 at 9:11 AM
是的
(呂可 / 譯)