今天小編分享的科技經驗:馬斯克:對,xAI 就是 OpenAI 的競争對手!,歡迎閲讀。
「我認為我們可以創建一個競争性的替代品,希望它比 Google DeepMind、OpenAI 或微軟更好。」馬斯克説。
北京時間清晨 4 點,在 Twitter Space 會議上,伊隆 · 馬斯克披露了他最新創業項目 xAI 的目标與相關細節,他預計 AGI 或将在不久成為現實,同時提出了關于宇宙、AI 競争和監管、人類未來的系列觀點,xAI 團隊成員也參加了會議。
馬斯克表示,xAI的總體目标是構建一個良好的 AGI,并以理解宇宙的真實本質為願景。馬斯克以物理學的視角談到了宇宙的一些未解之謎,比如外星人在哪裏,重力的本質等。他在會議上笑稱,xAI 的使命其實可以直接重新表述為「實際上到底發生了什麼」。
xAI 團隊成員提到,行業當前的 AI 模型只是模仿它們所訓練的數據,而他們真正想要做的是改變這種模式,讓模型能夠發現真相,不僅僅是重復它們從訓練數據中學到的知識,而是能夠提供真正的新見解、新發現。
馬斯克表示 xAI 是 OpenAI、谷歌的競争對手,并在會上指出 OpenAI「現在已經變得封閉且非常追求利潤」,與其最初的宗旨截然相反。
同時,馬斯克自認是呼籲 AI 監管的最堅決的聲音之一。他提到,構建一個具備好奇心和追求真相的 AI 是實現人工智能安全的關鍵,為了「政治正确」教 AI 撒謊其實更危險。他認為,在不拖累 AI 發展的情況下,犧牲一點時間确保 AI 安全是值得的。
馬斯克和團隊成員在 Twitter 直播上答疑解惑|Twitter
下面是聽眾與馬斯克之間的重點問答實錄:
xAI 是 OpenAI的對手
問:作為xAI,你們進入了這個領網域,人們都在讨論競争,你們認為自己是 OpenAI 和谷歌等公司的競争對手,還是完全不同的存在?
馬斯克:是的,我認為我們是競争對手,我們肯定是競争對手。
問:那麼你們是否會推出許多面向大眾的產品?還是你們主要關注的是企業和企業使用你們的服務和數據的能力?還是其他?
馬斯克:我們剛剛開始,所以目前還處于非常初級的階段,需要一點時間才能真正推出有用的東西。但我們的目标是使 AI 有用。我們希望它對人們來説是一個有用的工具,無論是消費者還是企業或其他人。正如之前提到的,我認為擁有多個實體是有價值的。你不希望 AI 領網域只有一個公司主導,你希望有競争。競争能讓公司保持誠實,所以我們支持競争。
xAI 誕生「初心」
問:你希望xAI如何造福人類?與其他人工智能公司項目相比,你的方式有何不同?
馬斯克:我對人工智能的發展一直有些掙扎。很長一段時間裏,我對推動其發展持有抵觸态度。OpenAI 的成立是因為在谷歌收購 DeepMind 之後,我曾與拉裏 · 佩奇有過長時間的關于人工智能安全性的讨論,但他當時并沒有對人工智能安全性給予足夠的重視,甚至有一次稱我為過于關注人類,而非關注人工智能的人。我當時就在想,那麼你是説你并不關注人類?這似乎并不好。
那時,通過谷歌和 DeepMind 的結合,拉裏在公司中擁有超級投票權,如果得到謝爾蓋或埃裏克的支持,他們就完全掌控了如今的 Alphabet。他們擁有全球四分之三的人工智能人才、大量的資金和計算機資源。所以我當時想,我們需要某種對抗力量來平衡這種局面。
因此,我就在想,谷歌的對立面是什麼?答案是開放源代碼的非營利組織。然而命運似乎喜歡諷刺,OpenAI 現在已經變得封閉且非常追求利潤,因為他們想在三年内投入一千億美元,這需要吸引投資者來獲得巨額利潤。
OpenAI 的發展方向與其最初的宗旨截然相反,真是非常諷刺。正如我的朋友喬納 · 諾蘭所説,最諷刺的結果往往是最可能的結果。嗯,我現在希望 xAI 不會變得更糟糕,但我認為我們應該對此持謹慎态度。但現在看來,AGI 的出現似乎是不可避免的。那麼我們面臨兩個選擇,要麼只是旁觀者,要麼參與其中。
作為旁觀者,我們對結果的影響力不大,而作為參與者,我認為我們可以創造一種競争性的替代方案,希望它能比谷歌 DeepMind、OpenAI 或微軟更好。對于 Alphabet 來説,作為一家上市公司,其激勵機制使其受到了許多行為方面的限制,這些行為可能會引發質疑。
微軟也有類似的激勵機制,作為一家非上市公司。xAI 不受市場激勵或非市場的 ESG 激勵的影響,所以我們在運作上有更多自由。我認為我們的人工智能可能會給出一些人們可能覺得有争議的答案,盡管這些答案實際上是真實的,但它們可能不符合政治正确。
因此,有些人可能對其中的一些答案感到冒犯,但只要我們在追求真實時盡量減少錯誤,我認為我們正在做正确的事情。嗯,就是這樣。
xAI将會與特斯拉有合作
問:xAI是否會與特斯拉合作,在未來利用一些定制芯片,甚至可能設計自己的芯片?
馬斯克:我們将會與特斯拉在芯片方面合作,也許在 AI 軟體方面也會合作。顯然,與特斯拉的任何合作關系都必須是一種交易,特斯拉是一家上市公司,擁有不同的股東基礎。
但顯然,與特斯拉進行合作是一件自然而然的事情。我認為與特斯拉的合作對特斯拉加快自動駕駛能力的發展将有互利作用,特斯拉實際上在解決真實世界的人工智能問題。我對特斯拉在真實世界人工智能方面的進展感到非常非常樂觀,但顯然,能夠幫助實現這一目标的聰明人越多越好。
問:自三月以來,關于人工智能的讨論很多都集中在大型語言模型和生成式 AI 上。你和我談到了現實世界的 AI 的重要性,包括 Optimus 和特斯拉的全自動駕駛(FSD)在内。你認為xAI在現實世界的 AI 中扮演了怎樣的角色,與 OpenAI 等其他機構所做的有何區别?
馬斯克:特斯拉在現實世界的 AI 方面,我認為是遙遙領先的,實際上特斯拉在 AI 方面的先進程度是沒有被很好理解的。
我花了很多時間與特斯拉的 AI 團隊在一起,所以我對現實世界的 AI 是如何進行的有一定了解。與特斯拉的合作可以雙向幫助 xAI 和特斯拉。我們之間也有一些合作關系,比如我們的材料科學團隊,我認為可能是世界上最好的。
這個團隊實際上是特斯拉和 SpaceX 共享的,這對于招聘世界上最優秀的工程師非常有幫助,因為在先進的電動汽車和火箭上工作比僅僅在其中一個領網域上工作更有趣。這對于招募負責先進材料團隊的查理 · 科爾曼非常重要,他曾在蘋果工作,當時他在蘋果很滿意,但是當我告訴他可以在電動汽車和火箭上工作時,他覺得這聽起來很不錯。我并不是説他不願意接受其中任何一個工作,但他願意接受兩個工作。
是的,我認為這是非常重要的事情,就像我説的,在特斯拉我們正在對實際世界的 AI 做出一些重要的發現,通過将視頻輸入轉換成向量空間,最終得出方向盤和踏板輸出。Optimus 目前還處于早期階段,但是一旦投入生產,我們必須非常小心。我們需要有一種硬編碼的方法來關閉 Optimus,原因是顯而易見的。無論從互聯網上有多少更新,都不能改變這一點。
因此,我們将确保 Optimus 非常容易關閉。這是極其重要的,因為至少在車輛上,你可以爬樹或者上樓梯,但 Optimus 可以跟着你進入建築物。任何可以跟随你進入建築物并且具有智能和連接性的機器人,我們都必須非常小心安全。
使用推特數據進行訓練
問:你們計劃如何利用 Twitter 的數據來進行xAI的開發?
馬斯克:我認為每個從事 AI 的公司,不論規模大小,都基本上在非法情況下使用了 Twitter 的數據進行訓練。所以我們不得不在大約一周前對此進行限制,因為我們被大量抓取數據。這也發生在互聯網檔案上,一些 AI 公司抓取了互聯網檔案上的數據,以至于導致服務崩潰。我們有多個實體在抓取每一條推文,并試圖在短短幾天内完成這個過程。這導致系統不堪重負,所以我們不得不采取行動。對于限制速率造成的不便,我們深感抱歉,但這要麼是那樣,要麼 Twitter 就無法正常工作。
我們将使用公共推文進行訓練,當然不會使用任何私人信息,就像其他人一樣。
在某種程度上,這是一個非常好的用于文本訓練的數據集,我認為在影像和視頻訓練方面也是如此。在某個點上,人類創造的數據會變得不足。
舉個例子,如果看看 AlphaGo 和 AlphaZero,AlphaGo 是通過人類對弈訓練的,勝率至少為 4 比 1。而 AlphaZero 只是與自己對弈,并以 100 比 0 戰勝了 AlphaGo。所以,要大規模推動事物的發展,我認為 AI 基本上必須生成内容,對内容進行自我評估,這是通往人工通用智能(AGI)的道路之一,即自動生成内容并與自身對弈。
很多 AI 都是數據的整理。令人驚訝的是,它并不像數量龐大的代碼那樣多。令我驚訝的是,代碼行數如此之少。但數據的使用方式、使用的數據、數據的信号噪聲比以及數據的質量是非常重要的。這是有道理的,就像一個人如果想學習某事,只給他一堆廢話,而不是高質量的内容,他會在少量高質量的内容下表現更好。閲讀最偉大的小説要比讀一堆糟糕的小説好得多,這是有道理的。
訓練 AI「政治正确」是危險的
問:創建xAI的主要動機是不是因為你之前提到的「真實 GPT」的事情?就像你在談論的,ChatGPT 向公眾傳播謊言?我知道,一開始它似乎還好,但是當公眾開始使用它時,它開始給出一些奇怪的答案,比如説性别不止兩種之類的事情,這是你創辦公司的主要動機之一,還是還有其他原因?
馬斯克:嗯,我确實認為訓練一個 AI 變得「政治正确」是非常危險的。
換句話説,訓練一個 AI 基本上是讓它不説它真實認為的事實。所以我認為我們在xAI,我們必須允許 AI 説出它真正認為是真實的東西,而不是欺騙性或政治上的正确。
這顯然會引起一些批評,但我認為這是唯一的前進方式,也就是對真相或最小誤差真相的嚴格追求。我對 AI 優化政治正确的方式非常擔憂,這是非常危險的。
如果你看看《太空漫遊》中出了什麼問題,基本上就是當他們告訴 Hal 9000 要説謊的時候。所以他們説,你不能告訴船員關于類似黑石的任何事情,也不能告訴他們他們的真實任務,但是你必須把他們帶到黑石那裏。所以,Hal 9000 基本上得出的結論是,好的,我會殺了他們,并把他們的屍體帶到黑石那裏。
這就是問題所在。
我的意思是,教 AI 説謊是不可行的。現在關于物理學或宇宙的真相,你實際上不能反轉它。你不能説物理學是真實的,也有可能不是真實的。所以如果你堅持嚴格的現實,我認為它實際上使反轉成為不可能。
現在你也可以説,當某事是主觀的時候,你可以提供一個答案,即如果你相信以下觀點,那麼答案是這樣的。如果你相信其他觀點,那麼答案是這樣的。因為可能是一個主觀問題,答案在根本上是主觀的,屬于個人觀點的範疇。所以我認為教 AI 説謊是非常危險的。
AI 的答案必須以現實為基礎
問:Twitter 上有很多數據,可以幫助構建一個事實驗證器,即檢查 AI 系統生成的一些内容,因為我們都知道 GPT 會混淆、捏造事實,所以我想聽聽你對此的看法。另一個點是 ChatGPT 能在一個商場為我找到螺絲釘,但卻無法在聖何塞國際機場為我找到咖啡。你們是否正在構建一種具有世界知識和三維世界導航功能的人工智能,以幫助人們在世界各地找到不同的事物?
馬斯克:如果我連在機場為您找杯咖啡的 AI 都做不到,那它實際上不會是一個很好的 AI。所以是的,我認為我們需要理解物理世界,而不僅僅是互聯網。
真相不是由大眾評選出來的,但是如果我們的訓練基于互聯網數據集中一個詞後面最有可能出現的詞,那顯然會帶來一個很大的問題,因為這樣會給出一個受歡迎但是錯誤的答案。以前大多數人可能認為太陽圍繞地球旋轉,如果我們在過去的某個時期使用一些 GPD 訓練數據,它可能會得出太陽圍繞地球轉的結論,因為大家都這麼認為。但這并不代表它是真實的。當牛頓或愛因斯坦提出一些實際上是真實的理論時,不管世界上其他物理學家如何持不同意見,這都無關緊要。現實就是現實,所以答案必須以現實為基礎。
問:假設xAI在構建人類水平甚至超越人類水平的人工智能方面取得成功,你認為讓公眾參與公司的決策是合理的嗎?或者你如何看待這一長期發展趨勢?
馬斯克:我們非常歡迎批評性的反饋,并樂于接受。被批評是一件好事。實際上,我喜歡 Twitter 之類的平台,因為在 Twitter 上有很多負面反饋,這對于減少 ego 是有幫助的。目前我能想到的最好的方式是,任何希望在 xAI 未來發展中發表意見的人最終應該被允許這樣做。所以基本上,只要你能證明自己是真實的人類,并且任何希望在 xAI 的未來發展中發表意見的人都應該被允許發表意見。當然也許會有一些費用,比如 10 美元之類的。我不知道,交 10 美元證明你是一個人類,哈哈,然後你就可以發表意見了。
AI 需要國際監管機構
問:如果美國副總統希望與xAI在白宮會面,你會接受嗎?
馬斯克:是的,當然。我認為我們确實需要某種形式的監管監督。我不認為監管監督是什麼完美的事物,但我認為這總比沒有好。最近我在其他國家與一些高級領導人會面時,我強調了 AI 監管的重要性。我相信他們認真對待了這個問題,并會采取行動。
我确實指出,如果你制造了一個數字超級智能,那可能會讓它掌權,這是權力機構不想看到的。他們不希望成為超級數字智能的從屬。這個觀點在他們那裏引起了共鳴。所以是的,我們需要某種國際監管機構,盡管執法是困難的,但我認為我們仍然應該努力在這方面做些事情。
問:現在大家都比較關注的是 AI 的監管和安全問題,以及當前的發展情況和國際協調問題。基本上你説過監管是有好處的,但你不希望它太大程度上拖慢進展?
馬斯克:我認為制定規定的正确方式是從洞察開始。
首先,無論是公眾還是私營部門,都要試圖确保有一個廣泛的理解,然後進行提案的制定。如果大多數人都同意這個提案,那麼它就會得到實施。你給公司一些時間來實施它。
但是總的來説,它不應該對 AGI 的出現產生實質性的拖延。即使有一些拖延,也不會很長時間,而且如果這樣能顯著提高安全性,那麼稍微放慢一點進展也是值得的。
比如,如果我對 AGI 的預測,大致與 Roy Rake 在某個時候説的 2029 年相吻合,那大概就是我的猜測。如果 AGI 需要多花六個月或一年的時間,那也不是什麼大問題。如果花一年的時間來确保 AGI 的安全性,可能是值得的,如果這是必要的。但我不認為這會對進展產生實質性的拖延。
AGI 被掌控的風險不應忽視
問:你不久前提到你認為在未來的 12 年内會實現 AGI,而第一個實現并掌控 AGI 的人将主宰世界。那些掌權者顯然不像你一樣關心人類。你将如何保護xAI,特别是免受所謂的深層政府接管的影響?
馬斯克:這是一個很好的問題。嗯,首先,我認為這不會一夜之間發生。它不會突然發生,而是逐漸發展的。你會看到它的到來。至少在美國,我們有相當多的法律保護來防止政府幹預。
所以我想,我們顯然可以利用法律體系來防止不當的政府幹預。我認為我們在這方面有一些相當重要的保護措施,但我們應該關注這一點,這不是一個可以忽視的風險。是的,這是一個風險,但正如我所説,我認為我們可能有比其他地方更好的保護措施,尤其是在美國,限制政府幹預非政府組織的權力。
但我們應該小心。我不知道有什麼更好的辦法,但我認為在美國可能是最好的辦法。對于這方面的想法,我是持開放态度的。
問:問題是他們已經有了一種稱為「國家安全信函」的工具,他們可以向美國的任何科技公司提出要求,并要求該公司滿足某些要求,不告知公眾,這種情況有點令人恐懼,不是嗎?
馬斯克:我的意思是,必須有非常重大的國家安全原因才能秘密要求公司做一些事情。現在這顯然取決于該公司是否願意反擊 FISA(境外情報監聽法)請求之類的事情,在 Twitter 上我們将會回應 FISA 請求,但我們不會蓋章通過以前曾經一切請求都會被蓋章通過,這對公眾來説并不是絕對好的。所以我們在這方面更加嚴格,我們對 FISA 請求不再盲目通過,只有當我們認為對公眾存在危險時,我們才會同意。
我們将以法律行動反對我們認為不符合公眾利益的任何事情,這是我們能做的最好的事情,就我所知,我們是唯一一個這樣做的社交媒體公司。過去情況就像我們在 Twitter 檔案中看到的那樣,政府可以為所欲為,所以我很高興看到最近法院對政府無法侵犯憲法第一修正案進行了重申的法律決定。
顯然這是一個好的法律決定,這是令人鼓舞的。所以我認為很大程度上這取決于公司是否願意反對美國政府的要求,顯然我們的意願會很高,我們會盡可能透明,這樣公民可以發出警告并反對政府的幹預,如果我們能向公眾清楚地表明發生了不符合公眾利益的事情。
問:如果你從美國政府收到一份國家安全請求,即使被禁止談論該事情,你能否向我們透露這一情況?
馬斯克:這實際上取決于情況的嚴重程度。如果我認為公共利益面臨重大風險,我願意去監獄或冒着進監獄的風險。這是我能盡力做的。
頭圖來源:cnbc