今天小編分享的互聯網經驗:谷歌DeepMind創始人戴米斯:“與未來幾年的變化相比,今天的聊天機器人将顯得微不足道”,歡迎閲讀。
圖片來源 @視覺中國
文 | Tech 商業
谷歌多年來一直在展示其人工智能技術,但随着 ChatGPT 的爆炸式增長以及微軟在搜索領網域的新威脅,谷歌和 Alphabet 今年早些時候決定将 DeepMind 引入谷歌,與 Google Brain 一起創建了 Google DeepMind。這是一個重大的結構決策,其目标是讓人工智能產品更具競争力并更快推向市場。
要競争的不僅僅是 OpenAI 和微軟——你可能最近在網絡上看到了一位谷歌工程師的備忘錄,聲稱谷歌在人工智能領網域沒有競争護城河,因為在商用硬體上運行的開源模型正在迅速發展和追趕。近日的訪談中,Google DeepMind CEO 戴米斯 · 哈薩比斯 Demis Hassabis(DeepMind 創始人)證實該備忘錄是真實的,但表示這是谷歌辯論文化的一部分,他不同意該備忘錄觀點,因為他對谷歌的競争優勢有其他想法。
戴米斯還分享了他對當下人工智能進程與未來 AGI 的思考:
ChatGPT 和大語言模型以及公眾對此的反應,證實了人工智能已經進入了一個新時代。對于所有人來説,包括 OpenAI,這有點令人驚訝,因為 Deepmind 和 Anthropic 和 OpenAI 等其他一些初創公司,都擁有這些大型語言模型。他們的能力大致相同。因此,令人驚訝的不是技術是什麼,因為我們都擁有技術,而是公眾對此的興趣以及由此產生的轟動。
當前的產品并不是最終狀态。就聊天機器人和此類系統而言,我認為與未來幾年将出現的情況相比,今天的聊天機器人将顯得微不足道。
與僅僅擴大現有解決方案相比,還需要突破才能實現通用人工智能,巨大的突破,存在很大的不确定性。我認為這在很大程度上取決于時間框架。但現在來看,如果我們在未來十年實現 AGI 或類 AGI 之類的東西,我不會感到驚訝。
未來幾年必須改進的關鍵領網域之一是:事實性和基礎性,并确保他們不會傳播虛假信息等。這對我們來説是最重要的。理想情況下,我們在下一階段和下一代系統中要做的就是結合兩全其美——保持當前系統的創造力、清晰性和有趣性,但提高其真實性和可靠性。我們還有很長的路要走。但我可以看到事情正在改善,而且我看不出有任何理論上的原因可以解釋 " 為什麼這些系統在未來幾年内無法達到極高的準确性和可靠性水平 "。
以下是近日戴米斯在 AGI 議題的分享(經編輯删減)。
Q:從外部來看時間表是這樣的:人們一直在談論 AI。然後 OpenAI 發布了 ChatGPT,世界發生翻天覆地變化。此後谷歌合并 DeepMind 和 Google Brain。從内部視角來看也是這樣的嗎?
戴米斯:這個時間表是正确的,但這不是直接的結果。
無論如何衡量,AlphaGo、AlphaFold,還有 20 多篇自然和科學論文等等——所有這些正常指标都可以用來真正交付我們能夠做的、令人驚嘆的前沿研究。但在某種程度上,ChatGPT 和大語言模型以及公眾對此的反應證實了人工智能已經進入了一個新時代。對于我們所有人來説,包括 OpenAI,這有點令人驚訝,因為我們和 Anthropic 和 OpenAI 等其他一些初創公司,都擁有這些大型語言模型。他們的能力大致相同。
因此,令人驚訝的不是技術是什麼,因為我們都擁有技術,而是公眾對此的興趣以及由此產生的轟動。我認為這表明了我們在過去兩三年裏一直感受到的東西,那就是這些系統現在已經達到了成熟和復雜的水平,可以真正走出研究階段,并為下一代產品和體驗以及突破提供動力,例如 AlphaFold 等對生物學家來説直接有用。因此,對我來説,這只是表明人工智能正處于一個新階段,即人工智能對人們的日常生活切實有用,并且實際上能夠解決真正重要的現實世界中的困難問題,而不僅僅是好奇心或樂趣,比如遊戲。
當你認識到這種轉變時,我認為有必要改變你的方法,包括你如何進行研究以及你對產品和此類事物的關注程度。我認為這就是我們所有人都意識到的:現在是時候簡化我們的人工智能工作并更加關注它們了。顯而易見的結論就是進行合并。
Q:ChatGPT 時刻導致了今年人工智能的爆炸式增長,其真正原因在于人工智能能夠做普通人可以做的事情。我希望你給我寫一封電子郵件,我希望你給我寫一個劇本,這是人們能做的事情。而之前所有人工智能演示,甚至是 AlphaFold,都是非常專注于非常困難的事情。如何看待現在的轉捩點?
戴米斯:我認為這個分析是正确的。我認為這就是為什麼大型語言模型能夠真正進入了公眾意識——因為它是面向普通人,實際上人們可以理解并與之互動。當然,語言是人類智力和日常生活的核心。我認為這确實解釋了為什麼聊天機器人會像病毒一樣傳播開來。盡管我會説像 AlphaFold 這樣的東西——當然我這樣説是有偏見的,但我認為它實際上在人工智能領網域迄今為止對世界產生了最明确最大的有益影響,因為如果你與任何生物學家交談——你會發現已經有一百萬生物學家、研究人員和醫學研究人員在使用 AlphaFold。我想世界上幾乎所有的生物學家都是如此。每家大型制藥公司都在使用它來推進藥物發現計劃。有多位、數十位諾貝爾獎得主級别的生物學家和化學家與我談論他們如何使用 AlphaFold。
因此,世界上所有科學家中的某些人,他們都知道 AlphaFold,它影響并極大地加速了他們的重要研究工作。但當然,街上的普通人不知道蛋白質是什麼,也不知道這些東西對于藥物發現等事情的重要性。顯然,對于一個聊天機器人來説,每個人都能理解,這是不可思議的——比如讓它為你寫一首詩或一些每個人都能理解、處理和衡量的東西。
Q:DeepMind 和谷歌有很多產品。當你思考這些產品的最終狀态時,會看到什麼?
戴米斯:谷歌周圍的人工智能系統不僅存在于面向消費者的事物中,而且還存在于你可能沒有意識到的幕後。舉例來説,我們最初應用人工智能系統的其中一件事就是谷歌數據中心的冷卻系統,巨大的數據中心,實際上将它們使用的能源比冷卻系統使用的能源減少了近 30%,如果将其乘以他們在那裏擁有的所有數據中心和計算機,效果是顯著的。因此,實際上人工智能一直被用來提高這些(幕後)系統的效率。當前的產品并不是最終狀态。
就聊天機器人和此類系統而言,最終,從讀什麼書到推薦現場活動等,再到預訂旅行、為您規劃旅行,再到協助您的日常工作。我認為我們距離這樣的聊天機器人還很遠,而且我認為我們知道缺少什麼:諸如計劃、推理和記憶之類的東西,我們正在努力解決這些問題。我認為與未來幾年将出現的情況相比,今天的聊天機器人将顯得微不足道。
Q:我應該這樣看待人工智能系統嗎——有一個大模型,它是令人信服的人類語言界面,而它背後可能是實際上在進行蛋白質折疊的 AlphaFold?這就是你考慮将這些東西結合在一起的方式,還是這是一種不同的進化途徑?
戴米斯:事實上,有一個完整的研究分支正在研究工具使用。這個想法是,這些大型語言模型或多模态模型,它們是語言方面的專家,也許還有一些其他能力,比如數學和可能的編碼。
但是,當你要求他們做一些專門的事情時,比如折疊蛋白質或下國際象棋或類似的事情,那麼實際上他們最終所做的是調用一個工具,這可能是另一個人工智能系統,提供解決方案或該特定問題的答案。然後通過中央大型語言模型系統,以語言或圖形方式将其傳輸回用户。所以它實際上對用户來説可能是不可見的,因為對用户來説,它看起來就像一個具有許多功能的大型人工智能系統,我認為這可能将是下一個時代。下一代系統将使用這些功能。然後,你可以将中央系統視為幾乎是一個 switch 語句,你可以用語言有效地提示它,它會根據你查詢的任何内容,來為你解決該問題或提供解決方案。然後以一種非常容易理解的方式将其傳回。
Q:這個過程會讓你更接近通用人工智能,還是會讓你達到某種最高狀态,而你必須做其他事情?
戴米斯:我認為這是通往 AGI 的關鍵道路,這是另一個原因。我對這個新角色感到非常興奮,并且做了更多的產品和事情,因為我認為這裏的產品路線圖和研究路線圖,像 AGI 或人類水平的人工智能這樣的東西是非常互補的。為了構建像通用助理一樣在日常生活中有用的產品,人們需要推動其中的一些功能,例如計劃、記憶和推理,我認為這些對到達 AGI 至關重要。所以我認為產品和研究之間現在有一個非常巧妙的反饋循環,它們可以有效地互相幫助。
Q:你認為我們還有多少年才能擁有通用人工智能?
戴米斯:我認為,與僅僅擴大現有解決方案相比,還需要突破才能實現通用人工智能,巨大的突破——創新突破——存在很大的不确定性。我認為這在很大程度上取決于時間框架。顯然,如果仍然需要很多突破,那麼這些突破就會更難實現,并且需要更長的時間。但現在,如果我們在未來十年實現 AGI 或類 AGI 之類的東西,我不會感到驚訝。
但研究從來都不是一條直線。如果是的話,那麼它就不是真正的研究。如果你在開始之前就知道答案,那麼這就不是研究。因此,前沿研究和藍天研究(好奇心驅動的研究)總是存在不确定性,這就是為什麼你無法真正确定地預測時間表。但你可以看到的是趨勢,我們可以看看今天正在研究的想法和項目的質量,看看它們的進展如何。我認為在接下來的五到十年裏,我們可能會漸近,我們可能會用現有的技術和規模來碰壁。如果發生這種情況,我也不會感到驚訝:我們可能會發現,僅僅擴展現有系統就會導致系統性能的回報遞減。
實際上,這表明确實需要一些新的創新才能取得進一步的進展。目前,我認為沒有人知道我們處于哪個階段。所以答案是你必須盡可能努力地推動這兩個方面。因此,現有系統和現有想法的擴展和工程,以及大量投資于你認為可能帶來創新的探索性研究方向,可能會解決當前系統中的一些弱點。作為擁有大量資源的大型研究組織的優勢之一,是我們可以最大限度地押注于這兩件事,這兩個方向。在某種程度上,我對 " 我們是否需要更多突破,或者現有系統是否會一直擴展?" 這個問題持不可知論。我的觀點是,這是一個經驗問題,人們應該盡可能地推動這兩個問題。
Q:有一份泄露的備忘錄流傳開來。據稱,該消息來自谷歌内部。備忘錄稱,該公司沒有護城河,那個備忘錄是真的嗎?
戴米斯:" 我認為這份備忘錄是真實的。"
我認為那份備忘錄是真實的。我認為谷歌的工程師經常編寫各種文檔,有時它們會被泄露并傳播開來。但我不會太認真地對待它。這些只是意見。我認為聽聽他們的意見很有趣,你必須制定自己的路線。我還沒有詳細閲讀該備忘錄,但我不同意其中的結論。我認為可以有開源,我們在 DeepMind 歷史上已經做了很多這樣的事情。我的意思是,AlphaFold 是開源的,對嗎?因此,我們顯然相信開源,并支持開放研究。這是科學讨論的一個關鍵問題。
我也認為還需要考慮其他因素。顯然是商業問題,但也存在有關訪問這些非常強大的系統的安全問題。如果壞人可以訪問它怎麼辦?你對這些人的使用怎麼辦?但到目前為止這還只是理論性的,我認為從這裏一直到 AGI 都非常重要,因為這些系統變得更通用、更復雜、更強大。這個問題對于如何阻止不良行為者将這些系統用于惡意目的而言非常重要。
這是我們需要不斷提出的東西,但回到你的問題,看看谷歌和 DeepMind 在過去十年或更長時間裏在提出新的創新和突破以及多重突破方面所做的歷史。我敢打賭我們,而且我非常有信心,這種情況将繼續下去,而且在未來十年中,我們将像過去一樣實現下一個關鍵突破,這一點實際上更加真實。
Q:好萊塢編劇現在正在罷工,因為他們不想讓 ChatGPT 寫一堆劇本。随後可能出現了一個新的勞動力階層——由機器人系統來完成人類工作,這是未來就業的終局嗎?
戴米斯:我覺得很難説。我認為這絕對是一個特定的時刻。我們一直非常小心。但展望未來,我認為這些系統可能有一些方法,特别是當你擁有數以百萬計的用户時,可以有效地自我引導。或者人們可以想象人工智能系統能夠真正與自己對話或批評自己。
這有點像将語言系統變成類似遊戲的環境,當然我們在這方面非常專業,我們一直在思考這些強化學習系統(它們的不同版本)實際上可以在某些方面相互評價方式。它可能不如人類評分者,但它實際上是一種有用的方法,可以進行一些評級,然後也許只是通過最後與人類評分者檢查這些評級來校準它,而不是讓人類評分者對一切進行評價。因此,我可以看到很多創新,将有助于解決這一問題,并且可能意味着這一切都需要人類評估員來完成。
Q:你認為其中總有人類評估者嗎?即使你越來越接近通用人工智能,似乎也需要有人來告訴計算機它是否做得很好?
戴米斯:讓我們以 AlphaZero 為例,我們的通用遊戲系統最終會學習如何玩任何兩人遊戲,包括國際象棋和圍棋。這很有趣。那裏發生的事情是:我們建立了系統,以便它可以與自己對戰數千萬次。所以,事實上,它建立了自己的知識庫。它從随機開始,自我發揮,自我引導,訓練自己的更好版本,并以小型錦标賽的形式相互較量。但最後,你仍然想針對人類世界冠軍或類似的東西或以傳統方式構建外部計算機程式進行測試,以便你可以校準自己的指标,這些指标告訴你——這些系統正在根據你的目标或你的指标改進。
但在使用外部基準或測量值對其進行校準之前,你無法确定。根據具體情況,人類評估者或人類基準 ——人類專家通常是校準内部測試的最佳人選。并且你要确保你的内部測試确實反映了現實。對于研究人員來説,產品是非常令人興奮的,因為當你将研究投入到產品中并且數百萬人每天都在使用它時,那就是你獲得現實世界反饋的時候,這是沒有辦法解決的,對吧?這就是現實,這是對你所構建的任何理論或任何系統的最佳檢驗。
Q:" 随機鹦鹉 " 論文在 Google 内部引起了很大争議,這導致作者們離開了 Google。你是否讀過那篇論文并想:" 好吧,這是正确的。LLM 會對人們撒謊,谷歌将為此負責 "?面對如此多的審查,你現在如何看待這個問題?
戴米斯:是的,我認為這是谷歌對此非常負責的原因之一,就是我們知道大模型會產生幻覺并且可能不準确。未來幾年必須改進的關鍵領網域之一是:事實性和基礎性,并确保他們不會傳播虛假信息等。這對我們來説是最重要的。對于如何改進這一點,我們有很多想法。我們幾年前發布的舊 DeepMind 的 Sparrow 語言模型是一項實驗,旨在研究我們如何在這些系統中獲得事實性和規則遵守性。事實證明,我們也許可以将其提高一個數量級,但這有時是以犧牲語言模型的清晰度或創造力以及實用性為代價的。
所以這有點像帕累托邊界,如果你改進一個維度,你就會降低另一個維度的能力。理想情況下,我們在下一階段和下一代系統中要做的就是結合兩全其美——保持當前系統的創造力、清晰性和有趣性,但要提高其真實性和可靠性。我們還有很長的路要走。但我可以看到事情正在改善,而且我看不出有任何理論上的原因可以解釋 " 為什麼這些系統在未來幾年内無法達到極高的準确性和可靠性水平 "。
更多精彩内容,關注钛媒體微信号(ID:taimeiti),或者下載钛媒體 App