今天小編分享的科技經驗:諾獎得主、AlphaGo之父:AI遠不如人類科學家,根本提不出有價值的猜想,歡迎閱讀。
新智元報道
【新智元導讀】去年 10 月,DeepMind 聯合創始人 Demis Hassabis 因開發 AlphaFold 以解決蛋白質復雜結構預測問題,而獲得了諾貝爾化學獎;2016 年,他和他的團隊開發的 AlphaGo 戰勝了人類圍棋世界冠軍李世石,自此聲名鵲起;作為一個天才少年,他更是在 13 歲時就晉升為了國際象棋「大師」。
一直以來,Demis Hassabis 都被認為是人工智能(AI)的風向标人物,作為一家頂級 AI 公司的 CEO,他更願意将自己視為一名科學家,稱一生所做的一切都是為了追求知識,了解我們周圍的世界,并将創造通用人工智能(AGI)視為他一生的目标。
在當前由大模型推動的 AI 浪潮中,他甚至主張不要急功近利,不要打破常規。他批評了他所認為的 AI 領網域某些人的魯莽态度,他把這些人比作「沒有意識到自己手中拿着危險材料」的實驗者。
日前,他被《時代》周刊評為了「2025 年全球最具影響力百大人物」(TIME 100)之一,并接受了《時代》周刊駐倫敦分社記者 Billy Perrigo 的專訪。
在采訪中,他談到了 AGI 的潛在「喜」與「憂」:喜在「治愈疾病、開發新能源,推動人類文明發展等」,憂在「被不法分子惡意使用、失去人類控制等」。他還表示,AGI 的倫理和社會問題,如就業、隐私等,也需要得到更多關注。
他還毫不吝啬地分享了他的樂觀看法,「我們将在這個人類最繁榮的世界裡,帶着 AI 将幫助實現的所有技術,遨遊星際。」
他還認為,掌握新工具将賦予人類「超能力」,帶來更好、更有意義的工作,同時淘汰部分平凡崗位。但當 AGI 能夠勝任大多數任務時,新的問題随之而來:如何公平分配生產力提升的成果?以及,失去傳統工作的意義後,人類如何重塑存在的目标?「這需要新的哲學思考」。
學術頭條在不改變原文大意的前提下,對采訪内容做了适當的精編和删減。如下:
AGI 如果誕生,将會產生巨大的影響。你能為我描繪一下最好的情況嗎?如果我們創造了 AGI,世界會變成什麼樣?
我之所以一輩子都在研究 AI 和 AGI,是因為我相信,如果操作得當、負責任發展,它将是有史以來最有益的技術。因此,我認為,從現在起往前推 10 多年,我們可以利用它來做的事情包括:利用 AI 治愈所有疾病,以及幫助開發新能源,無論是核聚變還是最佳電池,或是新材料,如新型超導體。我認為,當今社會面臨的一些最大問題,無論是氣候還是疾病,都将通過 AI 解決方案來解決。因此,如果我們再往前推 10 年,我認為樂觀的看法是,我們将在這個人類最繁榮的世界裡,帶着 AI 将幫助實現的所有技術,遨遊星際。
以氣候問題為例。我認為,除了更多的技術,包括 AI 輔助技術(如新型能源等),我們沒有任何其他方法可以解決這個問題。我不認為我們能迅速采取集體行動來解決這個問題。
換一種說法:如果我不知道像 AI 這樣的變革性技術即将出現,我會對當今社會感到非常擔憂。我堅信這一點。我之所以對未來 50 年的發展持樂觀态度,是因為我知道,如果我們正确地構建 AI,它将能夠幫助我們解決一些最緊迫的問題。這幾乎就像騎兵。我認為我們今天就需要這支騎兵。
你也一直強調要規避風險。你能描述一下最壞的情況嗎?
最壞的情況,我想在科幻小說中已經說得很多了。我認為我最擔心的兩個問題是:如果使用得當,AI 将是一項神奇的技術,但這是一項雙重用途的技術,它将強大得令人難以置信。因此,這意味着潛在的壞人可以重新利用這種技術來達到潛在的有害目的。因此,作為一個領網域和社會,我們面臨的一個巨大挑戰是,我們如何讓好的行為者能夠獲得這些技術,從而做出令人驚嘆的事情,比如治愈可怕的疾病,同時又限制可能的壞行為者獲得同樣的技術?這是一個很難解決的難題。第二件事是 AGI 風險本身。随着技術變得更加自主、更加基于智能體,技術本身也會帶來風險,而這正是未來幾年将要發生的事情。我們如何确保能夠掌控這些系統、控制它們、解讀它們在做什麼、理解它們、設定正确的防護欄,而這些防護欄又不能被自我改進的高能力系統移動?這也是一項極其艱巨的挑戰。因此,這是兩個主要的風險點。如果我們能正确處理這兩方面的問題,我想我們就能實現令人驚嘆的未來。
但這并不是最壞的情況。最壞的情況是什麼樣的?
我認為,如果你弄錯了,那麼這些系統就會產生所有這些有害的用例,而這些用例的範圍可能與我們試圖做的事情相反 -- 你可能最終沒有找到治療方法,而是用這些系統找到了毒素。因此,如果你颠倒了系統的目标,所有好的用例都會變成有害的用例。作為一個社會,這就是我一直支持國際合作的原因。因為無論系統建在哪裡,無論以何種方式建造,它們都可以分布在世界各地。它們會影響到世界上幾乎每一個角落的每一個人。因此,我認為,我們需要圍繞這些系統的構建方式、我們賦予它們的設計和目标,以及它們的部署和使用方式制定國際标準。
在 AI 安全領網域,有很多人都在談論這些系統在多大程度上可能會尋求權力、具有欺騙性、試圖剝奪人類的權力并擺脫人類的控制。你對這是否是默認路徑,還是尾部風險有什麼看法?
我的感覺是,風險是未知的。所以有很多人,我的同事,著名的圖靈獎得主,都站在這個論點的兩邊。我認為正确的答案應該是在中間的某個位置,也就是說,如果你看看這場辯論,辯論雙方都有非常聰明的人。因此,這告訴我,我們對它的了解還不夠多,無法真正量化風險。随着我們對這些系統的進一步開發,可能會發現要控制這些系統比我們想象的要容易得多,或者說比我們預期的要容易得多。很多事情都是這樣的。因此,有一些證據表明,事情可能比一些最悲觀的人所想的要容易一些,但在我看來,風險仍然很大,我們必須仔細研究,量化風險,然後盡可能有預見性地提前處理,而不是事後處理。
是什麼讓你夜不能寐?
對我來說,是國際标準與合作的問題,不僅是國家之間的合作,還有公司與研究人員之間的合作,因為我們正在邁向 AGI 的最後一步。我認為我們正站在這個風口上。也許我們還有 5-10 年的時間。有人說更短。我不會感到驚訝。這就像一個概率分布。但無論如何,它很快就會到來。我不确定社會是否已經做好了準備。我們需要考慮清楚這一點,同時也要考慮我之前談到的這些問題,包括這些系統的可控性,以及這些系統的可訪問性,并确保一切順利。
你認為自己是科學家還是技術專家?你遠離矽谷,來到倫敦。你如何定位自己?
我首先認為自己是一名科學家。我一生所做的一切都是為了追求知識,試圖了解我們周圍的世界。我從孩提時代起就痴迷于此。對我來說,打造 AI 就是我對如何解決這些問題的表達:首先打造一個工具,這本身就非常吸引人,是對智能和意識以及這些已經成為最大謎團的事物的一種陳述,然後它可以有雙重目的,因為它也可以作為一種工具來研究你周圍的自然世界,比如化學、物理和生物學。還有比這更令人興奮的冒險和追求嗎?因此,我認為自己首先是一名科學家,其次可能是一名企業家,這主要是因為這是做事最快的方法。最後,也許是一名技術工程師,因為歸根結底,你不想只是在實驗室裡理論和思考問題。實際上,你想為世界帶來實際的改變。
我想談談時間線的問題。奧特曼和 Dario Amodei 最近都給出了 ...
很近了,對吧?
奧特曼說他預計 AGI 會在特朗普任期内出現。Amodei則說最早在2026年就會實現。
部分取決于你對 AGI 的定義。因此,我認為,出于各種原因,人們在淡化這一定義,籌集資金,人們可能會出于各種原因這樣做。我們的定義其實一直都是一致的:擁有人類所有的認知能力。實際上,我對此的測試是:AI 能否在 1900 年代利用與愛因斯坦相同的信息量提出廣義相對論?所以,這不僅僅是解決一個數學猜想,你能提出一個有價值的猜想嗎?所以,我敢肯定,我們的系統很快就能解決其中一個「千年獎」。但是,你能提出一組像這樣有趣的猜想嗎?
聽起來,一言以蔽之,這就是你所說的科學家和技術專家之間的區别。所有技術專家都在說:這是一個能比人類更好或更便宜地完成有經濟價值的勞動的系統。
這種說法很好。也許這就是我對這部分内容如此着迷的原因,因為在歷史上,我一直欽佩那些科學家,我認為他們才是真正推動知識向前發展的人,而不是讓知識變得實際有用的人。顯然,兩者對社會都很重要。工程和科學都是如此。但我認為,現有的 AI 缺少這種假設的產生。
讓我們具體問題具體分析。你認為我們離能為 AI 研究做出有意義貢獻的自動研究員還有多遠?
我認為還有幾年時間。我認為編碼助手已經相當不錯了。到明年,我認為他們會非常出色。我們正在努力推進這項工作。Anthropic 主要專注于此,而我們一直在做更多科學方面的事情。AI 仍然不如最好的程式員能為作業系統設計出漂亮的結構。我認為這部分還很欠缺,所以我認為還需要幾年的時間。
在 Gmini 模型中,你非常注重多模态性,不僅将語言空間作為基礎,還将現實世界作為基礎。與其他實驗室相比,你們更注重這一點。這是為什麼?
有幾個原因。其一,我認為真正的智慧需要了解你周圍的時空世界。這對你想做的任何真正的科學也很重要。我還認為,這實際上會讓語言模型變得更好,而且我認為我們已經看到了一些這樣的效果,因為你實際上已經把它建立在了真實世界的語境中。不過,事實上,語言本身已經走得比某些人想象的要遠得多,也許我也會認為這是可能的。最後,這也是一個用例問題,因為我腦海中有兩個用例,我們正在大力開發。一個是通用數字助理的概念,它能在日常生活中幫助你提高工作效率,豐富你的生活。它不只存在于你的電腦中,而是随身攜帶,可能是手機、眼鏡或其他設備,而且一直都非常有用。要做到這一點,它需要了解你周圍的世界,并處理你周圍的世界。
其次,對于機器人技術來說,它也正是現實世界中機器人技術所需要的。它必須了解所處的空間環境。人類是多模态的,對嗎?所以,我們在螢幕上工作。我們有視覺。我們有喜歡看的視頻,有想創作的影像,還有想聽的音頻。因此,我認為 AI 系統需要反映出這一點,才能與我們進行最充分的互動。
Signal 總裁 Meredith Whittaker 對你剛才描述的萬能智能體提出了批評,認為你并不是憑空得到這種幫助。作為交換,你需要放棄大量數據。你必須讓它獲取你生活中的幾乎所有信息使其有用。谷歌是一家收集個人信息以提供有針對性廣告的數字廣告公司。你如何看待智能體對隐私的影響?
Meredith 指出了這一點。我喜歡她在 Signal 所做的工作。我認為,首先,這些東西都需要選擇加入。
但我們選擇了各種東西。我們選擇數字追蹤。
所以,首先,這是你的選擇,當然,人們會這麼做,顯然是因為它很有用。我認為,只有當你完全相信這個助手是你的,它才會起作用,對嗎?它必須值得你信任,因為它就像現實生活中的人類助手一樣,一旦他們了解你,他們就真的很有用。我的助理們比我自己還了解我,這就是為什麼我們的團隊合作得這麼好。我想,這就是你想要的數字助理的實用性。但是,你必須确保它真的是孤立的。我們擁有世界上最優秀的安全人員,他們負責這些工作,以确保它能保護隐私,甚至在我們的伺服器上也能加密,以及所有這些技術。我們正在努力研發這些技術,以便在我們的助理產品(Project Astra)準備就緒時使用。我認為這将是消費者的決定,他們會希望使用保護隐私的系統。我認為邊緣計算和端側模型在這裡也将非常重要,這也是我們如此關注小型、高性能、可在單個設備上運行的模型的原因之一。
我不知道你認為還要過多久,我們才能開始看到這些東西對勞動力市場的重大影響。但如果或當這種情況發生時,将會造成巨大的破壞,對嗎?你有應對這種混亂的計劃嗎?
我和很多經濟學家談過這個問題。我認為,首先,該領網域的專家,經濟學家和其他人,需要做更認真的工作。當我與經濟學家交談時,我不确定這方面的工作做得是否足夠。我們正在建立智能體系統,因為它們會更有用。我認為,這也會對工作產生一些影響,盡管我懷疑它會帶來其他工作,現在還不存在的新工作,即你要管理一組智能體,他們在做一些瑣碎的事情,也許是一些背景研究,等等,但你還是要寫出最終的文章,或提出最終的研究論文。或提出研究的想法。比如,你為什麼要研究這些東西?
所以我認為在下一階段,人類将被這些神奇的工具賦予超能力,前提是你知道如何使用它們,對吧?所以會有颠覆,但我認為會更好,會有更好的工作和更充實的工作,然後更平凡的工作就會消失。過去的科技就是這樣。但是,當 AGI 可以做很多很多事情的時候,我認為這是一個問題:我們能否在全世界範圍内公平、廣泛地分配生產力的提高?之後還有一個問題,就是意義和目的。這就是下一個哲學問題,我認為我們今天需要一些偉大的新哲學家來思考這個問題。
我在2022年采訪你時,我們談到過這個問題,你說過「如果你身處一個極度富足的世界,不平等的空間和方式就會減少。所以,如果AGI願景得以實現,這也是它的積極後果之一。」但在那樣的世界裡,仍然會有人控制财富,有人沒有财富,工人也可能不再有工作。你能詳細闡述一下你的願景嗎?
我個人并沒有花很多時間在這個問題上,盡管我可能越來越應該這樣做。同樣,我認為頂尖的經濟學家也應該對此多加思考。我覺得,徹底的富足真正意味着你解決了核聚變和 / 或最佳電池和 / 或超導體等問題。假設你在 AI 的幫助下解決了這三件事。這意味着能源的成本基本上應該為零,而且是清潔和可再生的,對嗎?突然間,這意味着你可以解決所有的用水問題,因為你只需要有海水淡化廠,這很好,因為那只是能源和海水。這也意味着制造火箭燃料 ...... 你只需使用類似的技術,從海水中分離出氫和氧,對嗎?突然間,資本主義世界的許多基礎都不復存在了,因為其基礎是能源成本、資源成本和資源稀缺性。但是,如果你現在已經打開了太空,你可以開采小行星和所有這些東西,這需要幾十年的時間來建設基礎設施,那麼我們就應該進入這個新的經濟時代。
我認為這根本沒有解決不平等的問題,對吧?開采這些小行星仍然可以獲得和積累财富。土地是有限的。
所以現在有很多東西都是有限的,這就意味着最終是一場零和遊戲。我所考慮的是一個不再是零和遊戲的世界,至少從資源的角度來看是這樣。那麼還有其他問題嗎?也許吧。因此,這些問題必須在政治上加以解決。但至少你已經解決了一個主要問題,那就是,在我們所處的這個資源有限的世界裡,一切最終都會變成零和。這不是唯一的根源,但卻是衝突的主要根源,也是不平等的主要根源。
這就是我所說的徹底的富足。我們不再處于一個資源有限的零和世界。但我敢肯定,這可能需要一種新的哲學。