今天小編分享的科技經驗:剛剛!Deepmind 首席執行官獲 2024 諾貝爾化學獎,談到 AI 時他説:有過度炒作,但仍被低估,歡迎閲讀。
今年的諾貝爾獎,要被 AI 包圓了。
剛剛出爐的諾貝爾化學獎,由 David Baker,John M. Jumper,Demis Hassabis 三人共同摘得——最後一個名字,大家應該不陌生了,正是 Deepmind 創始人。
不久前,Demis Hassabis 做客 DeepMind 的播客頻道,面對 Hannah Fry(英國數學學會旗下應用數學研究所新任所長),他不僅解釋了團隊對于蛋白質結構的研究,還深入了 DeepMind 的工作、對 Gemini 和 AGI 的展望,以及更重要的:在技術越來越強大時,如何變得更加平衡。
以下為對談節選,内容有所編輯。
Hannah Fry:歡迎來到 Google DeepMind,我是主持人教授 Hannah Fry。當我們在 2017 年第一次開始考慮制作這個播客時,DeepMind 是一個相對較小、專注人工智能的研究實驗室。他們剛剛被谷歌收購時,在倫敦一段距離的地方開展自己的項目研究。上一季度,Google 重新配置了整個結構,将人工智能團隊置于其戰略的核心。
現在,我與 DeepMind 的聯合創始人、現首席執行官 Demis Hassabis 正在一起——我應該稱呼您為 Hassabis 爵士嗎?
Demis Hassabis:别别,絕對不要(笑)。
Hannah Fry:好的,非常感謝您的到來。我想知道,現在公眾對 AI 的興趣爆炸式增長,你的工作是更容易還是更難了?
Demis Hassabis:我覺得這是雙刃劍,對吧。确實更難了,因為在整個領網域裏有太多的審視、關注和相當多的噪音。實際上,我更喜歡那個人少,能更專注于科學的時候。但現在也很好,因為它表明技術已經準備好,以許多不同的方式影響世界,并以積極的方式影響人們的日常生活。所以我認為這也很令人興奮。
Hannah Fry:你會不會對 AI 如此迅速地就吸引了公眾,而感到驚訝?雖然我猜你也預料到了。
Demis Hassabis:是的,确切地説,在某個時候(已經有預料了)。我們這些人已經為此工作了很多年,甚至幾十年。所以我想在某個時候,每個人都會意識到 AI 的重要性。但看到這一切真正實現,仍然是相當超現實的。我猜這是聊天機器人和語言模型的出現,畢竟每個人都使用語言,每個人都可以理解語言。因此,這是一種讓公眾理解并可能判斷 AI 所處位置的簡單方式。
Hannah Fry:我聽到你形容這些聊天機器人「不合理的有用」,我真的很喜歡。等一下我們會讨論 transformer 技術,我猜是這個重大突破為我們提供了這些工具。但是,現在我想先問,你所謂的「不合理的有用」是什麼意思?
Demis Hassabis:我的意思是,我想如果一個人回溯到 5、10 年前,説我們将要做點事情,将要采取的方式是,比如建立一些驚人的架構,然後從那裏開始進行擴展,而不是從某些概念或抽象開始建設——這是我們在 5 年、10 年前會進行的辯論,我們是否需要一種特殊的抽象方式?因為大腦似乎确實這樣做了。
但不知何故,如果你給系統足夠多的數據,比如説整個互聯網,它們似乎确實從中學習和歸納了,不僅僅是死記硬背,而是真的在一定程度上,理解它們正在處理的内容。而且它在某種感知上,有點不合理地有效果,我認為五年前沒有人會想到它的工作方式。
Hannah Fry:是的,像概念理解和抽象這樣的事情,竟然自然出現了而不是(被設計出來)。
Demis Hassabis:對,我們之前讨論了諸如概念和 grounding 之類的事情,将語言建立在現實世界的經驗中,可能是模拟環境中,可能是在具身智能機器人中,這對于真正理解我們周圍的世界是必要。當然,這些系統還沒有實現。它們犯了很多錯誤,也并沒有真正的世界模型,一個好的世界模型。但是僅僅通過從語言中學習,它們已經得到了比人們期望的更多的東西。
Hannah Fry:我們可能還是要為不了解的觀眾,解釋一下 grounding 是什麼。因為這是個很重要的概念。
Demis Hassabis:當然,這是在八九十年代的時候,經典的 Al 研究體系在像麻省理工學院這樣的地方成立的原因。你可以把它們想象成連接其他單詞的巨大數據庫。問題是,你可以説在「一只狗有腿」的确存在于數據庫中,可是當你展示一張狗的照片時,它并不知道像素的集合指向的是那句話。這就是 grounding 工作要面對的問題。你有符号這種抽象的表示,但在現實世界中——混亂的現實世界中——它真正意味着什麼?我們試圖解決這個問題,但永遠不會完全正确。
當然,今天的系統并不是這樣,它們直接從數據中學習。所以在某種程度上,它們從一開始就在形成這種聯系。但有趣的是,如果你僅僅從語言中學習,從理論上講,應該會缺少很多你需要的基礎。結果事實證明,其中很多都是可以推斷的。
Hannah Fry:為什麼是理論上的?
Demis Hassabis:這種 grounding 是從哪裏來的?這些系統,至少第一個大型語言模型,之前在現實世界中并不真正存在。它們沒有連接到模拟器,它們沒有連接到機器人,它們甚至沒有對互聯網的訪問權限。它們一開始也不多模态,它們沒有視覺能力或其他任何什麼的,只是純粹生活在語言空間中,一個抽象的領網域中,所以相當令人驚訝的是,它們可以從中推斷出一些關于現實世界的事情。
Hannah Fry:如果人們參與進來,與這個系統互動,并明确説「這是一個垃圾答案」,「那是一個好的答案」,那樣才能提供感知。
Demis Hassabis:沒錯,所以可以肯定的是,如果它們出錯了,部分原因是由于早期的版本缺乏 grounding。比如説,你問狗的吠叫方式,它回答不正确,然後反饋那就回糾正它。反饋的一部分來自我們自己的知識,通過這樣的方式慢慢滲透到模型當中。
Hannah Fry:我記得看到過一個非常好的例子,關于「穿越英吉利海峽」與「步行穿越英吉利海峽」。
Demis Hassabis:對,正是這類的事情,如果它回答錯了,你就會反饋給它是錯了,然後它就必須得去弄清楚,你不能靠走的穿過海峽。
Hannah Fry:我有點想問:你認為我們現在所處的階段,(也就是)此刻,事情是被過度炒作還是被低估了?還是説在一個錯誤的方向上被炒作?
Demis Hassabis:我認為更多的是後者。我會説,在短期内它被過度炒作了。有号稱可以做各種不能做的事情;有各種各樣的創業公司和風險投資瘋狂追逐,但它們還沒有準備好。另一方面,我認為它仍然被低估,我仍然不覺得人們已經完全理解,當我們到達 AGI 和後 AGI 時會發生什麼。那将是多麼宏大的一件事,因此也要明白那種責任。所以,這兩者都有點誇張,我認為我們正在經歷這樣一個周期。
Hannah Fry:相比所有這些潛在的初創公司和風險投資而言,你們(團隊)已經在 AI 研究裏,生活和呼吸了幾十年,可以很好地發現哪些是現實的目标,哪些不是。但對于其他人來説,他們如何區分什麼是真實的,什麼不是?
Demis Hassabis:我認為,顯然,你必須進行技術層面的盡職調查,對技術和最新趨勢有一些了解。我認為還要看看説話的人,背景如何,他們的技術性如何。他們是去年才開始看 AI 的嗎,在去年之前搞的是加密貨币?這些可能是一些線索。
當一個地方突然吸引注意力時,錢随之而來,每個人都擔心他們錯過了什麼。這創造了一種機會主義的環境,這與我們這些幾十年來一直以一種深度技術、深度科學的方式工作的人有點相反。
Hannah Fry:是的,我們的一個重要話題是 Gemini,它就來自那種非常深入的科學研究方法。Gemini 與其他實驗室發布的其他大型語言模型,在哪些方面有什麼不同?
Demis Hassabis:從一開始,我們就希望 Gemini 是多模态的。它不僅可以處理語言,還可以處理音頻、視頻、影像、代碼,任何形式。我們想要這樣做的原因是,首先,我們認為通過這個方式,才能讓這些系統真正理解周圍世界并建立更好世界模型。所以這實際上還是回歸到了剛才説的話題,我們仍然在建立基礎,只不過這次是在語言之上。
然後我們也有了這樣的願景,即擁有一個通用助手,并原型了一個叫做 Astra 的東西,我相信我們會談論它,它不僅能理解你輸入的内容,還能理解你所處的環境。
如果你想象一下一個個人助手或數字助手,它理解的上下文越多,能提供的幫助就會越有用。我們一直認為那樣的系統會更有用。因此我們從一開始就将多模态性内置了進去。這是其中一方面——天生的多模态。而且當時這是唯一能夠做到這一點的模型。現在其他模型都在試圖迎頭趕上
然後,我們在記憶方面也有一些重大創新,比如長上下文,現在可以記住一百萬或兩百萬個令牌(token),你可以把它們大致理解為類似于記住一百萬或兩百萬個單詞。你可以把《戰争與和平》這樣的作品交給它,甚至因為多模态性,現在可以交給它一整部視頻、一整部電影或講座,然後讓它回答問題或在視頻流中找到你需要的内容。
Hannah Fry:我記得你舉了一個例子,比如 Astra 可以幫你記住眼鏡放在哪裏。不過我很好奇這些技術的發展脈絡,這只是那些舊款 Google Glasses 的高級版本嗎?
Demis Hassabis:當然,Google 在開發類似 Glass 設備方面有着悠久的歷史,實際上可以追溯到 2012 年左右。所以他們在這一領網域遙遙領先,但可能缺少的就是 Astra 所代表的這種技術。通過這種技術,你可以真正理解一個智能代理或智能助手,它能夠理解它所看到的東西。我們對這種能夠伴随你、理解你周圍世界的數字助手感到非常興奮。當你使用它時,确實會覺得這是一個非常自然的用法。
Hannah Fry:好的,我想稍微倒回一下 Gemini 的源起,它來自兩個不同的部門對吧。
Demis Hassabis:是的,實際上去年我們将 Alphabet 旗下的兩個研究部門合并了。也就是説,将原來的 DeepMind 和 Google Brain 合并為一個超級部門,将我們公司内、整個 Google 内的所有頂尖人才匯聚到一起,将所有研究中最好的知識結合在一起,尤其是在語言模型方面。我們有 Chinchilla 和 Gopher 等項目,它們構建了像 Palm 和 Lambda 這樣的早期語言模型,這些模型各有優劣。我們把它們全部整合起來,形成了 Gemini,這是合并後的團隊推出的第一個燈塔項目。另一件重要的事情是,我們還将所有計算資源整合在一起,以便進行真正大規模的訓練,并将計算資源集中起來。所以我想這真的是非常棒的。
Hannah Fry:我想很多方面 Google Brain 和 DeepMind 的重點有不同,這樣説對嗎?
Demis Hassabis:确實如此。我認為兩者都專注于 AI 的前沿領網域,雖然在個别研究人員層面已經有很多合作,但可能在戰略層面上還沒有那麼多。現在,合并後的 Google DeepMind,我把它形容為 Google 的「引擎室」。我們在工作方式上其實有更多的相似之處,而不是差異。我們繼續保持并加倍發揮我們在基礎研究方面的優勢。比如,下一代 Transformer 架構會來自哪裏?我們希望去發明它。顯然,Google Brain 發明了前一代架構,我們将其與我們開創的深度強化學習結合起來。我仍然認為未來需要更多的創新,而我相信我們能夠做到這一點,就像我們過去 10 年間所做的一樣,這是令人興奮的。
Hannah Fry:那麼還是回到 Gemini 本身,它對比其他模型,究竟有多好?
Demis Hassabis:我認為有些基準測試(説明了它的能力),但并不是問題所在,問題在于整個領網域需要更好的基準測試。目前有一些眾所周知的學術性基準測試,但它們現在有點趨于飽和,無法真正區分不同頂級模型之間的細微差别。我會説,現在有三個模型處于前沿位置:我們的 Gemini、OpenAI 的 GPT 以及 Anthropic 的 Claude。當然,還有其他一些不錯的模型,比如 Meta 和 Mistral 以及其他公司開發的,它們在不同領網域各有所長。取決于你的需求,比如編碼可能 Claude 更強,推理可能是 GPT,而在記憶處理、長上下文和多模态理解方面,那就是 Gemini。當然,我們都在不斷改進我們的模型。所以,考慮到 Gemini 這個項目才剛一年,但我認為我們的發展軌迹非常好。下次我們談論這個話題時,希望我們能夠處于最前沿,因為确實如此。
Hannah Fry:看來還有很長的路要走,我的意思是這些模型仍然有一些不太擅長的事情。
Demis Hassabis:是的,肯定的。實際上,這就是現在的大辯論。所以這最後一組東西似乎是從 5、6 年前發明的技術中出現的。問題是,它們仍然缺少噸東西。所以它們,事實上,你知道,它們會產生我們所知道的幻覺。它們還不擅長規劃。
Hannah Fry:它們在計劃什麼感知?我的意思是。
Demis Hassabis:沒錯,這正是眼下辯論所在。最近這一系列的發展實際上是基于 5、6 年前發明的技術。然而,問題在于它們仍然缺少很多東西。比如它們的事實準确性問題,我們知道它們會出現幻覺。此外,它們在規劃方面也還不夠好。
Hannah Fry:「規劃」具體是指什麼?
Demis Hassabis:比如長期規劃方面,你給它一個目标,它們還無法在現實世界中為你執行操作。所以它們還是非常被動的問答系統。你需要通過提問來激活它們,然後它們給出某種回應,但它們無法真正為你解決問題。
如果你想讓它作為一個數字助手,你可能會想説‘給我訂一個去意大利的假期,還要安排所有的餐廳、博物館等等’,即使它知道你的喜好,但它無法真正去預訂機票和處理這些事務。所以它目前做不到這些。
但我認為這是下一個時代——那些更具代理行為的系統,我們會稱之為代理系統或具備代理行為能力的系統。這正是我們擅長的領網域。這是我們曾經在所有遊戲 agent、AlphaGo 以及我們過去談論的其它項目中所做的工作。我們正在将這些已有聲望的工作,與新的大型多模态模型結合起來。我認為這将是下一代系統的發展方向。你可以把它看作是将 AlphaGo 與 Gemini 結合起來。
Hannah Fry:是,我認為 AlphaGo 已經非常好了。
Demis Hassabis:是的,它非常擅長規劃,當然只是在遊戲領網域。因此,我們需要将其融入日常工作和語言等通用領網域。
Hannah Fry:你剛才提到 Google DeepMind 現在是 Google 的引擎室,這是一個相當大的轉變,在幾年前我也問過,谷歌是否在進行一場相當大的賭博?
Demis Hassabis:是的,我認為如此。我覺得 Google 一直都理解 AI 的重要性。Sundar 在接任 CEO 時就説過,Google 是一家以 AI 為先的公司,我們在他上任初期就讨論過這個問題,他看到了 AI 作為移動互聯網之後的下一個大範式轉變的潛力,甚至比這些還要大。但我認為,在過去一兩年裏,我們真正開始踐行這一理念,不僅僅是從研究角度,也包括產品和其他方面。這非常令人興奮,我認為這是我們協調所有人才并盡最大努力推進的正确選擇。
Hannah Fry:那從另一個角度來説呢?因為我想,從 DeepMind 來看,擁有強大的研究實力,現在成為 Google 的「引擎室」是否意味着你們必須更加關注商業利益,而不是純粹的科學研究?
Demis Hassabis:我們确實需要更加關注商業利益,這是現在的職責之一。不過,有幾件事可以談談。
首先,我們依然在繼續我們的科學研究,比如 AlphaFold, AlphaFold 3 最近發布了,我們在這方面的投資也在加倍。我認為這是 Google DeepMind 的一個獨特之處,甚至我們的競争對手也把這些當作 AI 帶來的「普世财富」來看待。這些方面進展非常順利。我們還擴展了 Isomorphic,用于藥物發現,這一切都非常令人興奮。我們會繼續推進這些工作。
除了構建大模型、Gemini 等,我們還在建設一個產品團隊,将所有這些驚人的技術帶到 Google 的各個平台上。這在某種程度上是一種不可思議的特權,我們發明了什麼,可以立即對十億人產生影響,這真的很有激勵作用。
實際上,現在在開發用于產品的 AI 技術和純 AGI 研究所需的技術之間的趨同性更強了。五年前,你可能需要為一個產品構建一些特殊的 AI。現在仍然需要做一些產品特定的工作,但也許這只是 10% 的工作量。所以,現在在開發 AI 產品和構建 AGI 之間的緊張關系已經不存在了,我會説 90% 的研究計劃是相同的。
最後,當然,如果你推出了產品并将其投入到實際應用中,你會從中學到很多東西。用户的使用可以揭示很多與你内部判斷不完全匹配的地方,這樣你就可以更新和改進研究,這非常有幫助。
Hannah Fry:完全同意。我們在這個播客中,更多地讨論那些通過将 AI 應用于科學領網域而取得的突破。但我想問一下,關于何時将成果發布給公眾之間的問題。在 DeepMind 内部,這些工具,比如大型語言模型,更多地用于研究,而不是作為潛在的商業產品來考慮,對吧。
Demis Hassabis:是的,正是如此。我們一直非常認真地對待責任和安全,從我們在 2010 年開始的早期階段就已經如此,Google 也采納了我們的一些倫理章程,融入了他們的 AI 原則中。因此,我們一直與 Google 保持高度一致,作為該領網域的領導者之一,致力于以負責任的方式部署技術。
現在開始将帶有生成式 AI 的產品推向市場确實很有趣。我們正在快速學習,這很好,因為目前的技術還處于相對低風險的階段。随着技術變得越來越強大,我們需要更加小心。學習如何測試生成 AI 技術對產品團隊來説非常重要。這與普通技術的測試不同,因為生成 AI 不一定總是做同樣的事情。它幾乎像是在測試一個開放世界遊戲,你可以嘗試的東西幾乎是無限的。所以,如何進行紅隊測試(red teaming)就變得很有趣了。
Hannah Fry:在這種情況下,紅色的團隊是在與你們自己競争?
Demis Hassabis:是的,紅隊測試(red teaming)是指設定一個與開發團隊獨立的團隊來進行壓力測試,嘗試以各種可能的方式破壞技術。實際上,你需要使用工具來自動化這些測試,因為即使有成千上萬的人參與,仍然無法與數十億用户的實際使用情況相比。當技術發布後,用户會嘗試各種操作。因此,将這些學習經驗應用于改進我們的流程,以确保未來的發布盡可能順利是很有趣的。我們需要分階段進行,首先是實驗階段,然後是封閉測試,再到逐步發布,就像我們以前發布遊戲一樣。每一步都要進行學習。
另外,我們還應該更多地利用 AI 本身來幫助我們進行紅隊測試,自動發現一些錯誤或進行初步分類,這樣我們的開發者和人工測試人員就可以集中精力處理那些復雜的情況。
Hannah Fry:有一個非常有趣的地方在于,你們現在處于一個更加不确定的空間。如果發生某個事情的概率非常小,但只要嘗試足夠多次,最終就會出問題。我想可能确實已經有過幾次公開的錯誤。
Demis Hassabis:是的,這就是為什麼我提到產品團隊正在适應這種測試方法。雖然他們對這些系統進行了測試,但它們具有随機性和不确定性。因此,很多情況下,如果是普通的軟體,你可以説我測試了 99.99% 的情況,然後推斷説這樣就足夠了。但對于這些生成系統來説情況不同,它們可以做出各種意想不到的、超出預期的、從未見過的反應。
如果有人聰明或具有對抗性,像黑客一樣決定測試并推動它的極限,這可能會很難辦。由于生成系統的随機性,即使是之前你對它説過的所有内容,它們也可能在某種特殊的狀态下,或者它們的記憶被某些特定信息填滿,這樣它的輸出就會出現異常。所以這确實有很大的復雜性,但不是無限的。雖然有辦法應對這些情況,但比起傳統技術的發布,這要復雜得多,更多是細致入微的。
Hannah Fry:我記得你説過,我們需要認為這是一種完全不同的計算方式,從我們完全理解的确定性計算,轉向這種更加混亂的、充滿概率性和錯誤的計算方式。你認為公眾是否需要稍微調整一下對我們所做的計算類型的思維方式?
Demis Hassabis:我覺得是的。也許我們在發布某些東西之前,可以考慮發布一份原則檔案或類似的東西,來明确系統的預期是什麼,設計目的是什麼,适用場景和無法完成的任務是什麼,這很有意義。我們需要教育用户,比如在某些情況下你可以這樣使用它,但不要嘗試這些其他事情,因為它可能無法正常工作。我認為這是我們需要在這個領網域中做得更好的地方,用户也需要更有經驗。其實這是很有趣的。
這可能就是為什麼聊天機器人有點出乎意料地出現的原因。即使是 ChatGPT,OpenAI 也感到驚訝。我們有自己的聊天機器人,Google 也有。在看它們的時候,我也注意到它們仍然有許多缺陷,仍然會出現錯誤、幻覺等很多問題。但是我們沒有意識到,即使這樣,聊天機器人仍然有很多非常好的使用場景,人們發現這些使用場景非常有價值,比如文檔總結、寫電子郵件、填寫表格等。這些使用場景,即使存在一些小錯誤,人們也不介意,因為可以輕松修正,并且節省了大量時間。這就是人們在将這些技術交給大眾使用時發現的意外之處,盡管這些系統存在許多已知的缺陷,但仍然存在有價值的使用場景。
Hannah Fry:這樣的話,我想接下來要問的問題是關于開源的。因為當技術在大眾手中時,正如你提到的,确實會發生一些非常了不起的事情。我知道 DeepMind 過去開源了許多研究項目,但感覺随着時間的推移,這種情況有所變化。
Demis Hassabis:我們一直非常支持開源和開放科學。正如你所知,我們幾乎開源并發布了我們做過的幾乎所有研究項目,包括像 transformer 和 AlphaGo 這樣的項目,我們在《自然》和《科學》期刊上發表了這些成果。AlphaFold 也是開源的,就像我們上次讨論過的那樣。
确實,分享信息是科技和科學快速進步的方式,所以我們幾乎總是認為這樣做是有益的。這是科學進步的普遍方式。唯一的例外是當涉及到強大的 AI 或 AGI 時,我們面臨的是雙重用途技術的問題。
因此,問題在于你想要支持所有良好的使用場景和那些善意的科學家、技術專家,鼓勵他們基于這些想法進行構建、批評等。這是社會進步最快的方式。但是,問題在于如何同時限制惡意行為者的訪問,他們可能會将這些系統用于不良目的、誤用或轉化為武器系統等。
這些通用系統确實可以被這樣,換個法子利用。今天這樣做尚且無礙,因為我認為目前的系統還不夠強大。但在兩三年後,特别是當你開始獲得類似自動化的代理系統或代理行為時,如果這些系統被某些人或甚至某些流氓濫用,可能會造成嚴重的危害。因此,我認為作為一個集體,我們需要思考這對開源意味着什麼。
也許前沿模型需要更多的檢查,可能在它們發布一到兩年後再進行開源。這是我們目前遵循的模式,因為我們有自己的開源模型,比如 Gemma,它們較小,所以不是前沿模型。盡管它們的能力在當前階段已經被充分理解,但它們對開發者仍然非常有用,因為它們也可以輕松地在筆記型電腦上運行。總之,這些模型的能力仍然很有價值,但不如最新的前沿模型(例如 Gemini 1.5 模型)那麼強大。因此,我認為我們最終可能會采取這種方法,我們将有開源模型,但它們會滞後于最前沿的模型一年左右,以便我們可以真正評估這些模型在開放環境中的表現。
Hannah Fry:最新最前沿的模型能力,确實可能踩到邊界。
Demis Hassabis:我們可以看看這些模型的能力和邊界。開源的問題在于,如果出現了問題,你是無法撤回的。對于專有模型,如果惡意行為者開始以不良方式使用它,你可以關閉訪問權限。在極端情況下,你可以完全關閉它。但是,一旦開源了某些東西,就無法撤回。這是一個單向門,所以在開源時應該非常小心。
Hannah Fry:那是否有可能将 AGI 控制在一個組織的範圍内呢?
Demis Hassabis:現在還不知道如何做到這一點。尤其是涉及到 AGI 級别的強大人工智能,即類似于人類水平的 AI。
Hannah Fry:在你描述的理想生态中,機構的位置如何呢?如果我們達到 AGI 支持所有科學研究的階段,那麼傳統的機構,是否仍然有存在的價值?
Demis Hassabis:我認為機構仍然重要。在達到 AGI 之前,必須在公民社會、學術界、政府和工業實驗室之間進行合作。我真的相信,這是我們達到這一階段的唯一途徑。
Hannah Fry:計算機科學家斯圖爾特·拉塞爾(Stuart Russell)曾告訴我,他有些擔心,一旦我們達到 AGI,可能會出現一種情況,即我們都像舊時代的王子一樣——那些并不需要登上王位、也不做任何工作的人,只是過着無拘無束的奢華生活,沒有任何目标。
Demis Hassabis:對,這是一個有趣的問題,也許這不僅僅是 AGI,更像是超級人工智能(Artificial Superintelligence)或其他一些概念,有時候人們稱之為 ASI(Artificial Superintelligence)。在這種情況下,我們可能會經歷一種根本的豐盈狀态,只要我們确保公平和合理地分配資源,我們将能夠擁有更多的自由來選擇做什麼。
那麼,意義将成為一個重大的哲學問題。我認為,我們将需要哲學家,甚至神學家,社會科學家來開始思考這一點。是什麼帶來了意義?我仍然認為自我實現很重要。我不認為我們都會只是坐在那裏冥想,可能會玩電腦遊戲,誰知道呢?但這是否真的不好呢?也許我們還需要重新定義什麼才是「好」的生活。
Hannah Fry:我想舊時代的王子,不會覺得有什麼不好。
Demis Hassabis:你看那些極限運動的人,比如攀登珠穆朗瑪峰,都是對人類極限的挑戰。這些活動背後的動機可能與追求意義和自我實現有關。正如你提到的,盡管目前對這些問題的讨論可能還不夠深入,但它們将極大地改變我們的世界。
即使是最先進的科技帶來了極大的變革,比如治療疾病、解決能源問題、應對氣候變化等,我們仍然面臨「意義」這一深層次的問題。這種意義的探尋不僅僅是技術層面的,更涉及哲學、心理學、甚至是文化層面。我們需要思考,在未來的技術繁榮之下,人類的存在和行為将如何重新定義。