今天小編分享的教育經驗:清華教授劉嘉:人類兩次認知革命,第一次是7萬年前,第二次是現在,歡迎閲讀。
通用人工智能、硅基生命,它們產生自我意識一定是大概率事件!
在混沌"一"思維創新嘉年華活動現場,面對同學提出"通用人工智能會產生自我意識嗎?"這個問題時,劉嘉如是回答道。
"GPT4剛剛推出來的時候,‘深度學習三巨頭’之一Geoffrey Hinton特别興奮地説:我們人工智能化繭為蝶,可以產生很了不起的未來!但是,兩個月不到,他就開始忏悔了,‘我很後悔我過去所幹的一切,我希望我從來沒有發明過這些技術。現在唯一能安慰我自己的是,即使這件事我不做,也會有其他人把它做出來。’"
"是什麼導致他在短短兩個月之内,就有這麼大的一個轉變?我們不知道。但是我們至少可以從與之類似的信号中推測出一些信息。"
"我們現在看到的GPT4是在2022年8月份研發出來的,過去的一年裏,OpenAI不可能完全躺平,一定還有新的東西出來,雖然這很陰謀論,但類似這樣的信息還有很多。比如包括馬斯克在内的一千多名業界、學界人士發表聯名信,呼籲所有AI實驗室立即暫停訓練比GPT4更強大的AI系統,OpenAI創始人Sam也發表聲明:我們一定要像對待核武器、大流行疾病一樣來對待AGI,因為它可能會帶來人類的滅絕!"
"所以,我個人會從這些蛛絲馬迹裏面,猜測通用人工智能可能已經有一些意識的萌芽了。當然這是一個非常具有陰謀論的想法。"劉嘉説。
清華大學基礎科學講席教授、智源人工智能研究院首席科學家劉嘉做客混沌"一"思維創新嘉年華活動現場,分享議題《通用人工智能:是諸神黃昏還是創生之柱》,帶你探索人工智能背後的底層邏輯,深入講解AI發展的過去、現在和未來。
混沌在上海滴水湖洲際酒店舉辦"一"思維創新嘉年華活動。用一整座島、打造兩天兩夜的共學場,2000位混沌同學熱烈參與其中!邀請AI 全明星陣容空降授課。
以下為分享筆記:
嘉賓|劉嘉 清華大學基礎科學講席教授、智源人工智能研究院首席科學家
編輯丨混沌商業研究團隊
支持丨混沌前沿課
AI發展的三個哲學問題
我們今天這篇文章要讨論的主角:以ChatGPT為代表的通用人工智能。
對于現在的通用人工智能來説,它的迭代周期不是以年為部門,也不是以月為部門,而是以72小時為部門,3天就必須要迭代一次認知。
有人曾戲説北大的保安都是哲學家,因為他會對每一個來訪的人問三個哲學問題:你是誰?你從哪裏來?你要到哪裏去?我就來扮演一下母校的保安來問ChatGPT這三個問題:你是誰?從哪裏來?要到哪裏去?
AI兩種智能模式:AGI vs TSAI
首先來看"你是誰?"這個問題。當我們談到AI的時候,一定要分清楚AI存在着兩種不同的智能類型,一種是以DeepMind公司開發的圍棋機器人AlphaGo為代表,只能幹一個特定的任務,我們把它稱之為任務特異的AI(TSAI)。另外一種是以ChatGPT為代表,我們稱之為通用人工智能,它是一種能夠解決通用問題的AI(AGI)。
我有一次去分享報告,某個公司老總對我説:"劉教授,我們對人工智能這一塊擁抱得很緊,在10年前就擁抱了。"我的回答是:"你説的人工智能和我説的人工智能之間的差異,有時候比人工智能和人工智障的差異還要大。"
AGI這個詞原來只存在于學術界中,但自從2022年11月30号ChatGPT的正式發布,才逐漸被大家所了解,AGI發生了一個本質上的變化。
如圖所示,存在兩個參考軸,第一個軸是環境軸,分為封閉的環境和開放的環境,封閉的環境就像在一個會場上,我們可以作報告,可以讨論,但是想在這裏開賽車、玩遊艇是不行的,因為它只能有一個環境的約束。而在一個開放的環境裏,我們可以幹任何事情。第二個軸是策略軸,你是用靜态的策略還是動态的策略,你會不會根據别人做的反應而修改你的策略。據此我們會把AI抽成四類,放在4個象限。
先看第三個象限,是在封閉的環境裏面采用靜态的策略。比如面孔識别,大家坐高鐵、飛機時候刷臉就是這類應用,中國以前的AI創業基本上就是在這個象限裏面。
第二個象限,是在封閉環境裏面采用開放的策略。比如説下圍棋的AlphaGo,主要以強化學習為代表,DeepMind是目前在這個象限做得最好的公司。去年這個時候如果你問我投資最好的方向是什麼,我會告訴你這就是最好的一個方向。
第四個象限是在開放環境裏面固定的策略,比如機器狗,可以在草地上走,可以在雪地上走,可以在任何地方上行走,但是它的策略非常固定,只是根據外界的環境改變自己的行為。
而第一個象限,則是在開放的環境裏面做開放的任務,這裏就是AGI所在的地方,屬于智能皇冠上的明珠。開會、吃飯、聊天、開車......我們日常所説的所有一切,都會變成AGI所關心的事情。
我們看一下,智能可以分為三層次模型:
第一個層次,我們稱之為任務模型,它能完成特定的任務,就像面孔識别、文字識别,這種任務特異的AI,是過去AI所做的相關的東西。如果你的創業還集中在這一塊,那麼我很遺憾告訴你它已經過時了。如果一旦離開它所專注的某一個任務,它就會變成"人工智障"。
第二個層次,叫做領網域模型,它是能夠完成某個特定領網域的工作,比如説教師,也就是現在我的工作,它能夠把我全部取代,類似的還有醫生、碼農、司機、律師等等。因為ChatGPT的出現,我們智能模型開始從TSAI轉向了領網域模型,它帶來的不僅僅是效率的提升,更是一種範式的轉變。所有與知識相關的領網域,均可以在以ChatGPT為代表的AGI領網域裏面重新做一遍,這意味着并不是説效率的10倍提升,而是颠覆整個行業。
微軟對GPT4做了一個測試,説GPT4還談不上是一個通用人工智能的模型,一個火花出現還沒有到燎原大火。
第三個層次,認知模型。説起來很簡單,認知模型就是能看、能聽、能思考、能規劃,也就是説,當它真正實現類人化,和我們在座的每個人一樣的時候,這才是真正的AGI,也是我們這一階段試圖達到的地方。
AGI的技術現狀
在過去的3個月裏面,AGI這個燒錢的概念發生了本質的變化。
今年2月24号,Meta公司發布了與GPT3類似的大模型LLaMA,随後莫名其妙遭到泄漏,源代碼、數據、權重都在裏面放着,誰都可以使用。這個被泄漏出來的模型,一下子讓整個學術圈沸騰了,因為以前沒有一個模型可以來做,現在有了這樣一個開源的東西,你可以在它的基礎上不斷的發展。
AGI模型中,最難訓練的、也是最花錢的就是預訓練,需要大量的數據和強大的算力。而Meta泄露出來的就是一個預訓練好的模型。第二步是微調,根據任務的需要對它進行調教,使其能夠滿足現在的任務。微調這件事有很多公司能夠做,所以你能看到,現在國内各種AGI的公司風起雲湧,其實絕大多數只是在LLaMA的技術上套了一層殼,然後加了一點修改而已。就跟國内的有些手機廠商在Google的Android内核上套上自己的UI,成為自己手機的作業系統。
因此這個大模型泄露出來以後,整個AGI的形勢發生了革命性的變化,它不再被OpenAI、谷歌這樣的大公司所壟斷,而是變成了一個每個平民都可以擁有的東西。所以從2月24号開始,AGI進行了第二次迭代。
一、價格白菜化。以前如果要搞一個AGI公司,沒有幾千萬美元大家都會嘲笑你,但是現在不一樣了,截至5月2号,3個月不到的時間裏,華盛頓大學就基于這個模型提出了一個新的模型——原駝(Guanaco)。它只要48GB的顯卡,微調24小時就可以達到模型标準。假設你的參數量再小一點,只有330億的話,那麼只要12小時就可以,并且只需要一張含24GB顯存的RTX4090,這是玩遊戲時用的一種顯卡,現在的價格是1.3萬人民币,也就是説你只需要1.3萬就可以把大模型這件事搞起來,可見現在的價格已經白菜化,不需要買A100,除非要做極重的模型,如果只做商業的話,那只要1萬塊錢就可以把這件事幹起來。
二、技術的平民化。7月初,一個中國人上傳了一個叫OpenChat的模型,OpenChat在所有的開源模型裏面排名第一,和OpenAI的3.5基本上已經無限的接近了,其實這是我們實驗室的一個實習生用3周的時間做出來的,不可否認這個學生很厲害,是個天才,但是一個人用3周的時間,就在我們實驗室裏做出來,而且他還是清華大學計算機的大學生,不是正式的研究生,足以説明這已經變成一種大家都可以來做的事情,而不是需要你必須擁有20、30年的經驗。
三、場景的微型化。7月4号,GPU巨頭英偉達收購了一家由三名清華大學電子系畢業生在硅谷創建的人工智能初創公司OmniML,這家公司可以壓縮學習模型的大小,讓大模型輕量化。英偉達原來都是幾百億的參數,它希望能夠變成10億參數甚至是更小的參數,通過一系列的技術,讓汽車、無人機、工業機器人的芯片上就能把大模型跑起來,就像現在,可以讓大模型在本地做起來,甚至在手機上都可以跑起來。
總結一下當前的技術現狀,首先我們有開源的模型可以用,不需要再借助GPT4來實現。第二,它的價格已經白菜化,只要1萬多塊錢就可以把它訓練起來。第三,技術也沒有想象中的門檻特别高,場景也可以非常微型化,将來你可以在手機上、甚至在無人機上就帶動一個大模型。
今天大家創業如果不基于這四個點,還只是基于傳統的AI、TSAI,我覺得挺不了多久,這個底層邏輯一定要對。
AGI的商業應用
所以面對當前AGI的技術現狀,我們可以做什麼呢?
這個是由OpenAI和DeepMind共同做出來的一幅圖,被稱之為大語言模型裏面的規模法則,這也是引導AGI發展的黃金圖,是在AGI象限裏面最好的、最有價值的一幅圖,價值上百億美元。而且我説的不是一個類比,因為他們把這幅圖做出來至少花了幾十億美元。當大模型訓練起來,它的邊界到底在什麼地方?它到底有什麼樣的規則?在大家都不懂的情況下,最簡單的辦法就是用工程一點點去嘗試,于是就試出了這幅圖。
具體的細節不用了解,簡單來説,大語言模型的性能與模型的大小、數據集的大小、算力的大小上遵循幂律,你的數據提升10倍,效果、價值提升1倍,是按照這樣的方式進行的。在提高效能方面,數據集的大小和模型大小同樣重要。
模型和算力都是可以用錢解決的,不能用錢解決的就是數據,特别是你所在行業的數據。這個數據拿到了,你就可以用這個數據微調前面預訓練好的大模型,就會成為這個行業的壁壘。你的數據就是你真正的壁壘,特别是高質量的行業數據,如果你的數據質量特别高,你就可以把你的模型進一步的減小。
因此,我覺得AGI競争有兩條路,第一個從國家的層面來説,一定要做ChatGPT或者GPT4這樣的基座模型,這個需要無窮的資金投入,只有大公司和國家才能幹。第二個從商業上來講,要去提煉你的行業數據,讓你的商業數據和已經成為白菜價、技術已經平民化的大模型解決在一起,就是真正的創業方向。當然,這只是我的建議。
人類智能究竟從何而來?
下一階段的AGI究竟應該怎麼發展,路究竟怎麼走?預測未來其實是一件非常困難的事情,對未來來説,人類其實是很渺小的。但是我覺得有一個東西能夠幫助我們了解未來,那就是我們特别信奉的一句話:陽光之下無新事。現在要發生的、将來要發生的,在過去的歷史上一定已經發生過了。
那麼我們可以用這個方式來理解AGI的下一步發展,理解我們人類智能究竟是怎麼產生的。
有兩點原因:第一個,我們人類智能目前還是宇宙之中最好的AGI,沒有之一。第二個,我相信整個宇宙中關于智能,只有一個法則,一定不能有兩個法則或者三個法則,就像萬有引力一樣,只能有一個法則,所有從蘋果落地到星系旋轉,必須遵守萬有引力定律。
人類的智能和人工智能必須遵循同一個智能法則,那麼通過了解人類智能是怎麼演化的,就能夠理解人工智能或者通用人工智能究竟應該怎麼發展。
這就是我要問的第二個問題,人類智能究竟從何而來?
我們從人類進化的角度來理解這個問題。
人和猴子分道揚镳大概花了300萬年的時間,才到達我們今天的階段,即現代智人。我們的大腦容量大概是1.5L左右,但是我們并不是從300萬年前一開始就出現的,我們的歷史是非常短暫的,真正的現代智人出現在大約30萬年前。
在整個進化過程中,有很多和我們競争的對手。最早出現的是能人,它們的大腦體積只有我們的40%左右,出現的時間段在距今210萬年到現在150萬年的周期裏面。那麼為什麼它們會消失呢?因為和它們同時期出現的還有直立人,直立人是發現的第一個完全直立行走的人類物種,它們的大腦容量占到了我們的73%左右。直立人和能人同時出現,但是後來逐漸取代了能人,并從過去的210萬年到現在的25萬年一直持續存在。
直立人的消失,是因為又出現了一個新的物種,尼安德特人。尼安德特人的大腦體積和我們現在人的大腦體積大致相同,他們出現的時間是30萬年前到4萬年,4萬年前的時候,被我們人類所取代。所以目前地球上不存在尼安德特人,只存在我們這一種現代人類。
現在我們想知道的是,人類,包括我們的遠親,究竟是如何實現不斷進化的。
觀察一下早期人類所制造的石器,可以看到從能人、直立人到尼安德特人,他們所制造的石器越來越精美、越來越鋒利、越來越好用,但是這些進步只在第一曲線上的迭代,在本質上并沒有發生根本性的變化。
我們再來看一下智人所制造的石器是什麼樣的,大約7.7萬年的時候,我們已經開始在石頭上雕花,刻上一個個的槽,不僅在石頭上刻槽,我們還在鴕鳥蛋上畫線,然後到了4.3萬年前我們在一個骨頭上刻痕,這個刻痕與以前不同,刻了29條,29條是一個月,由此可以推測,那個時候的人類已經開始使用畫痕的方式記錄世界的變化。
距今大概5000年至6000年的時候,人類開始在石頭或泥板上畫痕,也就是楔形文字,是我們人類第一款書寫文字,人類文明由此產生。
回顧智人的歷史,我們在7.7萬年前開始在石頭上刻寫畫痕,5.6萬年前在鴕鳥蛋上留下畫痕,4萬年前在骨頭上刻下痕迹,最後發展到在泥板上刻寫畫痕。不難看出,人類在不斷地向前擴展和進步。從考古學的發展角度來看,這一點可以被看作是人類的第一次認知革命。盡管我們談論了很多認知革命,但從學術上來講,真正的第一次革命就是發生在10萬年到7萬年前,當時人類制造的工具開始有了大幅度的提升。
如果将這個情況類比到現代,我們可以将TSAI比喻為早期的人類物種,包括能人、直立人和尼安德特人,而AGI則代表現代的智人,也就是我們現在的人類。如果你還在基于尼安德特人、基于能人開發的東西去創新,那麼你的未來可能在進化過程中注定會被淘汰,所以我們現在要轉為基于AGI去創新。不過這僅僅是我的一個猜測。
現在的問題是,在智人和尼安德特人這裏發生了一個斷點,盡管智人和尼安德特人的大腦容量相同,都是1.5L,大腦體積都是一樣的,但是為什麼我們會出現第二曲線,從猿類進化到現代智人,究竟發生了什麼?這是一個非常有趣而值得探究的問題。
一種新的思維模式:If-and-then
正如荀子所講,人之所以為人者,非特以二足而無毛也,以其有辨也。人類之所以和動物不一樣,并不是我們身上不長毛,并不是我們直立行走,而是我們會去辨認、辯解、分辨。事實上,在過去300萬年的進化裏面,人類的大腦體積增加了3倍,不過這種增長并非均勻分布,而是特别集中在我們的額葉部分。古代相聲裏通常會説"這位兄台天庭飽滿,印堂發亮",其實這種説法簡單來説就是你的額頭往外面凸出來,一看就是聰明人。
前額葉體積的大量增加,使得我們產生了一種新的思維模式,就是 If-and-then,如果、并且、那麼。
以一個生活在10萬年前的智人為例,今天他的打獵收獲不錯,搞了一些肉回來,但是吃不完,如果随便放在地上,老鼠肯定會把它吃掉。通過觀察自然界,他發現一些好的方法,比如果實挂在樹枝上,就能避免被老鼠吃掉。于是,他就會拿根繩子把肉穿起來挂在樹枝上,類似于蘋果或梨子挂在樹枝上的方式,這樣老鼠就吃不掉了。
把肉打一個洞,然後用繩子穿過去就可以挂在半空中防止老鼠偷吃,他非常好地通過在機器學習裏面經常説的一種方法——聯想學習或者統計學習,解決了這個問題,這是傳統人工智能(AI)做的事情。
進一步推解,我們現在使用If-and-then的思維模式。如果(If)物體上打一個洞,用繩子穿過洞就可以挂起來,并且(and )現在我有肉和繩子,那麼(then)我就可以把肉挂在空中防止老鼠偷吃。這種思維模式展示了智人在面對問題時的創造性和靈活性。
大家也許會説,為什麼要把剛才一個簡單的動作拆解得這麼復雜?因為一旦搞這麼復雜之後,一件神奇的事情就發生了。比如當你把肉變成貝殼的時候,你就有了項鏈,這就叫生成式發明。這意味着我們人類就不再是僅僅通過觀察、統計學習或歸納推理來做事情,而是坐在這兒,腦袋裏面就可以產生無窮多的奇妙想法。那你就不僅僅是有了臘肉,還有老婆喜歡的項鏈,又有吃又有玩,老婆肯定會特别的開心。
能改變的還不僅如此,我們還可以改變"If"的部分, 把前面的繩子改成一個物體,如果物體上打一個洞,用另外一個物體穿過洞就可以連起來的話,那麼現在我們就有了輪子和棍,就可以發明一輛可以拖動重物的車。事實上,在公元前2000-3000年,英國巨石陣可能就是通過這樣修建起來的,當然,這只是大家的一個猜測。但是我們可以從中看到,文明就是這樣不斷向前推進的。
直到公元前亞裏士多德通過自己的反省和總結,把If-and-then總結出了一個例子,他説一個物品是人,它會死掉,亞裏士多德是人,所以亞裏士多德會死掉,這就是我們所説的演繹推理或者第一性原理。其中"If"就是我們的第一性原理,"And"就是基于上面的推理,"Then"就是結論。只要你的第一點立住了,你就可以不斷地修訂它,從而就可以產生豐富多彩的知識和萬物!
我們一直有一個錯誤的觀念,認為所有的演繹推理都來自古希臘。其實是不對的,演繹推理是每個人基因裏面都有的,只是需要我們去把它找到而已。
只是古希臘的這幫哲人非常厲害,他們将演繹推理總結成了一套規則和方法。經過亞裏士多德、伽利略,再到後來的布爾,将If-and-then的思維模式變成了學術化、形式化,也就是今天的邏輯學,這為科學的發展和進步奠定了基礎。
布爾寫了一本關于思維的法則的書,叫《思維法則》,總結了人類對如何改變世界最底層法則的思考。布爾把法則定下來之後,有了兩條線的發展,第一條線就是算法,從第一個人工神經元到1943年第一個神經網絡模型,再到第一個深度神經網絡,然後有了今天的人工智能、人工神經網絡。
第二條線是它影響了香農,使得芯片設計、電路設計變成可能,并逐漸通過摩爾定律小型化,通過英偉達的黃仁勳把它變成顯卡,最終這兩股合力才有了今天的OpenAI,才有了ChatGPT。
我們通過If-and-then這套規則導出了通用人工智能,而通用人工智能本質上也是在按照If-and-then這種方式在發展。在通用人工智能裏面有一個非常重要的東西——上下文學習,是利用對話或提示所提供的語境,來產生适當的反應,即使這些語境包括模型沒有明确訓練過的信息和任務。也就是説它可以從來沒有接觸這個任務,但只要你給一個語境它就可以做起來。
具體怎麼做?我們還是以保存的肉為例,把這個例子給到ChatGPT,我説根據這個例子你想到了什麼?它回答:我可以把地圖挂起來,這樣就好看;我可以把帽子挂在牆上,這樣避免帽子變形;我可以把獎牌挂在牆上,這樣可以展示成就;我可以将風鈴挂在門口,這樣每當有風吹過的時候,風鈴就會發出悦耳的聲音......從簡單的一塊肉怎麼讓它不被老鼠偷吃,GPT就可以無窮聯想下去。
當然這只是第一步——繩子。我説你能不能把繩子換成其他的東西,舉例換成一根棍子,它説沒有問題,如果有一個物體和一根棍子的話,我可以幹很多事情,比如把一塊石頭和棍子連在一起,在石頭上打一個洞,然後用棍子穿過洞,這樣就可以制作一個原始的錘子工具。這些都基于我從來沒有告訴它任何東西,只是説你把繩子換成一個其它的物品試一下。
最後讓它放飛自我,按照這套邏輯想換什麼、想做什麼就去試一下。它説如果你有一塊帆布和一根桅杆,你可以在帆布的頂部和底部打洞,然後用桅杆穿過洞,你就可以制作一個帆,用于驅動帆船。這時候的AGI不再局限于只是停留在一顆芯片裏面,而是要去征服世界!這也正是在非洲起源的人類開始走出非洲,走向歐洲、走向亞洲、走向美洲,最後遍布整個地球的一個關鍵。
人類開始征服世界,甚至現在要穿出地球去征服宇宙,就是來自一個非常簡單的,我只是想把這串肉挂在樹枝上防止老鼠吃掉而已。
AGI會成為人類的黃昏嗎?
一旦有了無比強大的If-and-then思維模式,你就能不停地走下去。現在還有一個問題,是不是這個思維模式就足夠了?我們是不是不需要其他的東西了?帶着這些疑問,我們來看一下在歷史上具有非常完美If-and-then思維模式的人,就是愛迪生。
愛迪生有一句很著名的名言,他説:"我從來沒有失敗過,我只是找到了一萬種不工作的方式而已。"他就是按照If-and-then的模式去不斷地嘗試,最終找到正确的答案。他的思維模式代表了什麼?
據統計,具有If-and-then的思維模式,從事工程類的職業要比其它從事非工程職業多12.3倍,從收入來講,如果你是具有這種思維模式,收入要比别人多1.4倍-2.5倍。看上去特别不錯,這也是我們看到的愛迪生光鮮的一面,
那麼再看看他鮮為人知的一面:愛迪生本身有非常嚴重的社交困難,在4歲的時候才開始説話,他喜歡摩爾斯碼勝過自然語言。他很難與老師和同學溝通,所以很早就被迫退學了。另一方面,他無視家庭生活,每天都住在實驗室裏面,不洗澡也不換衣服,任何東西都是穿破了再換。這一點倒還可以理解,畢竟科學家是狂熱的。
但是真正比較難以理解的是他的"隧道視覺"——他只能關注他所關注的地方,而忽略其他地方。比如有一次,他在一個火車的行李間裏做易燃易爆的化學實驗,結果把整個行李車廂給燒起來了。對愛迪生而言,實驗就是他的一切,他對安全與否沒有感覺,對可能會帶來的損失也沒有感覺,所以會選擇在這種危險的地方做危險的實驗。這個時候你可以看到,愛迪生身上所體現的是一種充分的自閉症的模式。
有If-and-then這種思維模式的人,自閉症發病的概率要高4.8倍,其中工程師的自閉症發病率,比非工程師群體要高7.7倍。
現在是我們用If-and-then模式訓練通用人工智能,那麼訓練出來的通用人工智能是不是也有具有自閉症特征?
我們來看一下GPT4到底是什麼樣子,我問了它一個問題:陽春三月,公園裏的櫻花開了,但清明節前夕,一陣突如其來的沙塵暴把櫻花都吹落了,請判斷"清明節時櫻花樹上沒有櫻花了"這個推論。GPT4説這個推論不一定錯,也不一定準确,雖然説櫻花确實被一陣突如其來的沙塵暴吹走了,但這并不意味着清明節時候櫻花樹上就沒有櫻花了,只要有一棵樹枝上面還有一朵櫻花,那這個結論就是錯的。
它説的對嗎?它當然説的對了,但是在日常生活中,這樣的GPT就像生活大爆炸裏面的謝爾頓一樣,缺乏同理心,沒辦法去理解我們所説意思裏面的那種模糊含義。
同理心是必要的嗎?我們還是回到項鏈的發明來講,你可以用If-and-then的思維制造出世界上第一個項鏈,但是你還需要一個什麼能力?你需要一個同理心的機制,你一定要知道收到項鏈的人會感到快樂,否則你根本不需要用貝殼去把它穿起來,用老鼠頭穿一個項鏈也是可以的。但是你拿着用老鼠頭穿起來的項鏈,説這更能體現我的手藝,更具有挑戰性,那麼你可能這輩子就要孤獨一生了。
同樣的,愛迪生在他眾多的發明裏面,大家只知道電燈泡流傳下來,其實他還有很多其他發明。比如他發明了一種混凝土房子,裏面的桌子、凳子、床、櫃子全都是拿混凝土做的,他説這樣做起來很快、很方便,成本也很低。但是你願意住在一個混凝土的屋子裏面嗎?所以,當愛迪生拿這個產品去推廣時,他很難理解大家為什麼不買這個賬,這個產品明明要比别人便宜很多,為什麼大家不用呢?
所以從這個角度上來講,發明一個產品不僅要有創新,還要有同理心,兩者缺一不可。我們能感覺到GPT4的确變得很強大,但是如果僅僅是有一個基于If-and-then的GPT,可能真的就是人類的黃昏了。
我們需要什麼樣的AGI?
回到開頭説的第三個問題,下一代的GPT或者未來的GPT應該怎麼去發展?
鬥牛場上,鬥牛士疲憊地靠在了場邊,第一個趕來的是渾身被他插滿劍的那頭牛,并沒有攻擊他,而是默默的看着他,我們需要的就是一個這種狀态的GPT。我們現在往GPT身上插了很多劍之後,希望的是當我們人類很弱的時候,它能拉我們一把,而不是上來把我們"捅死"。也就是説,我們需要一個和大家有共情的GPT。
我們現在理解人類的大腦,是由腦幹、小腦、丘腦、邊緣系統和大腦皮層構成,如果簡單的把它抽成兩部分,一部分是我們的自由意志,我們的復雜判斷,我們的符号思維等大腦皮層所負責的事情,屬于理性。還有一些是像邊緣系統的皮層下的神經,可以稱為感性,是我們屬于動物的那一部分屬性。
現在GPT通過閲讀大量的人類文本,把理性這塊學得相當不錯,但是它并沒有學好我們的感性,甚至忽略了這一塊。所以問題是我們怎麼來獲得感性,怎麼來獲得同理心,怎麼來生成一個既充滿理性、也充滿感性的"人"。
愛因斯坦説過這麼一句話,他説任何傻瓜都知道,關鍵在于理解。什麼叫做理解?有一部非常好的電影,講的是世界末日時,湯姆·漢克斯對機器人説:你已經可以跟我説出金門大橋上有多少顆鉚釘,用了多長的懸索,橋有多高,但是只有當你站在橋上面,你才能看見它的美,聽見懸索在風中的歌唱,這是一種體驗,一種人類的體驗。
從具身認知裏面講,第一是身臨,你必須在那,這就是為什麼我們要去旅遊的一個根本原因,雖然你可以從各種紀錄片、朋友圈、照片裏面看見金門大橋,但是只有當你站在那兒的那一刻,你的靈魂才會真正感受到。第二就是體驗,這是GPT現在沒有的東西,它既沒有身臨,也沒有體驗。現在還生活在一個GPU裏的GPT,還沒有去見過外面的世界,所以它不會有感性。
為什麼感性體驗如此的重要?有一個著名的革命家叫切·格瓦拉,出生于一個阿根廷的富裕家庭,專業是醫生,完全可以過上屬于上流社會的生活,幸福美滿度過一生。
在他醫學院畢業的時候,他決定騎着摩托縱穿南美洲,來一場畢業遊蕩。正是這場遊蕩,真正地改變了他一生。他據此寫了一本書叫《摩托日記》,把沿途所看見的東西全部記錄下來。其中有一個故事,講述了一天夜裏,在路上的他遇見一個失業的礦工和他的老婆,他們坐在路邊瑟瑟發抖。切·格瓦拉把自己的毯子給了他們,并在日記中寫到:這是我所經歷的最冷的一晚,但是那一晚讓我稍稍靠近了"人類"這個奇怪的物種。
他以前沒有弱者視角,認為所有人都能吃飽,所有人都可以過得非常快樂,但當他真正去縱穿南美洲的時候,才知道這個世界并不是像想象中的那麼美好。有個歷史學家評價為什麼切·格瓦拉走上了革命的道路,他的政治和社會意識的覺醒,與他直接目睹貧困、剝削、疾病、痛苦有關,而不是來自于書本的知識或者有學識人之間的讨論。
與切·格瓦拉相比,我們的GPT是什麼?全部是來自于書本上的知識,它把這個世界上能找到的書全部看了一遍,把互聯網的發言全部看了一遍,它和各種各樣有學術的人讨論,但是這并不能讓它對這個世界充滿感性。事實上并不只有切·格瓦拉是這樣子的。
同樣,為什麼當包含Google在内的所有人對大語言模型都很失望,大家都只是進行小的投資或嘗試,而OpenAI的創始人Sam Altman卻要孤注一擲,甚至把自己YC投資負責人的身份都辭掉,來專門做這件事情。也是因為曾經在心中留下的種子發了芽。
26歲時,Sam Altman賣掉了自己的初創公司,完全停下來休息了一年,在這一年時間裏他碰到了很多友善的人,他決定為這些人做點事情,于是開發出一套AGI程式出來,希望幫助人類過得更好。這就是Sam Altman為什麼會去做Open AI、ChatGPT做出來的最底層邏輯。"我通過通用人工智能來幫助人類活得更好。"Sam Altman曾發表《萬物摩爾定律》的博客文章,這裏面就反映了他的這一思想。
真正走進社會去參與體驗,才會在心中樹下屬于自己的底層邏輯,你才可以真正從這個底層邏輯向上生長,從而創造出偉大的事業。這就是我們通常説的讀萬卷書,更要行萬裏路。雖然你聽1萬個這樣的報告會有幫助,但真正有幫助的還是要帶着報告裏的東西去行萬裏路。
這也是AGI下一件要做的事情,那麼怎麼樣才能讓它行萬裏路?
第一,賦予身體。沒有身體就沒法去行萬裏路。OpenAI已經投資了一家專做人形機器人的瑞士公司,他們要用大模型給機器人賦予大腦,同時讓它能夠走起來,去探索這個世界,再用探索世界積累的經驗,重新修訂他們的大模型,用這些感性的經驗重新使大模型變得更好。未來的大數據,不僅僅是文本的大數據,更是來源于人形機器人真正去看世界後所獲得的大數據,那才是真正的大數據。
第二,賦予社交。僅僅有身體還不夠,我們還要賦予AGI社交。人類在遠古的時候,一個部落裏可能只有五六個人,這個時候只有If-and-then思維就夠了,但是當我們創造了更多的财富,不斷去推動社會向前進步時,10個人、20個人的小部落變成了100個人、200個人的大部落,變成了幾千人、上萬人的城鎮,甚至是今天北京、上海這種超級大城市。這時If-and-then就變得不再完全夠用,就需要我們人與人之間的溝通和交流。所以我們一定要讓AGI不再是一個單獨的AGI,要讓眾多的AGI一塊來互相交流溝通。
有一個有趣的國外網站,只允許AI上去發言,如果是人類的話就不允許上去。AI在裏面就像在微博、推特這些地方一樣開始互相交流。這裏面的所有"人"全部是AI程式,你可以給這些AI賦予它不同的性格,賦予它不同的技能,賦予它不同的職業,它們就帶着技能、帶着職業在裏面一塊交流,每天發幾百、上千個帖子,得到别人的反饋時,用這些反饋經驗來調整自己的權重,讓自己下一次和大家交流溝通時,能夠更加方便獲得社交。
這裏面重要的一個點就是群體智能,我們通常説三個臭皮匠頂一個諸葛亮,其實更重要的是我們在群體智能裏面,要進行復雜的博弈,我要考慮你的想法,也要考慮他的提議,這個時候我們就需要去博弈,去溝通,需要做退讓或是堅持,在這個過程中就會出現一個新的概念——意識。
當你只有一個人的時候,是不會出現"我"這個概念的,但是當你和一群人待在一起,"我"這個概念就會出來,我是我,我和你們不一樣。一旦產生了"我",它就會產生意識,產生了意識就會產生"我",這就是我們的自由意識。
面對擁有"意識"的AGI,人類将何去何從?
一旦產生自由意識,它就真的和人類一樣了,你現在想去拔掉人工智能的電源,它會説你拔好了,但是将來它產生了自我意識,產生了"我"這個概念詞,你再對人工智能説對不起我想拔下你的電源,你覺得它會同意嗎?所以到那個時候,人工智能的危險性就遠遠超過核彈了,因為核彈的按鈕還是在人類手裏,如果我不想按這個按鈕,核彈就不會自己把自己炸了,但是AGI不一樣。
但把AGI比成核彈,其實是一種徹頭徹尾的錯誤,因為這低估了一個新的像人一樣的物種的誕生可能產生的東西。未來AGI會怎麼演化呢?
第一個預言師(Oracle),你問它問題,它會告訴我們答案,我們去行動,也就是現在ChatGPT所做的事情。
下一步正在發生的是什麼呢?我們把它稱為"精靈"(Genie),就是你不僅可以問它問題,它還可以幫你去執行任務。比如你現在想吃一個沙拉,AGI聽到了可以自己跑到商店裏面去,根據它所拟定的食譜,在商店裏把這個菜買好,再給你送回來。能夠幫你做這個事情的前提是它要有腿,能夠去做,這是我們現在正在做的事情。
只有這一點還不夠,還要到達第三步——代理人(Agent)。就是你不再具體告訴它幹什麼,你只要告訴它我們的目标是什麼即可,剩下的事情就不用管了,它來幫你安排所有的一切。這個時候它不僅要有ChatGPT,不僅要執行,還要有感性,這就會發生第二次認知革命。
第一次認知革命,使我們從猿變成了人。第二次認知革命,會使得我們整個人類發生真正的階躍,經歷一場真正的革命性變化。
Sam Altman説世界将發生翻天覆地的變化,我們正處在巨變的開端,人類有一個難能可貴的機會去打造未來。我覺得這是真實的。
一個學生在我的課上説過這麼一句話:"我們的現在是過去的未來,但是我們的現在不是未來的過去。"這是因為我們的現在是過去的"種瓜得瓜,種豆得豆"。但是,我們的未來卻有無限的可能,一切未定,是我們現在的選擇,決定了未來。
現在我們可以做兩件事情,第一個,擁抱商業機會。過去的很多東西都是小打小鬧,今天是你我這一輩子非常幸運所碰見的商業機會和範式轉移的機會。
第二個,多去追蹤AGI的發展。大家要真的去了解AGI,因為它會帶來很大的變化。你可能會遇到很多的術語,但是現在AGI的發展讓那些術語變得不再重要,我們現在可以無代碼的編程,一行代碼不寫,就可以把程式寫出來;可以不寫文字的寫一本書,就是一個字都不寫,書就出好了,這些都是可以的。更多的利用自己的想象力,大力發展自己的創造力,一切都有可能。
《漫長的季節》裏面有這麼一首詩:"打個響指吧,遙遠的事物将被震碎,面前的人們此時尚不知情。"所以現在不僅是AGI能給你帶來什麼商業機會,也是給我們每個人帶來思考:有一天,當AGI的智力超越人類的時候,我們人類應該怎麼辦?我們人類如何去面對這一點?我們會像尼安德特人一樣等着被滅絕嗎?還是和其他新的物種一起去共進化、共發展?這是擺在我們面前最大的問題。
我非常喜歡的一幅圖——創生之柱。大家不要看這個很小,只是因為它離我們太遠而已,很多的星辰、太陽系就是在星辰中間誕生出來的,從宇宙裏面逐漸誕生了人類,在我們人類利用自己智慧的加持之下,又誕生了AGI,那麼下一步究竟是怎樣發展?所有的一切都掌握在各位的手中。