今天小編分享的互聯網經驗:最聰明的大腦、最火爆的話題——清華大學張亞勤和朱民暢談ChatGPT,歡迎閱讀。
編輯丨沃特敦
4月28日,清華論壇迎來了本校的兩位大神級人物。一位是科學家張亞勤,12歲就讀中科大少年班,之後擔任微軟亞洲研究院院長和百度總裁,目前是清華智能產業研究院院長。另一位是經濟學家朱民,曾任IMF副總裁、中國人民銀行副行長,現在是清華國家金融研究院院長。兩顆最聰明的大腦圍繞當前最火爆的話題ChatGPT展開了長達100分鍾的對話。
創業邦經授權刊發此次主題對話《颠覆認知的AI時代與產業機遇》,内容經編輯整理。
朱民:我們先談談你的智能產業研究院。三年了,你現在做的怎麼樣,主要在做什麼?
張亞勤:2019年底我離開百度,一直想做一個研究院,和當年20多年前微軟亞洲研究院在某些方面相似,都是從事基礎研究。但這個研究要為產業服務,解決真正的問題。另外,微軟研究院是企業做的,我希望研究是面向整個產業開放的。還有一點在于清華,有最優秀的學生和老師。所以,研究院的縮寫AIR的意思也很簡單,就是AI for industry research。這裡I的話有三個含義,就一個是國際化(international),一個是AI,一個是產業(industry)。
現在我們有21位全職老師,還有博士生、博士後研究人員,還有學生一共200多人。目前研究院的主要研究還是人工智能。由于我們面向產業,所以選擇了我們認為有很大機遇的三個方向:機器人和自動駕駛、生命和生物科學,另外是物聯網,特别是面向雙碳的領網域,我們叫綠色計算。
朱民:最新的突破在哪裡?
張亞勤:我們一直從事這些算法,包括模型方面的研究,我們和很多企業合作,在語言模型,比如多模态、強化學習、聯邦學習,然後也做一些垂直模型,比如說面向自動駕駛機器人的,面向生命科學的。前幾天還開源了一個生物醫療的GPT,叫BioMap。在自動駕駛方面,我們也有一個基礎決策感知的模型。
朱民:所以你的研究也是和現在崛起的ChatGPT和GPT大模型的趨勢是一致的。我們就聊聊大模型,這是現在最熱的事兒。ChatGPT當然是驚豔,一出來以後又能畫畫,作詩、寫歌。可能大家聽說了它做了一個貝多芬的音樂。
當然,作為一個老貝多芬的愛好者,我覺得它做的不怎麼樣,但它居然也是能裝模裝樣做作曲了,還有4個樂章,太搞笑了,但它确實影響很大,寫代碼做檔案檢索都做的很好。關于它的争論很多,有觀點認為它已經走向AGI,也有觀點認為它還不成熟,技術上并沒有很大突破,只是商業模式用的好,路徑好,它很聰明。你是真的專家,你怎麼看這件事?
張亞勤:你剛才講的是過去這2-3年,一個大的趨勢就是生成式AI。ChatGPT可能做的最成功,其它的也包括比如像DALL-E、stable diffusion,等等一系列的生成式AI。
ChatGPT推出之後對我的震撼還是挺大的。前段時間談到"我的GPT時刻"是什麼樣的?我有三個想法,第一個我感到就是人類歷史上第一次我們有了一個智能體,然後通過了圖靈測試。
朱民:通過了圖靈測試,我們回頭再說這一點,這個是個了不得的結論。
張亞勤:對,圖靈測試,咱們知道是圖靈1950年提出的,機器可以thinking,是可以思考的機器,然後提出了圖靈測試。它是我們做計算機科學這麼多年夢想的一個目标。ChatGPT我認為是第一個軟體智能體通過了圖靈測試。我太太是ChatGPT或者GPT這些產品系列的大粉絲,當時我在看的時候,她說ChatGPT也能幻想,也經常說錯話,也會說謊,我說那和人類就更像了。
所以,第一點還是通過了統一測試,包括語言對話的引擎(conversational AI),其實對話引擎也很多年歷史了。1966年MIT第一個做出了對話的引擎ELIZA,這麼多年有很多次迭代,到了Siri,到了Alex,到了Cortana,然後國内有小度,有天貓精靈,有很多對話的產品,都是針對某一些領網域或者聊聊天,或者某些領網域。
朱民:包括微軟的小冰。
張亞勤:是的。包括小冰,都是對話引擎的產品。但ChatGPT在功能和通用性方面遠遠超過了早期的產品,它用了大規模Generative AI,這是我第一個感受。第二個感受,我認為它是AI時代的一個新的作業系統,就像在PC時代Windows,移動時代的iOS。一會我們可以再展開講。
朱民:我覺得這個比你的第一個結論更重要,因為過了圖靈測試,這是過去。如果是新作業系統的話,那是一個巨大的未來。
張亞勤:就會重寫、重塑、重建整個生态系統。第三點咱們原來也讨論過,我認為它是我們從面向具體任務的AI走向通用AI的一個起點。雖然ChatGPT更多的是大語言模型,大基礎模型,但它開啟了一個亮光。因為我們多少年也是在往那個方向走。這就是"我的ChatGPT時刻"。
我經常跟我們的學生老師講,這麼多年來AI,還有整個IT領網域,出現了有好多熱詞,一會兒是區塊鏈、加密貨币、比特币;一會兒又是Web3.0、NFT、元宇宙。有些可能是真的,有些可能是個概念,但整個大語言模型,包括ChatGPT,GPT4.0,這是一個大的變革。
朱民:所以這次是真的讓你興奮了,讓一個科學家興奮就表明something is happening。所以這個還是挺有意思,圖靈測試過了,因為機器和人對話,當然還有很多誤差,它會撒謊等等,因為它是token system,這個都是在不斷完善,并且通過人類的反饋機制訓練,我覺得Fine-tuning都會不斷提高,這個沒問題。
張亞勤:你們聽朱民講,他在講算法,他完全不像是央行的副行長。
朱民:這個是跟你學的。但是你大操作平台可有意思了,因為現在ChatGPT出現了API,然後出現了插件,所以它逐漸可以把專業的東西放進去,垂直系統,然後現在出現了plugins,plugins出來又是一個特殊的路,很多東西又可以往上放。所以,如果以後變成生态的話,真的是一個大的操作平台,然後就會出現一個我們以前讨論過的super app,整個的產業就被徹底颠覆了。這個在什麼情景下會發生呢?
張亞勤:盡管目前有新的插件也好,API也好,或者新的應用也好,本質其實并沒有變化。大家都記得在PC上面本身也有很多應用,Office就是一個大的超級應用,到移動時代的話,有的作業系統上面有應用商店,上面也有很多超級應用,微信、短視頻、淘寶、搜索等等,都是上面的超級應用。
我覺得AI時代也會很像,有一個大模型作為作業系統,plugin也好,API也,在上面你就可以有APP。有很多APP可能需要有垂直的模型,因為有些行業比較深,比如自動駕駛、生物計算等等,但這些垂直模型可以建立在橫向的大語言上,這個大語言不僅僅是語言,其實是多模态的,也包括視頻、影像,語音等等。有了這個之後,你的垂直模型也好,包括你剛才講的,它都有更多的應用。
你剛才提到一點很重要,現在大語言模型,或者說我們的基礎模型,它自己是個工具,它也可以使用别的工具,它可以去使用比如說Hugging Face各種開源的這些數據、模型,然後去執行新的任務或者構建新的應用。同樣,我們也可以用不同的大模型,然後去構建新的應用。也就是說,大模型可以使用你,你也可以使用大模型,彼此互相使用。
朱民:以後想象中的世界,因為智能了,機器就自己講話了,它已經脫離人了。一旦你給了數據,機器自己生成,生成完又出現智能,然後它就可以自己交流,自行不斷地改進,那是不是一種新的物種正在出現?
張亞勤:可以這麼理解。
朱民:這又是一個很重要的概念,我們理解的物種都是電影裡的外星人。如果把AI大模型看成一個物種的話,那就是大家讨論的關于人類面臨的根本挑戰了。是這樣嗎?
張亞勤:首先是一種新的能力吧,叫物種也好,能力也好,比如說現在GPT4plus,之後還有4.5、4.9、5.0。5.0主要的開發者是誰呢?是4.0,所以它自我在開發,自我在迭代,自我在進化,所以這是一種和人類一樣的、很強的能力。
但我并不認為人類會被替代,我覺得AI還是一個工具,是我們的延伸。也就是說,我們人類、我們碳基生命有這樣的一個智慧,我們可以發明東西,我們也可以去控制它,讓它按照我們的方向去演化。我是樂觀者。
朱民:對,你是樂觀者,我也是樂觀者,但最怕的是過分樂觀,我們要小心。這其實是很有意思的一件事,我們先不講人類和機器的對比,現有的人其實提出了哲學命題,或者提出了一個根本的問題,就是AI是人的智能的一部分,還是人的智能之外的,一種新的或者人還沒有悟到的智能。你怎麼看?
張亞勤:這是一個特别好的問題。我認為現在的大語言模型,它的很多智能是我們不知道的。我們可能有,但我們沒有認識到的,因為我們所認識到的知識,我們所看到的所謂的智能,其實是我們人類很少一部分。然後,機器把一部分我們有的但不知道的,找出來了。但它可能會有新的能力,但我不希望大家有一種想法,就是新能力會像科幻電影裡說的那樣把人替代了。未來的智能一定是Human Intelligence,一定是人類的智能和機器智能的一個融合,而且機器一定是我們的一個很強的延伸,它很多事做了我們可能做不了。就像汽車一樣的,汽車跑得比人快,它比人有更強的能力,但它并沒有替代人。
朱民:工業革命是擴展了人的肌肉,現在是AI要擴展人的智能,我覺得這是一個很大的判斷。現在關于機器智能究竟是人的智能的發現,還是一種人的潛在不知道的智能的挖掘出現,或者是更新的一個我們根本就不知道的智能,所以你認為是?
張亞勤:我覺得三者都有。
朱民:這個很有意思,所以從這意義上來說,根本的一個fundamental的哲學問題是,智能不只是人類獨有的。
張亞勤:是的,就看你怎麼定義。比如生存的能力、繁殖的能力。繁殖能力很強的物種,最強的不是人,是細菌,是病毒,你像新冠那麼小的一個病毒,可以給我們造成這麼大的麻煩,對吧。而且它上幾十億年就存在,它的壽命也一定會比我們人類要長,所以我覺得我們智能有很多不同的維度,不同的方面。發展到現在,給我們提供了很多新的啟示,包括就是延伸我們。
我再講一下,就是說我們可能還是要把智能抽成幾個不同的層次,然後有些東西我們要有邊界。
這個又回到圖靈了,還是機器第一個層次是感知,就是我要聽得見,要能說話。就是視覺、語音識别、語音合成、人臉識别,影像識别,包括文字OCR都屬于這種感知層面的方面。現在機器已經比人厲害了,機器識别人臉比人可能厲害,我覺得這個可能5年前基本上就和人是同樣一個水平了。
第二層次智能的話是可以思考,可以決策,可以推理,在這個認知層面,現在的大語言模型出來之後,和人的距離就差距就越來越小。過幾年,在這個方面,就和人類差不多了。現在大家看到說ChatGPT考試比人還厲害,能考SAT。兩個星期前,我的一個朋友在北大教量子力學,量子學是很難的,她期中考試已經高于班裡的50%,它也沒有經過任何專門的學習。所以說機器在認知方面也會和人類差不多。
另外還有幾個層次,我覺得是我們不應該去觸碰的。我一直在講,我們做AI倫理也好,治理也好,比如說它的個體能不能作為獨立個體?人工智能有沒有自我意識?它有沒有感情?這些方面我不認為我們可以達到,但我也不認為我們人類應該做這樣的研究,就像基因編輯某些方面我們不應該去觸碰。
另外就是人工智能的治理。人工智能需要一個邊界。咱們有信息社會、有物理世界、有生物世界。在這些世界,其實這些空間都在走向一種融合,新的數字化走向融合,但我們需要有一些邊界。比如ChatGPT可能先把它放到信息世界裡面,然後如果真正去到了物理世界。自動駕駛我們可能要小心點,還有金融系統。
我剛在新加坡開會,在兩個不同的場合。一個是WPP公司,做廣告策劃的。如果是做創意,我就鼓勵多用ChatGPT這樣的東西。但在銀行,我覺得你先别用,你可以用作為信息類的,但牽涉到核心金融系統,涉及交易的,還是要比較小心。
朱民:所以,科學家既有樂觀也有謹慎。從樂觀的方面,毫無疑問這是個颠覆,但從謹慎的方面,我們還是要很小心地劃個邊界。在我們不知道的情況下,我們先謹慎,我覺得這個還是很有意思的。但這個邊界是會被不斷地突破的。你剛才講了一個特别重要的概念,就是工程應用。人工智能現在越來越多地被認為是工程學,你可以應用大模型,大模型也可以應用你的這個東西,所以它越來越變成一個工程了。如果從工程學角度看大模型,大模型的發展會怎麼樣?
張亞勤:我覺得它肯定是會變得越來越準确,然後變得越來越成熟,而且它進化的速度也會越來越快。但是,在我們沒有很清楚它的成熟度之前,我們需要給它個劃邊界。
我相信對我們以後整個物理世界,比如說機器人自動駕駛,對于物聯網都會有很大的應用,但我覺得根據你的需要不一樣,應用不一樣,就更要謹慎一些。比如對于核心的任務(mission critical),我們還是要有更多的可控性,因為現在生成式AI,它生成什麼東西我們并不完全知道。而且,不僅我們知道,我們甚至不知道為什麼會發生這樣的事。我們只知道一部分。
朱民:所以這又涉及到我們現在大模型的根本概念,emergence「湧現」,這個是以前沒有的。因為它開始有數據邏輯推演以後,它開始「湧現」一些非線性的發展。這個「湧現」怎麼講?它未來的發展前景怎麼樣?我覺得這是一個很重要的問題。
張亞勤:朱民行長講了一個特别重要的概念,這個都是比較專業的詞匯,叫做「湧現」emergence。
emergence确實目前是在這種大模型裡面,當模型的參數體量大到一定程度的時候,基本上是到了百億參數的時候,開始「湧現」,就是你可以看到它在準确度還是可預測性都跳躍式提高。為什麼這個時候出現「湧現」,具體這些數學模型或者因果關系,現在并不是很清楚。
但你可以這樣想,當我的數據量體量大到一定程度的時候,參數到一定程度的時候,而且我的訓練方法是正确的。這個很重要,數據是高質量數據,我訓練的方式是正确的,可以利用這麼多數據,有好的方法時候。
如果用一個拟人化的來比喻,我們每天讀書,讀到一定的時候忽然就開竅了。靈光一閃,開始的時候,讀書只是填補個知識,但到了一定程度我就可以掌握這個規律了。比如我建的大模型,參與到一定程度之後,它把真正的架構(Structure)找出來。
朱民:這裡又提出一個重大哲學問題。如果「湧現」是像靈光一閃那樣的跳躍式的變化。我們人的經歷都講有頓悟,但頓悟是有點智慧含義的,「湧現」是智慧嗎?
張亞勤:你可以這樣理解。如果拟人的話,就是參數到一定程度之後,它忽然就很準确了,就像語音識别,貫通了。這個非常重要。如果你直接看的話,由于我數據量特别大,參數很多,因為它做預訓練的時候用的是這個叫自監督學習,然後它自己是In-context learning,在它這個語料很大的時候,它要把裡面一些mask出去,然後自己去訓練自己,所以模型大到一定程度時候,它準确率就比較高。
但是為什麼會在那麼多參數的時候會這樣,而且不僅僅ChatGPT,很多别的大的模型,不僅是openAI的,很多别的模型也有類似的這麼一些現象了。
所以這個現象我不能講是這個靈光一閃,是哲學或者宗教的概念,但是我們現在并不清楚為什麼,清楚一部分,但不清楚全部。所以這個是emergence.
然後包括另外一個是統一性,這也是現在GPT裡面T很重要一部分。過去可能對不同的任務有不同的算法,現在有了transformer之後,不管你是語言也好,還是語音也好,還是影像或者是視頻或者是蛋白質,你都可以用token based裡的token轉化。這跟人的大腦思維方式比較像,我們的neural,都是neural。
朱民:所以我們現在又往裡走一步,現在如果回到深層的方法上面來看的話,兩三年前都有一種議論,說深度學習已經不行了,是嗎?
張亞勤:我沒有聽到。
朱民:大概四五年以前開始,有很多這樣的說法,就是覺得深度學習,大數據的應用開始出現了小數據。那麼現在的新的工具transformer是一個foundation。這個是一個很重要的基本結構。GCAI或者AIGC是一個很重要的方向approach,那麼技術上來說,你覺得transformer模式成型了?還是以後會有怎麼樣的發展?因為你是科學家,咱們得想一想科學的問題。
張亞勤:第一個我認為transformer确實是挺了不起的,當時2017年Vaswani在Google,當時一開始是為了其實在做Google translate來做的這麼一個算法。這個算法出現之後,确實是把整個深度學習的進展推到更高的一個層次。但是,如果我們看一下transformer或者看一下包括現在大模型,其實它的效率還是比較低的。
我們再和大腦比一下,我們人的大腦經過幾十萬年的進化,确實不得了,差不多不到三斤的大腦,然後有860多億個神經元,每個神經元差不多有1萬個Synapse突觸,你如果把每個連接做一個相當于參數的話,我們大腦比現在GPT4,我假定是1萬億,比它要高上千倍。我們就三斤重,而且我們功耗30瓦,你這GPT功耗多少瓦,所以我覺得我們效率還是很高的。而且目前這種大模型,雖然讓很多工作變得更高效,但耗電和運算的效率還是很差的。transformer當然是很好的一種算法,但在計算方面确實十分耗能。
朱民:所以從能耗來說還會有很大的突破的空間。
張亞勤:我認為5年之後也許就會有一個不同的算法。
朱民:怎麼叫不同的算法?
張亞勤:就也許就不是transformer算法,也許是,也許不是。
朱民:你會發明一個嗎?
張亞勤:我把希望寄托在我們的博士生上。
朱民:回到工程學,工程學就很有意思了,因為它等于一個輔助工具,它無所不能了。所以我覺得現在比較有意思的一點,用我的語言來說,是大模型的脫虛向實。所謂虛就它離開了服務業,實,就是說它進入了物理世界,去操縱和管理物理世界。我覺得這是一個工程學的很重要的概念和一個很重要的應用場景。
所以現在我們出現了AI for science,而且現在科學研究進入了第四範式。那麼就把整個科學研究的方法全部變掉了,是數據主導,不再是獨立的由根開始往上走,而是逆向發展,這個就很厲害了。最近的很多事,比如說常溫超導,這個滷是算出來的,最近的可控核聚變,可控是大模型控的。蛋白質,現在我們已經有了那麼多三維的蛋白質的結構分析,你也做生命是吧?大模型在科學研究方式的方面,對它将來會怎麼樣?
張亞勤:這是特别好的問題,我稍微花半分鍾講一下範式這個定義,其實提出第四範式,包括最近提到的第五範式,都是微軟的科學家提出來的。範式從最早在亞裡士多德,後面到了伽利略。牛頓是第一次把所謂的第一範式數學化方程式化,包括到Maxwell,包括薛定谔,愛因斯坦後面是方程式的第二範式。第三範式是計算機出來之後的事。後面大數據來了之後是圖靈獎得主Jim Green提出的數據驅動,就是第四範式。
最近微軟英國的科學家又提出第五範式,就是深度學習。作為科研的一個新範式,我認為第四和第五基本上是不同階段,你可以都叫第四範式。
這裡面有很多新的工具,比如剛才你講的工程學,新的工具可以使用,就是我們可以把我們方程式的東西,結合到我們觀察的,測量的數據裡面來。比如我們現在可以生成大數據,用方程式來生成,加上我們觀測的數據把它結合起來,開始預訓練,然後結合起來。
朱民:是。現在的科學研究上或者說是第四範式也好,出現了兩種流的合作,一個是人的流,他把一些觀察到想象中的參數什麼放進去,一個是數據位自由,就機器深度學習,然後讓這兩種東西結合起來,是朝我們想象中的用預訓練的模式來實現它的未來,所以這個很有意思。人工智能和人的智能開始合作,那麼現在看的比較多的是材料科學,數字材料現在是很明顯,生物對蛋白,做three dimensional structure這個也是很多的。你覺得像物理或者數學這種根本的科學研究,在方法論上會被颠覆嗎?我覺得化學是很容易突破的。
張亞勤:我認為會的,但是怎麼颠覆我也不是很清楚。我那天開玩笑說我現在比較保守了。我說5年意義,我們所有的奧林匹克的冠軍,數學、物理包括所有的考試,冠軍一定是機器,從阿爾法狗開始,一定是機器。另外,我認為AI可以證明一些我們沒有證明的事兒,哥德巴赫猜想等。
朱民:我覺得科學家還是很嚴謹的,哲學家可以在這個天空裡思索。
張亞勤:新的方程式以後可能是AI發明的,這都有可能。
朱民:量子力學就會可能會有很大的突破,所以這是一個很大的事情。如果科學有這麼大這麼變化的話,反過來人類的進化速度會大大加強。5年真的是一個很短的時間。
張亞勤:剛才你問的特别好,就是科學的範式。其實如果看一下我們物理學,每一個科學都需要一種描述的語言。數學是物理學最好的描述的語言。我認為AI整個來講,從我們這種發展的方向,不一定是GPT,也會成為一個好的描述的語言。當科學的東西沒法去表示出來的時候,我就用一個大的模型加上一個參數去表示它,然後它就變成一種新的語言。
朱民:講到現在我們已經走得很遠了,天馬行空。那麼落地到現在的話,大家很關心中國的大模型發展怎麼樣?現在百度出了文心一言,現在我看能列出的大模型大概有幾十種了。
張亞勤:百模大戰。
朱民:當然困難是很明顯的,第一個是,美國把芯片卡住了。那麼算法當然也受到很大的影響;數據也有一個質量和規模的問題;對語言也是個問題,對中文和英文之間其實還是在自然語言處理的方面還是有不一樣的。你怎麼看百模大戰中國的差距究竟有多大?我們怎麼幹?
張亞勤:不想得罪人。(現場笑聲)
朱民:科學家沒問題的。我先說我的觀點,我不怕得罪人(現場笑聲)。我1月7号的時候我說,大模型,中國落後兩年。
張亞勤:對,我覺得大模型方面肯定是落後的,具體落後多少我就不說了。但是,目前這麼多企業,包括BAT、華為、字節在内的很多大公司都在做大語言模型,包括新創公司,大家都在做,最後就是充分競争。只有經歷充分競争的企業才是好企業。而且中國的競争有中國的特點,這些人都是經過互聯網時代的千錘百煉,經歷過血腥的競争,知道怎麼競争。第二點就是在競争的過程中,每個企業的人都很聰明,他自己會去定位,就讓市場去檢驗它。政府就别管了,政府鼓勵競争就行。
我個人看的話,可能最後會有五六個大模型。所有的作業系統,大部分的話可能還是面向行業的很多垂直模型,它會結合大模型解決行業大的問題,但在每個行業可能也需要細分。
你剛才提到芯片和數據,我稍微講一下。數據是問題也不是問題,就第一點你看目前大模型也沒有人把充分把自己的數據都用了,以及比如企業外面我們有很多這種公用的數據,然後每個企業剛才我講的大企業都有自己好多數據,他都沒有用完,可能用了很少一部分,因為時間不夠,這幾個月。然後第二點就是你看現在做多模态,剛才講的語言多模态裡面多少視頻的數據,多少這些影像的數據也都去使用。
還有一點。你看GPT用了很多中文的數據,用了很多法文的很多各種不懂語言的數據,咱們也可以用别的語言,我們完全可以用英文的數據,對吧。
這些數據能用就用,所以我認為長期不是大問題,短期也不是大問題。而且說實話,數據不僅量要大,重要的是你怎麼樣去清洗它,怎麼樣把它變成高質量的數據。其實做大語言模型也很有意思,就是數據太輕,太幹淨也不行,還是需要一些有免疫力的,就像人身上需要一點有要和細菌和病毒共存的時候需要一點免疫力,所以怎麼樣去獲得這個數據,其實是做大語言模型,1/3的工作是關于怎麼樣把這些數據叫data engineering很重要。
算力的确是比較挑戰,如果咱們把中國所有的算力加在一塊,現在至少也有50萬個,至少50萬個A100這麼一個體量加在一塊,你訓練100個模型有點小問題,但是訓練5個模型是沒問題的。另外一點,這個東西你也不是永遠在用它,你在預訓練的時候用它,用了之後你幾個月可能就不需要用這個東西了。
還有一點,現在很多的工作是怎麼樣把這個模型簡化,然後怎麼樣小型化邊緣化。所以我認為這些東西是有挑戰,但不能是我們兩三年之後沒做好的一個借口。我認為我們一定會做的不錯的。
然後還有一點就是中國自己也在做芯片,現在你看到有昆侖,汽車的地平線等等許多公司都在做這些芯片。
朱民:所以你還是樂觀的,算力算法和這個數據,我們還是有資源可以解決,是吧?但是大模型它有幾個特點,第一個是它進入的門檻很高,它不是一個可以自由競争的世界,是第二個它有些地方具有天然的壟斷性,算是有壟斷性的,算法取決于你是不是開源。而且這個規模也使得進去不那麼容易。所以在這個情況下,那是一種市場充分競争,還是一種類似于寡頭競争。未來的中國發展大模型的路徑大概是個什麼情況?
張亞勤:如果把大模型比喻成42公裡的馬拉松,現在跑了5公裡,目前是春秋戰國,大家要充分競争。等競争到一定程度,肯定就不可能有那麼多大模型了。就像作業系統和雲一樣,一開始有多少朵雲?現在的雲,不管美國也好,中國也好,最後可能就四五朵雲。所以我認為最後肯定是要收斂的。
朱民:你還是很樂觀,中國人會長出自己的大腦模型。
張亞勤:對。但我想講一點,我們現在不能假設就是那幾個大公司的事兒,初創公司也有希望,OpenAI就是一個小公司。所以大家都有機會。但平台的門檻很高。比如我們這樣的研究院,我們一開始就說不要自己去做大型語言模型,我們也不會去買上萬個GPU,很多工程的東西我們也不會去做,我們可以和企業去合作。
朱民:這就提出了很重要的一點。在我們追趕的道路上,第一個是算力算法數據,你有沒有底氣?第二個是市場準入競争公平,這個結果會怎麼樣?但形成生态合作共赢還是很重要的。你看大概會是怎麼樣的一個生态呢?
張亞勤:比如說N年多之後,4-5年之後會有幾個大的模型,就是可能主要在雲上面,在雲上面有大量算力的,有這麼橫向的,我把它叫做AI的雲的作業系統,在這個上面有很多的vertical很大的一些apps,而且我認為有些apps會在一個雲上一些APP在很多雲上,有些souper apps可能它會調用不同的models的,剛才你講的工程化和工具化,你可以用你的作業系統可以用别的,别的APP,我也可以用我這個APP也可以用好多不同的模型,然後可以用open source模型,也可以用這些商業化的模型,還有一個open source,現在這是很重要一個力量,不在我們剛才講的這些裡面。
朱民:你看現在美國出現了stability。對這樣一個平台,作為一種生态的構造形式的培訓,像這樣的模式可采用。
張亞勤:我覺得都會,各種不同的模式都會發生。
朱民:這裡又回到了平行模型和垂直模型的區别,我看現在的大模型現在主要是做美國和中國,但美國的模型還是平行的,廣義的模型多一些,中國現在來看是垂直模型比較多一些。
張亞勤:不能這麼講,我覺得都有。橫向的模型很多,但是解決某一些問題的也都有垂直模型。
朱民:所以現在市場競争的是橫向模型,現在是"百模大戰",對競争的結果活下來的人會支撐垂直模型。
張亞勤:對,可以這樣講。垂直模型、以及面向一些任務總是要做的。橫向模型會幫你解決很多橫向的問題,比如說自動駕駛長尾的問題。但是,它沒法去替代垂直模型。咱們回到作業系統這個比喻,作業系統裡面安卓和iOS也很強大,它上面有商店,但是很多Super APP還在上面。
你不可能作業系統做所有的這些應用,特别我們如果面向工業互聯網,它更細分,更加深度。就像在PC時代,微軟很強大,但也只能做個office,上面别的應用還是要靠生态。我經常講,生态作業系統如果算一的話,它整個生态是乘100倍,在上面它的價值是100倍。
朱民:這個世界不可能只有唯一,一定是一個生态的,在上面會產生更豐富的應用場景,等等。
張亞勤:而且我覺得對以後垂直領網域,或者對一些創業者其實是件好事。我看了很多言論說大模型出來之後别創業了,都被大公司做了。我認為不是這樣,我覺得恰恰相反。比如,現在做某些面向某些任務的時候,我更容易做了。再比如說,過去我做一個什麼事,我自己沒數據或者數據很少,我需要收集數據,現在很多這些數據已經被預訓練變成模型了,你就去靠那個模型,然後加上你自己這個領網域的精準數據,或者結合你自己的模型,你可以開發應用出來。
這有點像雲計算的時候,創業公司過去要買一大堆伺服器,自己要有it方面的人。有了雲之後,你買雲服務就行了。你的算力、存儲,你的網絡能力都按需分配。所以,我覺得這是件好事,但創業公司可能要注意别做太簡單的東西。如果太簡單,大模型馬上就幫你做了。創業者稍微要做一些有門檻的事。
朱民:創業的門檻高了。
本文為創業邦原創,未經授權不得轉載,否則創業邦将保留向其追究法律責任的權利。如需轉載或有任何疑問,請聯系[email protected]。