今天小編分享的科技經驗:ChatGPT和AlphaGo下圍棋,誰赢?,歡迎閱讀。
上一篇提到最終大模型的格局很可能是有一個偏通用大模型,比如 ChatGPT,它會颠覆現有信息集散的基本格局,同時還會有很多面對垂網域的大模型,每一個都會像是一個個成功了的沃森(《AI 大模型沒有商業模式?》)。但沒說為什麼這麼認為,這篇就來講講這個問題。回答這個問題首先要回到一個類似關公戰秦瓊的問題:ChatGPT 如果去下圍棋能幹得過 AlphaGo 麼?
ChatGPT 和 AlphaGo 下圍棋,誰赢?
估計沒人會不同意人工智能行業十幾年來讓人印象最深的兩個标志性事件是:2016 年 AlphaGo 戰敗李世石、柯潔和 2022 年 ChatGPT 展現通用智能能力。
而很有趣的事情在于,這兩次突破正好一個對應于垂直領網域(AlphaGo),一個對應相對通用的領網域(ChatGPT)。
從訓練方式上看,AlphaGo 做到了自己就是數據源,這意味着經常說的數據飛輪效應,對于 AlphaGo 而言在後期變成内置的了。更新到後面的版本(AlphaGo Zero)的時候已經不再使用人類的棋譜,而是自己和自己玩,然後結果非常可怕,大概下面這樣:
21 天,AlphaGo Zero 通過自己對戰自己達到戰敗自己哥哥 AlphaGo Master 的水平。典型的人工智能自己驅動數據飛輪,誰也不靠。
這對判斷誰赢有什麼幫助呢?其實這非常關鍵。
判斷誰赢,純靠技術是不行的,因為過去十年最大的經驗就是如果從技術角度對未知領網域進行判斷,那誰也判斷不準。所以我們得換種模式。
AlphaGo 相當于把一個邊界足夠清楚的事走到頂了,經歷了一個人工智能到頂的全過程。所以我們從中可以總結出一個人工智能到頂的關鍵階段:
這三個階段是:現有全量數據階段—自我數據生成階段 - —啟動數據→智能飛輪,領網域高點。
在現有全量數據階段 AlphaGo 在學習人類的棋譜,在戰敗李世石後,它就進入自我數據生成階段,然後數據→智能飛輪啟動階段。
這是一種遞進的關系,全量數據意味着對場景描述已經比較充分,人工智能可以比人幹得好。只有過了這個階段,它才可能自己產生有價值的數據,而一旦它可以自己產生有價值的數據,那後續的進化就會非常快。
但形成這種數據的閉環并不容易,領網域越寬越難。
如果目标是處理真實世界的所有問題,那就得有一個能窮盡世界各種變量的元宇宙才行。這就是做垂直領網域最核心的優勢,只要選得比較好,那就有可能更快到達類似 "AlphaGo" 的圍棋之神的境界。
回到我們最初的問題:即使沒下過,GPT-4 論下圍棋也肯定不如 AlphaGo,AlphaGo 已經通過數據飛輪達到領網域高點,GPT-4 相當于剛會下,大致等于專業拳擊手對戰小朋友。
這個結論其實非常關鍵,這既能回答垂直領網域大模型是否能夠存在,還能回答垂直領網域大模型的基礎戰略到底應該是什麼樣的。
但要想真的做垂直領網域大模型,還需要考慮的問題是解決垂直領網域問題除了大模型還需要什麼,大模型到底在其中占多少權重。是大模型往那兒一擺,垂直領網域的問題就解決了麼?還是說會有更關鍵的決定性因素?
大模型在 " 沃森 " 類系統中的權重
郭士納之後,IBM 好像徹底變成了個只會賺錢的公司,創新的業務比如 IBM Watson,總是給我們一些負面的消息。但這個時候不能忽視的恰恰是它,因為它落過地,也許技術不行,但對場景的總結和描述一定就是大模型也需要解決的問題。
成功的案例可能會更耀眼,但失敗的案例往往可以讓我們學到更多。(考慮 ChatGPT 到 2022 年底才出來,我們實在也找不到更好的成功的案例。)
沃森的產品架構大概這樣:
現在代表 Watson 那個球完全可以替換成大模型,然後你就會發現其它的部分未來再做落地的時候一個都少不了,還可能需要增加。
我們來簡單翻譯下上圖的各種輸入,沃森作為一個輔助診療的系統,它第一個需要的是關于病人當前症狀的數據,比如 X 光等。而病人的數據有可能是不完整的,所以它可能會主動激發一些問題,讓病人進行回答,讓它能夠形成判斷,最後病人的基因數據也需要作為一個關鍵數據提供給它。
除了病人的數據外,它還需要具備這個領網域相關的知識,比如哪些診療方法是不被允許的,過往類似的病情都是如何處理的以及新藥等。這就是上圖右側的部分。
這個表述比較形象,但會有點雜亂,不利于推測後續垂直領網域大模型的關鍵點,所以我們換個視角對此進行再分類,這就可以更清晰看到垂網域大模型所對應的系統構成。
需要最終面對對象(也就是患者)的全量數據。全量數據包括:當前這個時間點的數據(當前病症)、歷史數據(病例)、基礎特質(基因)。這其中當前數據有可能需要在時間和空間上都進行展開,時間上的展開,比如 24 小時心電圖,空間的展開,比如傳染病的時候你的行動軌迹等。這代表了對象的充分數字化。
垂直網域的大模型自身必須是一個活的專家。也就是說它的領網域知識不止要全量還要是活的,所以不管是行業規則還是最新研究成果都要形成有機的聯動。這裡面規則可能更關鍵,因為它需要立刻生效。
這兩部分數據的獲取會導致所有 AIoT 的相關部分全需要被挪過來,你需要大規模管理設備(對接醫療設備等),需要雲原生,需要數據庫,需要内容審核和對接等。大模型相當于在原來的基礎上強化了腦袋,并不是把一切推翻重來。
在這個過程中,大模型提供了構建有價值的認知類系統的機會,但在最終成型的認知系統中遠不是全部,從創造價值所占的權重的角度看也許只有 30%。這看似有點矛盾,但可以拿移動互聯網做類比,沒有 Android 和 iOS 就沒有移動互聯網,但如果把移動互聯網看成一個整體,從創造價值的角度看,他們的權重也許就不到 1%。
這是從沃森這樣系統中可以直接看到或者聯想到的部分。
那數據飛輪在哪兒呢?答案是一時半會這類系統不會有數據飛輪。
人以及病例畢竟不是棋譜,可以人工智能自動生成。按照 " 現有全量數據階段—自我數據生成階段—數據→智能飛輪,領網域智能高點 " 的階段劃分,這好像完全到不了自我數據生成階段,因為在漫長的時間裡人是不能充分量化的,新的創造也是會實時發生的。也就是說沃森這種系統會長期處在第一個階段。
這也幫我們引出垂直領網域大模型相關的第三個話題:不是所有垂網域都有數據飛輪效應。萬物皆數的程度和數據飛輪效應正相關。
萬物皆數與數據飛輪
像圍棋這種領網域數字化的成本極低,因為本質上這是一個數字空間的遊戲。純粹數字空間的事其實不多,雖然過去都產生比較大的影響,比如搜索、社交網絡、IM 等。
到電商和 O2O 的時候數字化的成本就變關鍵了,必須有一個簡單的方法能夠讓物理的商品或者外賣小哥能充分數字化,然後才能獲得數字和算法所帶來的紅利。
大模型的作用網域和後者類似,都是需要走出純粹的數字空間。
這樣一來萬物皆數反倒是更關鍵了。就像沒有米飯做得再好也沒意義一樣。當大模型離開了純粹的數字空間(ChatGPT 在這裡)一樣要走過 O2O 的歷程,否則你就沒法解決現實問題。在這裡感知和認知需要無縫的融合。
這是完全不一樣的遊戲規則,這個環節最關鍵的反倒是傳感器,傳感器的小尺寸和成本大幅下降,讓物理世界的數字化成為可能。但它的部署很麻煩,每一個場景的數字化的成本估計和大模型的研發是類似的。同時他們倆又是雙生的。
這類場景确實還會進一步細分,一部分更貼近數據飛輪效應,一部分則相去甚遠。比如同樣牽涉人,但教育應該就比醫療更好做,稅務就比戰争好做。
所以大模型落地的順序大致會是:純粹的數字領網域,比較低成本可以做到萬物皆數的領網域,高成本但還是可以做到萬物皆數的領網域。
下面這個是純粹猜測,數據→智能飛輪,領網域智能高點這個階段裡可能算力需求會下降。這只是一個觀察,非技術性的結論。
計算成本的考量
在能力增加的時候,AlphaGo 所需的算力是下降的:
顯然 GPT 還在繼續放大的路上。從最新透漏出來的消息看,GPT-4 在 120 層中總共包含了 1.8 萬億參數,而 GPT-3 只有約 1750 億個參數。按照這趨勢 GPT-5 不太可能變小。
這也許是因為問題網域太大,而限定邊界的話就可能可以更早的進入優化階段。AI 未必不能優化自己。
相信什麼樣的回答就有什麼樣的選擇
上面說了很多觀點,每個判斷和選擇都影響未來幾年大模型的真正走勢。
關鍵是這只是看着能行,沒人能給出準确判斷。這就變成了一個是否相信的問題。相信什麼就有什麼樣的選擇,而什麼樣的選擇就會有什麼樣的結果。我們來對此做個簡單總結:
相信通用大模型不能覆蓋垂網域大模型麼?
相信這種三段劃分麼?現有全量數據階段—自我數據生成階段→數據飛輪,領網域智能高點。
相信最終價值鏈條中大模型只創造 30% 麼?
相信萬物皆數的成本和大模型本身其實一樣關鍵麼?
這些節點上的判斷非常關鍵,會影響資源的投入。
OpenAI 首席科學家說得對:" 你先要選對,然後你的信念就是結果。"
小結
從做事的角度看,純粹數字空間的大模型對絕大多數人而言機會幾乎為 0,垂直領網域大模型早期會加大虧損,但增加最終商業模式跑通的可能性。短期一定會出很多垂網域大模型,因為下圍棋的話 ChatGPT 總是幹不過 AlphaGo。長線看通用大模型和垂網域大模型的競争會一直都在,但如果通用大模型真的覆蓋每一個 AlphaGo 這樣的領網域,那意味着什麼呢?