今天小編分享的互聯網經驗:巅峰對談:邁向 AGI 時代,除了優秀的大模型,還需要什麼?,歡迎閲讀。
5月23日,36氪舉辦「颠覆·AIGC」產業發展峰會。本次峰會匯聚產業力量,共同探讨企業、行業在面臨變革時的應對策略,分享思考,探索和發現產業中最具潛力的企業與最具價值的技術,在激蕩的環境中探尋前行的方向。
在大會的巅峰對談環節,藍馳創投管理合夥人朱天宇與Fabarta創始人兼CEO高雪峰,圍繞《邁向 AGI 時代,除了優秀的大模型,還需要什麼?》這一主題,展開了讨論,聚焦三個方面:圖系統在提升大模型知識和推理能力中的價值及其技術發展難點和解決路徑、當前大模型落地應用的重難點,以及創業機會。
Fabarta創始人兼CEO高雪峰認為,實現未來AGI需要概率和符号推理共同作用,通過圖系統抽象出泛化知識,進一步加強AI的知識和推理能力。為此,他指出,需要解決兩個難點:一是要将行業專家知識沉澱到圖系統中,将大圖技術與大模型 AI 技術在實際領網域有效銜接;二是要通過系列工程優化工作,構建類似于大數據領網域Snowflake的存算分離和分布式計算系統,以滿足在大型圖系統上做高性能計算的需求。
高雪峰表示,解決好第一個難點也是大模型在醫療、金融、工業制造等要求可解釋性智能、與邏輯推理強相關的行業中落地應用的關鍵。同時,他指出,做好數據工程、提升大模型長效記憶能力也是大模型應用的必要條件,而圖技術在這兩個領網域都可以發揮重要作用。
藍馳創投管理合夥人朱天宇也認同高雪峰對AI大模型落地應用重難點的看法,并且強調了數據閉環的重要性。朱天宇分享了藍馳創投的投資心法,指出,ToB、ToC創業公司最好的狀态是"一邊賺錢,一邊賺數據,一邊賺知識"。
關于創業機會,朱天宇從ToC的角度進行了解讀。他認為,創業公司一是需要從低階往高階做創新,而不能僅停留在翻譯等生成式AI第一層能力的應用層面;二是可以拉長時間線,關注AI+3D互動+Robotics三浪疊加的機會;三是探索三浪疊加的底層,以及如何利用Web3解決生產關系、價值确權和分配問題的機會。
高雪峰則從ToB 的角度分享了看法。他指出,解決上述大模型工程化落地的諸多問題本身就能產生創業機會,同時,企業可以利用大模型的能力和認知推理技術颠覆部分場景中的ToB 領網域現有產品。例如,改進傳統的客服系統,使其能夠像一個了解本地知識的人工客服一樣與用户進行順暢的對話。
巅峰對談:邁向 AGI 時代,除了優秀的大模型,還需要什麼
以下是嘉賓讨論實錄,經36氪整理編輯:
朱天宇:謝謝各位來聽我們説兩句,我們兩個先介紹自己,然後再展開話題。
藍馳創投是一家将近20年歷史的早期投資基金,管理150億美元和人民币雙币基金。我們已經在AI領網域非常積極地布局,包括在AI基礎設施、應用層等方面的布局。昨天剛剛官宣潞晨科技的後續輪融資,這是一家針對分布式AI的算力訓練公司。
接下來,Andy 來介紹一下自己。
高雪峰:大家好,我是 Fabarta 創始人兼 CEO Andy,我在創辦這家公司之前,曾經是 IBM 的 AI 研究院的院長,之後是阿裏雲的大數據和人工智能產品和解決方案的負責人。兩年之前我創立 Fabarta 的初衷就是為了打造未來 AGI 核心基礎設施,但我們是從圖智能這個起點開始的。我們很早就知道藍馳一直在 AI 領網域布局,非常高興在創業第一時刻能成為藍馳家族的一員。今天,我很高興有機會與大家分享我與 Terry 在 Office 裏讨論的内容。
朱天宇:今天形式挺好,一對一。你是創業者視角,我是投資者視角,而且你是偏基礎設施ToB企業服務,對企業客户需求更了解;我平時關注應用層用户需求側更多,咱們可以互相問問題。剛才介紹了Fabarta做的事,最開始第一次在辦公室見面的時候我很好奇,你提到了一句話對于今天所有關注大模型的人,是不一樣的聲音:大模型要和大圖一起融合共同生長,這個是未來通向AGI(通用人工智能)的核心路徑。這是非常有意思的觀點。
能展開説説看法嗎?相比現在讨論如火如荼的大模型,大圖在這個讨論當中聲音還沒有那麼多,這個恰恰是吸引我們的一點。
高雪峰:好的,在最開始聊的這個話題時,包括創業最初的那個時刻,我們對整個 AI 歷史發展的路徑都非常了解。從數學概念的角度來講,概率和符号推理是推動人工智能發展了幾十年的兩個主流的技術路徑。過往 AI 曾經有過幾次的波峰和波谷,其中符号推理、專家系統、代表概率連接主義的深度學習是幾個主流技術流派,它們彼此之間是一個此消彼長的過程。但是我們在當中會深刻地體會到,能夠真正實現未來的 AGI 人工智能時代,一定需要讓概率和符号推理共同作用。概率是實現深度學習的數學概念,計算機能理解的形式是向量,雖然符号推理有許多技術可以實現,但通常被 AI 領網域所接受的是以大圖系統為核心的、計算機能理解的技術體系。
盡管深度學習、Transformer 技術發展迅速,大模型火爆出圈,大家普遍認為強人工智能時代或 AGI 時代已經到來了。但其實我們都知道,要實現未來的 AGI,還需要加入強大的知識和推理的能力。就像我們在《思考的快與慢》這本書中看到的,人的思維有兩個系統:System 1 和 System 2,只有這兩個系統共同作用,才能實現真正的智能。
朱天宇:我們作為投資者關注AI方向很久,剛才其實提到這兩個路徑的此消彼漲,在之前看到的一些行業應用當中已經體現出來。CV+NLP這幾年的發展相對更快一些,但實際在歷史上我之前讀到文獻觀察到,這兩條路交替領先,專家決策系統一度是比神經系統領先更多。恰恰揭示一個大家不可忽視的規律,科學發展,包括在工程上的進展總是有不同路徑不斷融合。還原到投資和創業公司交流視角也是:我們既要戰略上極其重視大模型,但是不能只迷信大模型。因為這裏面有一些問題不一定完全能解決掉,比如推理這個問題。
沿着這個話題問一下,比如説我們現在這個大模型,剛才説推理上需要進一步提升,在哪些地方推理不夠?那圖的視角怎麼解決這個問題,可以舉個例子嗎?
高雪峰:我們都知道,所有的大模型背後的原理基本上都是圍繞着 Transformer 的技術,基本上它的核心技術原理就是預測下一個字元是什麼。我經常問各種各樣的大型模型一個問題:"姚明出生的那一年的 NBA 季後賽亞軍球隊的教練是誰?"這個問題有點繞,但我們的人腦很容易理清邏輯,找到正确答案。然而,大多數大型模型(除了 GPT-4 以外)都會給出錯誤答案,因為它們主要是通過訓練數據來凝結成的泛化知識,而且這些知識都是壓縮過的。因此,大多數網上的信息都是把姚明跟 2002 年聯系起來,因為那年他獲得了 NBA 選秀冠軍和 CBA 冠軍戒指,相關的信息在網上是最多的。因此,很多的大型模型其實提取的是 2002 年的那個信息,然後找到一個 NBA 季後賽的球隊,再給出該球隊的教練作為答案。
這個例子是一個很簡單的 Prompt Engineering 角度的推理,實際上很難做的。但是,如果我們把一些結構化和圖技術應用于其中,就可以很容易地實現。例如,在大型模型中,泛化知識都是存在的。我們可以問一個問題,詢問姚明出生的那一年是哪一年,它會告訴你是 1980 年。然後,你可以問它這一年 NBA 季後賽的冠亞軍球隊分别是誰,它也能告訴你。接着,你可以問它他們之間的比分是多少,它也能告訴你。這證明了用大型模型來沉澱泛化知識,雖然是壓縮的,但已經被證明效果非常好。但是,要讓它實現推理能力,需要将泛化知識抽象出來,進行一定的邏輯推理,那一定是需要符号邏輯和圖形知識系統的介入。
朱天宇:這個例子太生動了,又幫我深入地理解了圖在推理當中的價值。那我想再正向的追問一個問題,剛才提到了目前大模型在推理上的一些不易察覺的問題,因為它是用概率來解決問題。那正向的理解的話,圖在哪方面能做得更好,更 Powerful ?
高雪峰:我們創業之初想要做的是一個面向未來的大圖智能系統。很多朋友經常問我什麼是大圖系統?回到問題本源,在我們剛才提到的概率和符号兩個系統此消彼長的過程當中,為什麼我們説圖和大圖代表的知識圖譜、專家系統的發展并不像人們想象的那麼快,進展緩慢。這裏面有兩個非常大的技術難點:第一個難點是如何将自然界的一些系統化的知識以低成本的方式高效地沉澱到知識系統和圖中,這是非常困難的,也是制約整個圖系統發展的一個最大瓶頸。解決這個問題之後才會有第二個問題,即當圖的數據量膨脹到非常大的時候,如何在這種大型圖系統上做高性能計算?現在大部分圖系統底層的基礎設施架構并沒有真正做到核心的分布式計算。因為圖的分布式計算是一個 NP 問題,我們需要進行很多工程上的優化,才能真正實現像大數據領網域的 Snowflake 一樣的存算分離和分布式計算系統。因此,我認為這是兩個難點。
關于第一個難點,大模型沉澱泛化知識的能力是非常強大的,我們完全可以利用大模型的能力來沉澱各行各業的專家知識,沉澱到圖的系統當中去,我們跟很多客户在一起探索這條路徑。比如我們在醫療領網域的客户,有很多的沉積下來的歷史數據。我們就是利用大模型幫助客户構建其"客户 360 系統",通過所有用户的病例信息和數據沉澱出一張大的圖譜出來。但是這裏面會有一些幻象存在,比如在某些病例中,我們通過大模型提取到了患者發燒這一信息,但是我們提取出來患者的體温只有 20 度,是因為那個裏面提到了患者的年齡是 20 歲。所以可能大模型壓縮信息的時候會把這個信息漏掉,或者是產生一些錯誤的認知。
但我們上面有一個專家輔助的系統,系統會直接就提示出來。如果是發燒的症狀,提取的體温在 37 度以下,這個數據都是不正常的。我們會重新調用大模型,并告訴它之前的識别結果不正确,要求它提供真實數據。模型會重新提取出 38.5 度的數據,并将它添加到我們的體温圖譜體征裏面去。這就是我們如何真正的将圖系統和大模型 AI 技術在實際領網域進行有效的銜接。有了這個系統,我們可以進行許多推理工作,例如健康風險評估、易感疾病群體的體質評估等,都可以在這張大圖上去做強推理。但你是無法直接讓大模型的泛化知識來幫助解決你這個問題的。
朱天宇:那是不是可以再追問一下,哪些行業場景應用本身對推理的訴求會比較高,或者説它的數據結構在泛化、壓縮的時候容易出現剛才的問題?使得這些場景對于大模型和大圖的融合的訴求會更迫切,圖智能技術能夠更好地、更完整地解決他們行業的需求。
高雪峰:這個問題很好,這涉及到了我們如何把大圖的技術與主流優秀的大型模型技術結合起來,真正的在 To B 工業場景中實現落地。
朱天宇:那現在 GPT-4 有這個能力嗎?
高雪峰:我覺得 GPT-4 其實是一個黑盒子技術,大家其實都在猜它有什麼樣的能力,我們也是在猜。至少我問它剛才説的姚明的那個問題時,它基本上可以非常理性地給出一個很正常的回答。所以我們覺得在 Prompts Engineering 的階段,它一定應用了一定程度的符号推理或者圖解析的能力來做這件事情。
朱天宇:那 GPT-4 已經開始在融合了。
高雪峰:對,昨天我看到了一個非常有意思的論文,Princeton 大學和 DeepMind 的工程師一起做了一個推理的優化框架,它不是 COT(Chain of thoughts),它是 Trees of thoughts,我們稱之為思維樹。
朱天宇:類似之前的專家決策樹。
高雪峰:對,把它應用到了這個 GPT-4 的推理的框架當中去,數據實踐已經證明把 GPT-4 的推理的能力提升了大概 17 倍。
朱天宇:回到剛才我那個問題,什麼行業更需要大模型和大圖的融合?
高雪峰:我們嘗試過的行業,像醫療、健康、保險、銀行、金融、工業制造等需要精确領網域智能的行業,在大模型真正落地的時候,都是需要跟我們的邏輯推理是強相關、強綁定的。這也是為什麼我們在最開始創業時選擇的是圖智能的這個大方向,打造未來的 AI 的基礎設施。我們正在開發圖和向量相結合的多模态引擎,因為我們接觸了許多客户,無論是互聯網客户還是傳統的 ToB 客户,可解釋性智能在這些客户中都是最重要的事情之一,因此我們從可解釋性智能開始。但我們也很高興看到大型模型和多模态大型模型技術的快速發展,這可以更快地将可解釋性智能融入我們的整個體系中。
朱天宇:可解釋智能其實非常關鍵。我們投過理想汽車,投理想之前,我們就在關注人工智能。當時的進展在CV,CV在自動駕駛落地呈現第一個形态就是輔助駕駛公司,但是輔助駕駛公司沒法閉環,感知決策控制沒法閉環,使得我們當時看CV的人工智能應用場景,關注到整車制造商,當時幾個新的造車勢力頭都在閉環想這個問題。這是2016年很早投理想的一些思路。
可解釋智能,不同行業AI對于向上溯源解釋能力不一樣,包括剛才説的醫療我覺得特别典型。我們看很多醫療創業公司,希望用之前積攢醫療數據訓練,但是能不能解釋,到什麼程度,交付不一樣。可解釋AI引入另外一個問題,數據達到什麼樣程度?現在大家讨論大模型投喂非常大的數據,預測2035年之内人類現有存量數據喂完了,要有新數據進來,數據這塊模型到底有什麼訴求,以及對于數據本身有什麼樣要求?
高雪峰:這就是為什麼説我們今天讨論的話題很好,邁向真正的 AGI 時代,除了大型模型之外,還有許多其他領網域值得關注。例如,您剛才提到的一個非常重要的點,其實就是數據工程。我們都知道,用于大型模型訓練的數據,包括它的 Prompt engineering 等各個階段,甚至後面的強化學習的知識反饋,對數據質量都有一定的要求。
現在已經出現了一些數據問題,比如説現在已經充斥着各種多模态的數據,這些數據大多是由 AI 生成的,其質量好壞不一。如果我們把所有數據一股腦地全部傳給大型模型進行訓練,我們不知道未來模型固化出來的參數會是什麼樣子。所以我覺得數據工程這件事情也非常的重要,對于任何的一家大模型的公司來説都很重要。這也是我們想要研究和探讨的領網域之一。在數據工程中,我們能否利用圖技術将組織好的、具有邏輯關系的數據提供給大模型,觀察在模型的訓練過程中是否能夠提高其推理能力。因此,我覺得數據是貫穿整個 AI 生命周期的重要因素。
您提到了理想汽車的案例,我也很好奇。第一次跟您聊天時,您提到了"數據閉環"這個詞,這是當時您投資理想汽車時的一個主要決策點。我想聽聽您對于數據閉環的看法,以及如何通過這種對數據的思考預見到今天的理想。
朱天宇:人工智能還是源于大數據蓬勃發展,沒有數據人工智能也是無米之炊。我們很早説過沒有大數據就沒有人工智能,大數據又起源于雲計算普及、工作流數字化程度越來越高。沒有雲計算也沒有大數據。
有了這些準備好的進程之後,數據閉環對于人工智能來講,是非常關鍵的,因為所有新知識源于嵌入到工作流當中能不能很好閉環。當時投理想就發現這個問題:真正自動駕駛閉環工作流是感知決策控制。剛才提到在2015年前後,那時候只是在CV方面的進展,更多解決感知層問題、決策控制層這塊沒有完全跑通,真正訓練完成必須把整個感知決策控制全部閉環裏面。智能在閉環裏訓練產生,只在一個環節是卡在那,不能把整個任務完成。
2016年,對于VC來説看一個重資產的車廠商也是挑戰一件事情,恰恰是我們理解了數據和智能關系之後,必須要做的一件事情。因此很幸運我們在更早時間點布局智能汽車,後來整個新能源車蓬勃發展,大家進展還不錯。
最近還在繼續看自動駕駛行業。大模型來了之後,自動駕駛訓練也有哪些可能新的進展,我們也在評估。包括不同場景,可能有哪些新的可能性。同時在最近看一些新的AI創業公司,我依然關注閉環問題,因為這裏面有一個我們經常用的一個标準心法:我們更希望看到創業公司一邊賺錢,一邊賺數據,一邊賺知識。你的應用,你找的場景能不能讓應用經過AI分裝之後,提供服務的同時在場景當中繼續獲得新數據,這個數據反哺AI訓練,讓服務質量效率更高,這個閉環是非常關鍵。無論ToB還是ToC都有這個視角。當時投理想也是這個視角得到的結果。
高雪峰:所以在那個時代還是真不容易的。您剛才提到的這個視角,在當下把 AGI 或者是大模型的能力應用到工業領網域,也遇到了一個很重要的問題:就是大模型的長效記憶能力的問題。大模型在應用的過程當中需要不斷沉澱知識或數據,以保證它的記憶能力。國外已經有很多優秀的框架,不管是 LangChain,還是 LlamaIndex 等,都是非常優秀、成長非常快的框架,幫助我們真正地把大模型應用到實際的工業領網域當中去。
我也有一個很有趣的例子,經常和别人分享。在大模型的真正應用中,我們必須提供具有記憶能力的基礎設施。我們正在做類似這樣的基礎設施。例如,今天我正在與 Terry 進行對話,在這種環境中,我可能将這個環境壓縮成向量并存儲在我的記憶庫中。雖然我們已經交談了很多,但您的樣貌也被以向量的形式存儲在我的記憶中。我們交談的内容也可能變成向量,而它們之間不僅僅是簡單的向量記憶,而是有邏輯關系的。因此,我們正在構建一個大圖系統,将向量能力和圖形能力融合在一起,以提供工業領網域中大型模型的長期記憶能力。我們發現,像國外的 LlamaIndex 已經開始将圖形和向量數據庫引擎技術融合在一起,這是一個趨勢。因此,我也希望我們能夠與中國本土的許多優秀企業一起,在這個領網域做更多的工作。
朱天宇:數據其實也是整個行業生态的一部分,剛才聊的圖路徑,聊的數據、基礎設施的視角,其實就已經聊到今天很重要話題:整個行業生态問題。前段時間我們去硅谷交流,得到一個很重要觀點是,OpenAI在模型參數上和其他追趕者領先程度相比于在生态領先程度,生态上的領先程度要遠遠大于模型上的領先程度,這是OpenAI在這段時間爆發之後帶來最大優勢。
您分享一下怎麼看AI產業,尤其AGI,未來通用人工智能上下遊生态,有哪些關鍵節點,包括我們能做哪些事,我們希望整個行業做哪些事,讓中國在這裏跑到前面?
高雪峰:我認為這确實是每個人都值得關注的問題,因為在邁向未來的 AGI 的過程中,每個人都有自己的認知、思維體系和想法。但是從湧現出來的非常開放、非常豐富的生态的角度來看,我們已經看到許多優秀的方向已經有人在研究了。
比如説,除了許多優秀的多模态大型模型之外,我們還看到許多優秀的細分領網域專業大型模型在開源生态中湧現出來。同時,我們也提到了作為大型模型的長期記憶能力體,我們也看到了許多優秀的向量引擎,包括我們正在開發的圖和向量融合的多模引擎等,來提供這種能力。當然,我們也看到了像尤教授團隊這樣的優秀團隊,他們正在研究分布式訓練和推理框架,可以幫助每個大型模型公司節省成本、優化結果。此外,還有像 LangChain、LlamaIndex 等優秀的框架,可以将大型模型與本地知識連接起來。此外,還有非常豐富的開源大型模型生态,以及您剛才提到的即使是閉源的 OpenAI 大型模型,但它也提供了非常豐富的插件化生态,以彌補當前大型模型在時效性、知識推理、數學計算等方面的不足。我認為只有各種生态蓬勃發展,才能促進我們真正實現類人甚至超人智能。
朱天宇:我們也感覺到像 OpenAI 的生态确實令人震驚,也感覺到了其中的差距。每一次行業周期變化,生态價值最後決定到底是誰是入口級的新的大廠。這裏面感覺OpenAI生态裏包含了數據、開發者、算力等等這個鏈條上所有的東西。另外角度來講,在中國接下來很可能有閉源和開源,開源可能在針對中國一些行業場景可能會發現更大的價值,針對開源框架大家還有什麼樣的工具像搭積木一樣,讓更多行業場景客户都能夠從中享用AI帶來效率提升,這是我們看到生态很重要的價值。
最後,因為36氪今天請來很多創業者,我們可以聊聊在ToB方向上創業機會。除了剛才在生态關鍵節點上,我覺得更多從現在接觸這個行業客户需求角度,他們現在有什麼需求,有什麼痛點,解決什麼樣的問題,因此呼籲什麼樣的工具和機會出來?
高雪峰:我先説一下從 ToB 的這個視角看到的這些機會,Terry 可以從應用和 ToC 的視角來分享一下。從我接觸的傳統行業或者穩态行業的這樣的一些 ToB 的客户的思考來看,基本上如果真正的把大模型帶入到他們實際的工程落地的角度當中,其實有幾個問題是需要解決的。
第一個方向,大型語言模型存儲的是壓縮後的泛化知識。然而,每個企業都有自己多年積累的本地知識體系,這些知識可以以知識圖譜、知識庫或其他形式存在。因此,第一個要解決的問題就是将泛化的大模型與本地知識連接起來。
第二個方向,大模型在真正被使用的過程當中,任何的一個企業都要不斷地去積累數據,把我們過程當中產生的中間結果和數據記憶下來,因此長效記憶的能力也是非常的重要。
第三個方向,大模型在企業真正落地的時候,它一定需要具備一定的可解釋性,那如何讓不可解釋的大模型具備可解釋的智能,是大家一起要去探索和研究的課題。
第四個方向,結合本地數據,研發有特色的行業、領網域的大型模型。
第五個方向,利用大型模型的能力和認知推理技術,在一些場景中颠覆 ToB 領網域現有的產品。例如,通過結合已經建好的數據湖或數據倉庫,将傳統的 BI 系統提升到 Headless BI 階段。再舉個例子,對傳統的客服系統進行改進,使其能夠像一個了解本地知識的人工客服一樣與用户進行順暢的對話。這需要開展很多工作,但這也為我們帶來了很多機會。我相信,在 AI 應用于工業領網域的過程中,将會催生非常多優秀的 ToB 領網域的高科技企業。這也是我們 Fabarta 最核心的定位之一。Terry,您可以分享一下您在 ToC 方向的看法。
朱天宇:ToC和ToB不一樣。AI對于用户來講是非常新奇的體驗。
我在最近看很多創業公司應用項目的時候,我自己有體會,我覺得我們接下來做這個事,不能只停留在低階創新,要努力去做高階創新,什麼意思呢?
就是比如説第一波使用ChatGPT,翻譯等這些能力其實是直接用生成式AI第一層能力帶來結果,這是一階創新。但我更期待看到二階、三階的創新。前段時間大家看到斯坦福大學一個實驗室做了一個嘗試,用生成式AI創造25個智能體——小鎮上25個人,像西部世界一樣。25個人生活在一個小鎮,每個人有法官、老師、大學生等角色。一天一天生活過去了,每天每個人角色有不同故事線發展,因此也有不同互動,有意思的傳言在小鎮當中發生,成了小鎮共同記憶。觀賞小鎮發展的價值,就像西部世界一樣,這也是一種價值,作為觀賞者去看原來一階創新觀賞内容的互動價值就是二階創新或者高階創新。
我們看到尤其是很多95後團隊,大開腦洞。不同積累的創業者,大家各自優勢不一樣。我們經常會類比,但我覺得年輕創業者不受制于類比方式,行業變化之後,用類比很可能被碾壓,ToC尤其是這樣。我建議一定要從低階往高階做創新。
第二,我們還有一個很重要、更長時間的框架看AI創業機會——AI+3D互動+Robotics三浪疊加。AI這波大家已經看了,尤其GPT到了相對成熟時間點;另一方面大家講元宇宙,抽象來講還是3D互動。這和XR新的互動界面設備,和整個空間數字化帶來的三維數據、多模态數據的進一步使用,讓人工智能執行更多任務;加上Robotics作業執行能力,人的能力的進一步延伸。這三個底層技術疊加在一起能有長達20甚至更長時間的創新周期,這個大浪不得了。
我們自己在這方面不只是看和AI相關,更多從底層的驅動力去看,任何在這個方向做交叉,包括在數據層面,比如多模态數據。其實OpenAI在過去幾年,用自己的基金也在去投一些做多模态數據的公司,這些都是建立大模型生态護城河,是我們關注的方向。
三浪疊加的底層,還有Web3去解決生產關系、價值确權和分配問題,這是一個更長周期的視角,也是我們保持關注的。從這幾個角度,我希望看到更多創新創業機會。我們最近在AI應用層,遊戲、社交等大家過去在互聯網垂直行業看到的一些垂直場景的應用都在布局。
高雪峰:也會有很多優秀的項目能夠湧現出來了。
朱天宇:時間差不多了,那我們最後各自給大家寄予一句話。
高雪峰:今天我們讨論的話題是人工智能時代所需的豐富生态。Fabarta 一直致力于打造真正堅實的未來 AGI 時代的核心基礎設施,我們希望能夠将真正的智能帶入我們真正的 ToB 工業企業中。我們也希望與在座的每一位投資人、朋友和企業一起努力,相信在未來真正的 AGI 時代,會湧現出許多非常優秀、非常傑出的中國企業,就像過去互聯網時代的出現了騰訊、阿裏一樣。因此,我們将繼續努力實現這個目标,并希望大家能夠一起為之努力。
朱天宇:分享一句大家都耳熟能詳的話:"永遠不要高估 3 年之内的變化,但也不要低估 10 年之後的變化。"最近這這半年,我們非常忙,但是大家很興奮。我們其實永遠是用一個穿越周期的視角來看整個行業,就像剛才説的這個三浪疊加的一個大的框架,用這樣的耐心去陪伴創業者,一起去尋找創新的機會,哪怕這個過程高高低低、起起伏伏。謝謝大家。
高雪峰:謝謝。
整理|沈筱