今天小編分享的科技經驗:百度雲更新模型服務,百度版GPTs即日開放,歡迎閱讀。
文 | 周鑫雨
編輯 | 鄧詠儀
2023 年 12 月 20 日,在 2023 百度智能雲 · 智算大會上,百度集團副總裁侯震宇提出了建立繁榮 AI 原生應用生态的 3 個關鍵組件:大模型、智能計算、AI 原生應用開發新範式。
百度雲智算大會
他提到,在 AI 時代,應用技術、AI 技術、IT 基礎設施三條平行的發展線終于交匯融合:
在應用層,大模型理解、生成、邏輯、記憶的獨特能力會催生 AI 原生應用研發新範式,整個應用技術棧、數據流和業務流都将被改變;
在模型層,大模型會成為通用的服務能力,也就是 MaaS(Model as a Service);
在算力層,MaaS 依賴的新型 IT 基礎設施也将進一步在底層颠覆現有的雲計算市場格局。
而百度雲對模型服務的更新,也主要圍繞大模型、智能計算、AI 原生應用開發新範式三個層面。
1、在大模型層面,圍繞建設模型服務生态、模型訓練降本增效,千帆大模型平台做了一定的更新:
預制的基礎 / 行業大模型數量增長至 54 個;
發布數據統計分析、數據質量檢查等功能;
推出自動化 + 人工的雙重模型評估機制;
推出批量計算等靈活計價方式。
2、在智能計算等基礎設施層面,百度發布了百舸異構計算平台 3.0、智算網絡平台,以及百度雲原生數據庫 GaiaDB 4.0。
" 以前傳統和應用互聯網應用都是基于 CPU(中央處理器),現在 AI 原生應用還要用 CPU,但是它的負載大量遷移到了異構或者 GPU(圖形處理器)上面來,從底層算力再到 AI 應用的核心能力都變成了模型,而不是基于某一個固化下來的邏輯能力。" 在 12 月 12 日的媒體會上,侯震宇表示。
AI 時代給雲計算帶來的變革在于,如何能更高效的利用模型成為核心能力。大會上發布的百舸異構計算平台 3.0 能夠支持萬卡級别的超大規模 AI 集群計算。相比自建智算基礎設施,百舸能将模型訓、推吞吐分别最高提升 30% 和 60%。在資源利用層面,百舸 3.0 将集群有效訓練時間占比提高到了 98%,網絡帶寬有效利用率提高到了 95%。
百舸 3.0
智算網絡平台則支持百度和第三方智算節點的算力資源的靈活調配。而 GaiaDB 4.0 主要實現了數據的跨機查詢,并針對不同的工作負載推出了列存索引(支持小規模數據的高效檢索)和列存引擎(最大可支持 PB 級數據的復雜分析),可以提升不同規模數據的查詢速度。
" 對于模型而言,已經沒有‘ Bug ’的概念了,而是全部基于數據庫,比如怎麼處理數據流、清洗數據,或者用新的一組數據集的分布去解決所謂的‘ Bug ’。數據庫的重要性會變得更高。" 侯震宇在媒體會上表示。
3、在 AI 原生應用研發範式層面,百度從即日起面向所有用戶開放了 AppBuilder。
AppBuilder 是百度在 2023 年 10 月 17 日在世界大會上發布的 AI 應用開發平台。AppBuilder 的服務主要由組件層和框架層構成。所謂的組件層,是将特定的底層能力封裝到一個個組件中,再以組件的形式對外提供服務。框架層的作用,則是将封裝好能力的組件進行串聯,讓串聯的組件能完成特定的任務。
AppBuilder
在組件層,AppBuilder 提供了多模态 AI 能力組件(如文字識别、文生圖等)、基于大語言模型的能力組件、基礎組件(如向量數據庫、對象存儲)。在框架層,AppBuilder 提供了檢索增強生成(RAG)、智能體(Agent)、智能數據分析(GBI)等 AI 原生應用框架。
針對不同技術背景的開發者,AppBuilder 分别提供了低代碼态和代碼态兩種產品形态。低代碼态產品适用于非技術背景的開發者以及通用的開發需求,用戶只需要簡單點選就可以定制和上線 AI 應用。針對具有深度開發需求的用戶,AppBuilder 也提供包括 SDK、開發環境、調試工具、示例代碼等各種代碼化的開發套件和應用組件。
2024 年,在侯震宇看來,是 AI 生态發展的關鍵一年。一方面,算力推理層和模型訓練工具鏈的優化,将是 2024 年的重點。他表示:"2024 年我覺得算力的整體供應不确定性或緊張程度較大,所以如何能夠更有效使用算力資源,是一個大家都要面臨的問題。"
另一方面,侯震宇将 2024 年視作AI 原生應用的元年。他告訴 36 氪,2023 年更像是模型訓練的元年,所接觸的客戶還處于逐步理解大模型的階段。" 最終 AI 賦能應用在明年開始逐步能夠出來,今年才剛剛開始。" 他說," 現在也有很多創業公司想用大模型做很多事情,這類用戶的體量也很大,是最早一波吃螃蟹的人。這一票人将來對模型、對算力的消耗,我們相信都是最大的。"
模型廠商的收入高點,也将随着 AI 應用的爆發而到來。侯震宇對 36 氪表示,模型的收入,與模型的調用聯系在一起:"大模型賺錢或者是雲計算通過大模型來賺錢,一部分是模型生產,另外更多還是在應用層面調用模型服務的收入和產生算力的錢——這在将來會是更大的規模。"
以下是百度集團副總裁侯震宇的訪談(内容略經編輯):
記者:最近業界有些人講大模型和生成式 AI 帶來了計算範式的變化,請您來具體介紹一下計算範式具體發生在哪些方面的變化?用雲還是用集群訓練大模型,它們之間的關系是什麼樣的?
侯震宇:計算範式是非常大的一個概念,在我看來計算範式的變化有幾點:
一是大模型。今年談的大部分是大語言模型,全稱是預訓練大語言模型,先去通過大量的數據做應用訓練得到一個所謂的大模型,在大模型基礎上再去做一些少量數據注入之後做精調,是整個模型研發的一個模式或者一個範式。和以往的 AI 确實有非常大的變化,因為大家知道以前過去十年以來 AI 被廣泛使用,比如說我們在 To B 領網域或者是 CV ——計算機視覺在大量使用。在廣告營銷領網域,推薦算法也是大量使用,不管哪種都要先獲得這個場景裡的這些數據,根據你所用的模型,從頭開始去訓練,盡管之前模型不像現在的模型參數這麼大,一億個參數在去年可能還算是一個挺大的,今年大家都說 10 億是小模型,其實也是很大規模的模型。影像、語音的模型都是很大的模型,這些都是從頭開始做的。
所以,它對于模型來說,現在基于預訓練的模型研發和以前完全從頭從場景裡标數據訓模型,是完全不同的方式。大家好像都覺得現在大模型訓練對資源消耗,對算力消耗非常大,确實非常大,重新訓練一個大模型确實非常大。
廣泛應用來說,你不需要從頭開始訓練,你就是需要去選擇一個好用的通用大模型,結合你自己場景的數據去做 SFT 有監督精調,就可以不用原先從頭開始做,從頭開始訓練,就可以獲得一個很好應用效果的。
對于應用方來說,它所使用得到很好用的模型,所得用數據量,算力規模,所訓練模型出來的時間都大大縮短了,這是一個巨大的範式變化。
另外一點,我們現在一再強調 AI 原生應用,現在很多設計和應用整個設計的模式也好,範式也好,和以前也完全不一樣了。以前的應用基本是以業務為邏輯驅動,它的業務邏輯是什麼,不管是做電商購物車,還是編排一個網站,這都是規定好某一個邏輯,或者做一個社區,我們應該先建哪裡,後建哪裡,什麼地方上數據,什麼地方展現數據,什麼樣排序,這些東西都是人們想好的,固化下來的業務邏輯。
但是,現在很多基于生成式 AI 大模型能力,它的很多邏輯本身就是通過在模型裡實現自動編排,或者人工來輔助編排。所謂的 AI 原生應用,一定要原生使用大模型這樣生成式的模型能力,才有這樣的應用,這和以前也是完全不一樣的,這兩者是相疊加的,任何一個應用方或者是服務方,不管你是在傳統企業裡,還是在互聯網企業裡,你都需要去獲得一個很好的你自己的模型。你自己的模型,不是說你一定要從頭訓百億、千億,你可以去做一個微調,去獲得你自己的模型,然後再用這樣一個模型的能力,去設計出來你現在新的 AI 原生應用。
剛才提到 RAG,Agent, MOE,這些都能夠讓我們現在去寫一個應用,和以前是完全不同方式。所以,整體來說,所謂的大的 AI 原生,或者是生成式 AI 驅動的整個大模型,既發生在模型層,也發生在應用架構層。
第一個問題我多說一點,早期基于 CPU 是重邏輯的概念,大量的技術領網域的能力,而 AI 更多的是它的異構計算去做的加速,我們認為生成式 AI 帶來的這波浪潮足以改變從底層算力到上層應用,以前傳統互聯網應用到移動互聯網都是在 CPU 上。
現在 AI 原生還要用 CPU,但是它的負載大量遷移到了異構或者 GPU 上面來,從底層算力開始到它的核心能力變成了模型,再到上層應用,基于模型,而不是基于某一個你自己固化下來的邏輯能力,這是整體都帶來了我們将來完全不同的方式。
對于雲來說也是重大格局的變化。我們總說雲計算發展整體從 2006 年 AWS 正式開始,雲計算開始大規模發展,所有東西都基于傳統互聯網,基于傳統數字化,基于移動互聯網,或者說得更徹底,基于 CPU 計算芯片,今年盡管英偉達市值早就超過了英特爾,财報英偉達 GPU 的收入超過了高通,超過了英特爾,手機移動芯片,足以證明雲計算将來所面對的客戶需求,整個雲的市場從算力開始遷移到 GPU 為主,它的平台核心能力遷移到以模型能力為主,它的應用更好的使用模型能力,或者是基于模型能力去做的應用,AI 原生應用,這是新的發展,這是巨大的變革。
記者:亞馬遜最近開的大會上,英偉達去搞了一個智算集群,和雲是什麼關系。
侯震宇:AWS 提供的還是雲服務,底層肯定都是一個集群兩個集群,或者多個集群,一個大集群,它以雲的這樣的產品形态來對外去提供服務。這就是它的差别。
百舸萬卡以上的集群,會以一個雲的形态對外提供使用。所以這一點是兩者之間的差别。我們覺得集群某種程度上是技術層面的概念,雲是服務層面的概念,不完全一樣。
記者:百度自己做模型,也做 AI 原生應用,希望開發者基于咱們大模型去做 AI 原生應用,它的邊界在哪裡?能不能介紹一下百度目前跑得最好的 AI 原生應用有哪些?
侯震宇:所謂的邊界,我們對于百度來說有自己的 To C 業務,大家都很熟悉,我們的搜索、信息流,網盤,文庫,諸多的這些大家常見的產品,這些百度該怎麼做還會怎麼做。
但是我們現在聊的所謂大模型和雲是一個平台服務,我們不會過多會向上層進入到我們行業裡面,會不會做?會做一些,很多時候我們會去和合作夥伴一起打造,比如說我們往上層做,Comate 代碼助手——我們基于文心一言大模型去幫助大家寫代碼,這個東西是應用,并不是像千帆大模型是下層的平台。客觀講,我們是一個平台化的產品,我們服務主要是以平台提供服務,不會做太多這樣的應用。
To C 要怎麼做是我們的移動事業群去考慮的事情,基本上百度現在所做的這些内容,To B 我們核心服務全都是平台,會有一兩款這樣的像 Comate 代碼助手這樣的業務,這是我們所謂的邊界。所以可以看到但凡以平台形式去做的,我們都會發力去做,比如說我們面向有些大客戶更多需要集群類服務,就是基于百舸去提供。有的就想要一個大模型我們自己去做 SFT(監督微調),我們也有,就是千帆。或者你直接調用,我們在千帆上調用文心一言或其他大模型。百舸是開放平台,我們多芯兼容;千帆也是開放平台,你去跑什麼模型都可以在千帆上面跑,用千帆的工具鏈,和百舸一樣,你買了一萬張卡未必能很好用起來,但通過百舸能夠幫助你用起來,千帆也是一樣,能夠通過平台能力讓你的模型跑得效率更高。
說實話,計算資源,卡,數據,幾個消耗的資源,算力資源,數據資源,還有一些我們去調模型的人力資源都很貴,都需要時間。所以我們通過底層基礎設施和中層千帆大模型平台大幅度提升大家的效率,是我們核心的工作。
目前大家可以看到,但凡和生成式 AI 本身能力比較相關的,它确實也是在應用方面會被機器學到的,你說大的行業,金融、互聯網、教育、遊戲、電商,這些用得都比較多。一些場景,比如說所謂的客戶場景,生成文案廣告營銷等等,或者是像教育領網域都是現在我們比較大的新的應用場景。現在我們的整個在千帆平台上使用量還是非常大。
記者:客戶很關注降成本的問題,提高吞吐,使用一些輕量芯片,還有其他可以降低成本的嗎?2024 年可能會降低到什麼幅度?您的預期。
侯震宇:這裡有幾個概念,一個是訓練,一個是推理,真正應用到是推理,訓練是研發,你訓練出來的模型,如果這個模型達不到足夠好的效果,那就沒有意義,訓練不管消耗多少錢,很多還是很少,如果達不到效果是沒有意義的。所以,百舸比千帆做得更多,百舸為模型算法和運維專家提供全面的集群運維支持和任務全生命周期管理,同時具備訓練 / 推理加速、故障容錯、智能故障診斷等高級功能。千帆項目不止提供文心一言的調用,還有整個易用的工具鏈,包括針對模型評估、數據标注等,讓做大模型開發能更高效。
不管是數據資源,算力資源,人力資源确實都很貴,如果别人花 100 天能做出來的,你花 70 天或者 50 天,這就是省錢。我們在 2009 年就開始對 GPU 做加速了,是國内第一個做加速的公司。我們把整個規模,易用性和效率都堆在百舸上面,能力都堆在這,讓大家更有效利用好這些算力資源,數據其實也很貴,标注數據是非常昂貴的事情,能夠更快做到模型效果收斂,這也是一個非常重要的事情。
我們在百舸上面向很多客戶,我們有一些大的客戶在百度雲的平台上,千卡以上跑一個任務,我們會幫他們搞定有效訓練時長,同時也要幫助他去做函數收斂,越收斂意味着花更短的時間訓練出來,把算力資源釋放出來,這樣客戶就不用花這些錢了或者可以再去訓一個新的模型,這些都很關鍵。
2024 年我覺得算力的整體供應不确定性或緊張程度較大,所以如何能夠更有效使用算力資源,是一個大家都要面臨的問題。算力自身就貴,因為供給稀缺它都在漲價,你用得時間越短,效果一樣,就會越省錢,進行各種層面的優化,包括算力層面,算力推理層面的優化,模型訓練工具鏈優化,确保更短時間去使用達到同樣的效果,都是在 2024 年重點去關注的。
訓練出來之後你的模型不足夠好,你訓練它也沒有什麼用,現在的推理比以前貴多了,所以推理成本的下降也非常重要,在百舸平台上相應推理的優化也做得非常多。确保大家足夠少的錢能訓練出來想要的模型,以及用一個你可以接受的成本真的去使用起來 AI 大模型,這都是 2024 年非常關鍵的事。
我們談到 AppBuilder 面向應用,讓你建一個 AI 原生應用效率變得很高,你需要三個月、一個月寫出 AI 原生應用的 APP,現在基于我們的框架,10 天,3 天,3 小時就可以做到,至少能驗證你這個東西可不可用,或者是不是你想要的東西,這是核心的方面。
記者:關于數據庫方向的問題,這次也有數據庫迭代,針對當前大模型技術趨勢,百度在數據庫層面有什麼樣的規劃?怎麼去看向量數據庫?
侯震宇:雖然說範式的更新是大結構躍遷,前幾年我們就看到了,有做深度學習領網域研究的獲得圖靈獎,有做(計算機體系)結構的獲得圖靈獎,在黃金時代,各種各樣的芯片,異構模型崛起,它(AI)是一個高速發展的階段。而如今大模型确實是 AI 領網域特别熱的一個點,但大模型只有 AI 也不夠,AI 原生應用最終落腳還是在應用,應用可能會有 AI 驅動,仍然有自己的邏輯,AI 研發是數據驅動的,看數據在哪裡,我們不只發布了數據庫,也更新了百舸,滄海、太行。
我們還是希望和大家說一下,一個巨大的躍遷,不代表 CPU 消失了,不代表傳統的雲計算消失了,在整個數據庫,基礎雲計算上我們仍然在做,它只是比例問題。CPU 是永恒的,CPU 是做加速,更多技術賦能到好的產品上來。具體到數據庫來說,向量數據庫以前也有,只是現在在大模型時代,确實是一個被拉起來的更大的話題,所以我們有自己的向量數據庫,我們也會再去進一步發布。
除了向量數據庫以外,我們還會發雲原生數據庫 GaiaDB。百度内部數據庫現在也都已經遷到了 Gaia 上面來,這方面我們做了很多工作。大數據也會做持續性更新。大模型開發裡一個比較有意思的點,我們現在在想如何去做一個大模型,以前我們寫一個程式用 GCC 來編有沒有 BUG,用 GDB 去調,現在沒有這種 BUG,而是需要去用新的一組數據集的分布,再去訓到這個模型裡面來,改掉裡面模型的效果,這真的是一個巨大的變化。
對于模型已經不是所謂的 BUG 概念了,全都是基于數據庫,怎麼對數據進行流處理,數據清洗,大數據分析,在大的 AI 原生時代它的重要性變得更高,盡管它看上去屬于傳統基礎雲的範疇。我們在這些領網域都會大幅度加強,來配合在 AI 原生使用上都能用起來,比如說訓一個模型出來,或者訓的模型數據存在雲上,這都需要高速并行,理論上百舸裡面包含了高速并行功能,同時也屬于滄海的一部分,這些都是我們傳統的計算存儲產品的更新,但是在大模型時代也都還在持續去做。
記者:大模型能給廠商帶來多少收益,也是大家比較關心的問題。10 月份,OpenAI 發布他們平均收益超過 1 億美金了,像這樣一個收益量級在國内大概是屬于怎樣的級别,國内有沒有大模型廠商達到這樣的收益水平?大家說 2023 年是國内大模型元年,今年會是國内大模型收入的高點嗎?或者說,高點還沒有到來?
侯震宇:今年是不是收入高峰,還遠沒有到,我們可以看到今年雖然說是大模型元年,我們一直在外面接觸客戶,所有人過來跟你談,今年上半年很多客戶、行業仍然是屬于學習階段,不能說所有的客戶都在學習,其實包括百度也是一樣,因為這個變化确實太大了,很多客戶來學習,不知道該怎麼應用,大家都會擁抱大模型。
下半年我覺得從我們的角度來說,再接觸的客戶,或者上半年接觸過的客戶,到下半年就會改變,他們開始逐步理解大模型到底是什麼事,大概其能夠給業務帶來什麼幫助,這非常好,知道是什麼事到真的能用還需要一段時間。國内逐步放開的政策,2023 年雖然說是元年,但更多像是一個訓模型的元年,真正 AI 原生應用現在還沒有展現出來,最終對于大模型賺錢或者是雲計算通過大模型來賺錢,一部分是模型生產,另外更多還是在應用層面調用模型收入的錢,還是調用模型產生算力的錢,這将來會是更大的規模。
如果沒有產品調用,意味着你做出來這個模型效果不夠好或者用不起,意味着這個產業就有問題,所以不會有更多人再去訓,所以我覺得真正到 AI 原生應用能夠開始(增長起來),現在已經看到有相對比較小的(產品),也确實有一些大的(產品)在使用我們的大模型了。現在也有很多創業公司想用大模型做很多事情,這類用戶的體量也很大,這是最早一波吃螃蟹的人。剛才我也說到,我們最想要的是什麼,真正有自己業務需要用大模型,不管是加強還是重構自己的業務,這一票的人他們将來對模型,對算力的消耗,我們相信都是最大的,最終對 AI 原生應用,賦能應用都是在明年開始逐步能夠出來,今年才剛剛開始。
現在大模型逐漸開放服務之後,Q4 開始,大家能夠更好、更快地使用大模型的能力,我相信明年是 AI 原生應用的元年。