今天小編分享的财經經驗:清華學霸引爆“長文本”大戰,大模型的應用前景清晰了嗎?,歡迎閲讀。
文 | 智能相對論,作者 | 沈浪
Long-LLM(長文本大模型)時代似乎來得有些突然,而引爆這場熱潮的,竟是一家由清華學霸牽頭的本土 AI 初創企業。
前不久,月之暗面(Moonshot AI)公司宣布旗下對話式 AI 助理產品 Kimi 應用現已支持 200 萬字無損上下文輸入。
對比去年 10 月份 Kimi 上線時僅支持的 20 萬字,這一波更新直接提升了 10 倍文本處理能力,同時也引起了強烈的市場反應,特别是在資本市場,Kimi 概念股應運而生,諸如九安醫療、華策影視、中廣天擇等都受益于 Kimi 概念而實現了股價不同程度的漲幅。
這些刺激更讓大模型領網域徹底卷起了長文本大戰。
" 長文本 " 大戰,卷的不是字數而是财力
阿裏率先完成自家的大模型產品更新,強化長文本處理能力,免費面向大眾開放最高 1000 萬字的長文本處理能力。
360 則緊随其後,宣布旗下 360 智腦正式内測 500 萬字的長文本功能,并在 360AI 浏覽器開放給用户使用。
而百度也宣布在下個月進行版本更新,開放長文本能力,文字範圍會在 200 萬 -500 萬字。
目前,文心一言的文本上限大致為 2.8 萬字。而像 GPT-4Turbo-128k 公布的文本範圍也不過為 10 萬漢字,Claude3200k 上下文約 16 萬漢字。
可以説,這一波熱潮直接把國内的大模型廠商一下子都拉進了百萬量級的長文本競賽,而主流廠商的入局也為這場 " 長文本 " 大戰增添了很多看頭。
目前來看," 長文本 " 大戰的賽點主要呈現在兩個方面。
一方面,是大模型的支持文本參數。類似阿裏通義千問的 1000 萬字、360 智腦的 500 萬字、百度文心一言的 200 萬 -500 萬字、Kimi 的 200 萬字等等,都在極力向市場争 " 彩頭 ",告訴用户自家的長文本處理能力足夠 " 長 "。
另一方面,是長文本處理能力的開放程度。有意思的是,Kimi 是免費開放給用户使用的,阿裏通義千問的長文本處理功能也是免費的,360 智腦、百度文心一言也沒有要收費的意思。——以 " 長文本 " 大戰為例,今年的大模型競争遠比去年要 " 卷 " 得多。
還記得去年大火的妙鴨相機,以及各式各樣的圖片生成式服務,都或多或少地通過各種形式如充值、辦會員等,要求用户付費才能體驗。
今年大模型領網域的這把 " 火 " 燒得旺,也燒的離奇地 "free"。
為什麼?
Kimi 自更新以來,就有大量用户不斷湧入,激增的流量更是一度讓月之暗面(Moonshot AI)的伺服器承受了巨大的壓力,一度陷入宕機,旗下的 App 和小程式都無法正常使用。
根據月之暗面(Moonshot AI)發布的官方消息,從 3.20 觀測到流量異常增高後,已經進行了 5 次擴容工作。推理資源會持續配合流量進行擴容,以盡量承載持續增長的用户量。
簡單來説,用户對長文本功能是非常有興趣的,相關的市場需求還在保持持續性的、爆炸性的增長。同時,大量的用户湧進,不僅提高了大模型產品的知名度,更重要的是在大量用户的基礎上通過類似于 UGC 的模式去探索大模型的應用,或許更能進一步推動 Long-LLM(長文本大模型)的商業化進程。
當然,在這個過程中,不可避免地就得投入大量資金,一旦商業化加速,大模型廠商就得做好 " 卷 " 财力的準備。
阿裏通義千問目前免費對所有人開放高達萬頁的文檔處理能力,如果要計算成本,按照目前最便宜的市價 0.1 元 / 頁,10000 頁的文檔光解析費用就要 1000 元,這還不包括解析完成之後大模型處理文檔的成本。考慮到通義千問網頁、APP、釘釘等多個端口的用户基數,需要投入的資金恐怕不會是個小數目。
大模型的商業化在開始階段并非 " 賺錢 ",而是 " 燒錢 "。
長文本,直接 " 接駁 " 商業化場景
在大模型的商業化進程上,長文本的爆火是很關鍵的一環。
就大模型的技術原理而言,解決長文本問題是必要的。因為文本長度的提高,對應的模型能解決問題的邊界也将大幅提升,兩者呈現出明顯的正向關系。
傳統的文本處理模型受限于訓練結構,可支持的文本範圍都不算長,在處理復雜任務和深度專業知識(這一類知識往往都是長篇巨著)時,只能拆解輸入訓練,由此就有可能導致輸出的結果上下文邏輯不連貫不順暢等問題。
區别于傳統的文本處理模型,長文本模型就具備更準确的文本理解和生成能力以及更強大的跨領網域遷移能力。這對于打造垂直領網域的行業專家是一個非常必要的能力支持,比如面向一些長篇巨制的醫療文獻、法律檔案、财務報告等,長文本模型就具備更好的理解能力,對應完成跨領網域學習和應用,從而打造出更專業的醫療助理、法律助理以及金融助理等應用。
話不多説,實踐一下。
在這裏,「智能相對論」向阿裏通義千問相繼 " 投喂 " 了幾本長達數百頁的專業書籍,涵蓋以《高產母豬飼養技術有問必答》為代表的農業養殖、以《犬貓營養需要》為代表的寵物喂養等等小眾領網域。
結果所能實現的效果确實令人驚訝,阿裏通義千問不僅能高度概括總結這些長篇巨著的主要内容,還能有針對性的給出具體篇章的知識解答。比如,在《高產母豬飼養技術有問必答》一書中,「智能相對論」向其提問 " 夏季高温提問應該如何飼養母豬?" 很快就得到了書中的精煉解答。
這意味着什麼?只要用户有足夠多的專業書籍 " 投喂 " 給大模型,那麼大模型就可以成長為一個專業的專家助理,幫助用户快速解答相關專業問題。
在日常生活中,或許有很多書籍是我們沒辦法去仔細閲讀和學習的,但是只要有長文本大模型予以支持,那麼基本上人人都能創造一個專業的垂直領網域助理。
這或許會颠覆現在我們獲取信息、知識的渠道,去百度搜索或是去知乎提問、亦或是去小紅書讨論這些路徑都将被替代。
在 Kimi 開放 20 萬字文本處理能力的時候,其做了一個簡單的對比,20 萬字等于什麼?答案是等于先秦的全部古籍。随着長文本大模型進入百萬量級的迭代,那麼這些能力還能實現進一步的進化,對應所賦予場景應用的機會就是無限的。
如今,在 AI 領網域,Agent 的話題也很火,被認為是下一個主流的應用形态。那麼,打造 Agent 的關鍵是什麼?答案正是大模型的長文本處理能力。
比如,Kimi 就在幫助元隆雅圖等公司進行營銷更新,基于長文本處理能力來提供爆品文案分析、文案寫作、市場分析、輔助營銷策劃等功能。
盡管現在很多相關的應用還處在探索階段,但是誰又能确定下一個爆款應用不是出自自家的大模型 + 某個 C 端用户的想法 / 某個企業客户的業務融合?正因如此,大模型廠商們才不顧一切的更新并開放長文本功能,為下一場應用上的爆火做準備。
目前,長本文的火爆還只是技術上的,接下來的爆點大概率将是應用上的爆發。
寫在最後
2024 年是大模型大規模走向商業化的關鍵一年。從 Kimi 的火爆程度來看,以長文本為代表的技術迭代走向 C 端引發了非常積極的反饋。同時,在「智能相對論」的實踐中,也預感這一能力随着技術的成熟和完善,必然會在 C 端用户的手中被 " 玩出花來 "。
只是目前很多的 " 玩法 " 還缺乏打磨,顯得比較粗糙。OpenAI 在發布 GPT 商店時,就期望要打造一個全新的生态,人人都能創造自己的專屬 GPTs。
現在,擺在大眾面前的長文本熱潮,其實就是一個全民時代到來的信号。只要用户有書,會投喂,那麼同樣可以在國内的大模型平台上打造出屬于自己想要的專業助理,進而延伸到應用端的火爆。
當然,在這個過程中,書籍的版權問題、平台的審核問題以及巨大的流量湧入所帶來的諸多挑戰和問題,也是大模型走向商業化的難點。但是,其根本的方向是清晰的,Long-LLM(長文本大模型)時代已經拉開序幕,從技術到應用,接下來大模型廠商們有得卷了。
説實在,就目前各大廠商公布的參數,從 500 萬到 1000 萬,基本上也足夠用了。大模型在長文本技術層面或許不會再有什麼值得卷了,哪怕是有也只是背地裏正常迭代和發展。
接下來的爆點只能是往應用層面來看。不管是 To C 還是 To B,誰家的平台最先把大眾化的應用探索并驗證出來,再加以打磨推向大眾市場,那麼誰就有可能成為下一個市場的寵兒。