今天小編分享的互聯網經驗:知識管理+大模型,“1+N=2”工程化适配落地,歡迎閱讀。
本文摘自《雲栖戰略參考》,這本刊物由阿裡雲與钛媒體聯合策劃。目的是為了把各個行業先行者的技術探索、業務實踐呈現出來,與思考同樣問題的 " 數字先行者 " 共同探讨、碰撞,希望這些内容能讓你有所啟發。
從大模型混戰到 AI 原生應用湧現,耗時僅一年。如今,生成式人工智能 ( GenAI ) 早已從 C 端應用滲透進企業級 ( ToB ) 業務領網域,尤其是那些依賴于信息的專業化提煉加工、内容生成、信息傳遞分發的業務,成為 GenAI 滲透各個領網域最開始的 " 切口 "。
正如藍凌研究院副院長黃德毅所說 :"GenAI 衝擊最顯著的領網域,首先是内容生成行業,比如媒體和法律服務。這些行業原來最大的價值體現是内容分析、生成和分發,但是當 AIGC 愈發成熟之後,内容制作的成本大幅降低甚至降為零,這導致原有的價值體系不可避免地瓦解。相應地,該行業的傳統業務模式所承載的價值将 日漸式微,價值創造的重心轉移到了分發的平台上。"
面臨 GenAI 這樣一個巨大的技術爆點,企業、數字化廠商以及周邊的生态該如何去擁抱,從什麼樣的業務和場景作為切入點,成為新周期的第一個難題。
對藍凌而言,通過大模型賦予知識管理業務新的活力,已經走出了一條可行的路。
智能更新方法論
要想搭上 GenAI 的東風,黃德毅院長根據藍凌的經驗,給出了一個解題思路——需要解構 AI 2.0 時代的底層邏輯,并篩選有價值場景,才能乘風而上。
首先,理解當前 GenAI 帶來的第一價值點——降低依賴人的成本。
從個人角度,GenAI 大幅降低了内容工作者檢索信息的時間成本和機會成本。通過大語言對話模型,對全網信息進行檢索并生成流暢的回答,使得信息檢索的目的性、準确性與提問内容更加匹配,為個人省略了大量信息的檢索、篩選和再加工時間。
從組織角度,GenAI 打破了部門、組織間信息對稱的壁壘,快速生成對應結果。部門、組織每天都會產生大量的結構化或非結構化數據,有些數據需要加工、處理分析,有些數據需要快速傳遞,GenAI 恰好可以快速地自動化生成、并被需要的人或組織檢索到,大幅降低了信息組合、生成、傳遞的時間成本。
可以理解為,現階段的 GenAI 擺脫了部分通識性認知對人的依賴,以更強的自動化大幅降低獲得認知的成本。
其次,用合理的機制篩選高可行性場景。
近水樓台先得月,是當前 GenAI 擁抱業務的中心思想。
與内容強相關的業務天然與 GenAI 更容易擦出火花,聰明的市場也很快在探索中找到了一些場景,比如 MCN 產業的内容生成、遊戲行業的影像生成、軟體開發領網域的 Coding 以及幾乎所有企業都需要的知識管理。
再考慮當前 GenAI 暴露出來的一些短板——比如大模型幻覺,所以要考慮因為自動化帶來的信息錯誤率,以及該場景對這種錯誤率的接受度因素。
這樣就形成了基于内容強相關、内容容錯率的篩選機制," 更合适 " 的業務場景逐漸清晰的被剝離出來。比如更具體的 MCN 腳本生成、遊戲的插圖生成、軟體開發的代碼優化,以及在企業級知識管理場景下的搜索和問答,大模型加持帶來了對原有業務質的提升。
所以總結來看,找出好的場景要重點考慮兩個度——業務可自動化程度,業務對結果容錯的忍耐度。
因此在更泛化、更通用性訴求中,企業知識管理場景脫穎而出。
企業應用 " 知識管理 + 大模型 " 的必備條件
任何一項足以改變時代的技術出現,都不會是一蹴而就的。
站在黃德毅院長的角度 :" 藍凌擁抱大模型既是自身業務、產品的延續,也是企業客戶對革命性技術加持業務的嘗試。" 即藍凌将知識管理業務與大模型結合落地到客戶的業務當中去,需要有兩個判斷。一是判斷在技術儲備上與 AIGC 三要素的匹配,二是判斷客戶當下對大模型 + 知識管理的 " 合理幻想 "。
匹配 AIGC 三要素,即數據、算力、算法。
在數據準備上,知識管理從早期顯性知識的文檔管理、内容管理 ; 到雲計算時期的包含行業知識、經驗在内的隐性知識管理 ; 再到 AI 1.0 時期的知識場景化,推薦、搜索供給 ; 演進到現在 AI 2.0 階段的大模型集約化、靈活化,革命性的将經驗與數據一同萃取、輸出,更精準的問答式供給。
這裡的數據準備既有藍凌對知識管理經驗性數據的長期積累,也有客戶自身業務數據、企業專業知識性數據的積累。同時滿足這兩類屬性專有數據的基礎量,才算達标 " 知識管理 + 大模型 " 的數據要素。
在算力準備上,目前大模型算力主要供給方式,一是雲服務商的支撐,二是與算力服務商合作共建。而藍凌的業務很早就與阿裡雲展開深度合作,在調用算力方面,阿裡雲作為國内領先的雲服務商,能夠保證算力的充足供給,并且公共雲也是目前獲得算力性價比最高的方式。
在算法準備上,基于國内知識管理領網域多年的深耕,藍凌打磨出了一套知識管理的業務模型,在搜索、問答、流程等業務積累了優質的算法模型。
同時阿裡通義大模型本身也有許多支持和針對知識管理的具體業務模型,藍凌只需要做好自身算法模型與通義大模型的對接。
另一個判斷,是從企業用戶的需求出發,了解它們對大模型 + 知識管理的訴求是什麼。
在知識管理場景下,企業對大模型的設想主要體現在兩方面。
一是個體效率提升。例如,企業希望業務人員在更短時間内找到更好、更合适的案例用以展示輸出 ; 領導想要看各類報表和數據時即刻就能查到相關内容 ; 新入職人員盡快了解規章制度投入工作等等。
二是輔助性訴求。例如,知識搜索助手自動化拆解案例行業、業務場景信息并構建案例圖譜 ; 報表助手快速從所有數據中摘取答案并自然回答,同時标注來源 ; 新人助手随時回答交流,幫助新人快速成長上崗等。
在效率和加強輔助的基礎上,安全性與成本也是企業用戶非常關注的兩大要素。
企業希望應用的 AI 知識管理在數據安全、模型安全、算法安全、技術倫理合規、應用本身安全等有所保障。
此外,企業需要以一種相對可控成本的方式去使用大模型能力,這就不得不考慮包括算力訓練成本、專業人才成本、數據準備成本等不能繞開的支出項。
從準備條件來看,企業想要把 " 知識管理 + 大模型 " 成功落地,既要明确訴求的側重點,也要評估數據、算法、算力、成本代價等硬性條件是否允許。
" 知識管理 + 大模型 " 的落地路徑
" 知識管理 + 大模型 " 落地通常不是簡單的 1+1=2 的公式。
黃德毅院長通過藍凌大量的客戶實踐,将其總結為 "1+N=2",其中 "1" 為知識管理下的确定場景,"N" 為任意模型的組合。原因在于 AI 知識管理在現階段幾乎不可能只通過一個基礎大模型就能達到業務目标。
例如在合同起草、籤訂、流轉審批的場景下,需要通義千問、通義妙筆、通義法睿、語義向量模型同時支持,既有基礎大模型,也有專有模型,又有私有模型一同協作,才能實現合同業務的正常流轉。
而在知識管理領網域,又可細化出搜索、問答、合同、流程、報表、制度、培訓等場景,面向這些不同的細分場景就需要不同模型的參與組合。
常見的搜索、問答會用到通義千問、語義向量模型、摘要模型、文檔分類一同協作,生成信息抽取、生成式問答能力;報表、制度、流程等場景就會用到通義千問、通義妙筆、語義向量模型,生成代碼能力、問答能力、 NL2SQL ( Natural Language To SQL,将用戶輸入的自然語言轉為可執行的 SQL 語句 ) 能力,完成場景訴求。
當把這些具體場景放到更廣泛的客戶群體當中去時,其變量又會增加。比如客戶的業務已經在不同的雲上,也可能同時用私有雲、專有雲、公共雲、混合雲的業務承載方式,這就需要多模型的策略去實現業務落地。
所以,要在企業客戶落地 " 知識管理 + 大模型 " 是一套復雜的 "1+N=2" 工程,這個復雜度更多的來自于客戶原有的數字化基礎特點與模型能力的垂直細分。
由此,黃德毅院長也給出了一個大模型的選型思路。他認為,經歷過國產大模型的百模大戰之後,當前國產大模型之間的能力差距并沒有非常明顯,企業在選擇模型合作時,可以更多的考慮 ToB 屬性。
在眾多模型之中,通義大模型的 ToB 屬性相對比較強,在模型能力、客戶應用規模上都有基礎,無論是面向客戶還是面向生态,ToB 的業務場景數量足夠多、足夠細分,同時服務的經驗相對更豐富,通義大模型現階段在 ToB 產業鏈的寬度與長度可能會更有優勢一些。
選型過後,将是落地大模型最難的部分——技術實踐。
現階段大模型的技術路線主要是三類:1. 直接使用大模型;2. 工程化适配,包括微調、提示工程、檢索增強生成 ( Retrieval Augmented Generation,RAG ) 等方式;3. 自主研發。
顯而易見的是,企業用何種技術路線實現大模型應用都逃不開大模型的 " 不可能三角 " ——即從成本、性能、效果的三角關系間取舍、權衡。
從當前企業用戶的應用情況來看,對大模型的核心要求是穩定和價格可控。所以在遵循 " 不可能三角 " 條件下,藍凌基本上排除自研大模型的路徑。
黃德毅院長總結藍凌的成功經驗時提到:" 藍凌在面向客戶提供知識管理服務時,如果采用直接調用大模型,那麼實際上得到的結果是大模型本身的知識,與企業特色化的業務有很大差距,從效果的呈現來看并沒有給企業帶去足夠的價值。" 直接使用的路徑也不太可行。
只剩下一條工程化适配的路。
在工程化适配的路徑中,其中一種方式是基于開源模型,通過提示詞工程、微調等多種方式,将業務落地。但從成本角度以及預期結果效果來看,企業用這種方式的 ROI 不好預測。
另一種方式是用企業内部的專屬知識與閉源大模型的泛化能力、推理能力融合。把企業内部的知識、數據轉化到大模型當中,将企業内部向量數據庫和通義千問大模型對接,基于 RAG 等大模型工程化适配技術,利用大模型能力來處理帶有企業屬性的數據,并輸出符合企業 屬性的回答和生成式的内容。
通過大量的實踐效果來看,根據企業用戶的技術儲備、成本、業務復雜度等多方因素綜合評估,藍凌将兩種工程化适配的方式結合使用,更快、更靈活的将 " 知識管理 + 大模型 " 在企業端成功落地。
更好的 TC-PMF,預期更好的生產力
新技術、新產品體現的生命周期價值,一定要在效果當中反映出來,過去 ToB 的業務追求 PMF ( 產品市場契 合度 ) ,随着大模型的興起,TC-PMF ( 技術成本與 產品市場契合度 ) 或将成為新的标準。
黃德毅院長認為:" 無論是藍凌自身,亦或應用 " 知識管理 + 大模型 " 的企業客戶,既是 GenAI 的開拓者也是紅利受益者,都非常關注 TC-PMF,只是所站的角度不同。"
為了更高效地滿足跨行業跨領網域客戶的各類不同場景需求,藍凌 AI-PaaS 使用了阿裡雲百煉大模型服務平台,進行各種大模型能力的一站式管理、調用和調優,以降低使用的成本和復雜性。
此外,百煉平台 " 開箱即用 " 的功能通過标準化的接口使模型間和系統間的對接更為快捷,進一步加速了應用開發進程。
簡而言之,通過調用百煉平台上統一、即插即用的大模型能力,不僅提升了開發效率,還優化了資源利用效率,減少了對外部多方協調的依賴。
對藍凌而言可能只需要在一個模型平台上就能獲取足夠的服務,極大降低了找模型、選模型、再訓練、整合、實施、配置的成本,從而達到一個好的 TC-PMF。
站在藍凌的視角,最理想的狀況就是,通過與極少數大模型服務商進行合作,就能夠獲得全方位服務,簡化前期選型交流和後期部署交付流程,避免跨廠商合作帶來的高昂成本。希望将來阿裡百煉平台能夠推出更多模型種類,封裝更多的細分場景模型,比如信息抽取模型、摘要模型、文檔分類模型、專業模型等等,越是細分的模型組合越能支撐復雜的業務場景。
站在企業客戶的視角,他們希望藍凌帶來的 " 知識管理 + 大模型 " 能大幅提升業務效能,甚至創造額外的業務價值,期待這種新技術、新產品能夠幫助它們快速獲得新周期的競争優勢,同時要在成本可控的前提下,更快速、更靈活的落地,更及時的響應服務調整。
兩種視角的 TC-PMF 都對通義大模型提出了更高的技術和產品要求,也期待下一階段的 AI Agent 產品,甚至更廣義的 MaaS 服務或者模型中台產品誕生。
" 知識管理 + 大模型 " 給 AI 2.0 時代的 ToB 服務開了個好頭,未來也必将誕生能力更強的模型產品、服務,助力產業鏈整體激發新質生產力。