今天小編分享的科學經驗:當購物用上大模型!阿裡媽媽首發世界知識大模型,破解兩大推薦難題,歡迎閱讀。
在推薦、廣告場景,如何利用好大模型的能力?這是個很有挑戰的命題。
背後主要有兩個核心難點:
1)LLM 雖然具備豐富的世界知識和推理能力,但缺乏電商領網域的專業知識,在直接應用中往往表現欠佳。
2)LLM 的互動方式多為文本,而直接将用戶歷史行為以文本格式描述會導致輸入信息冗長、信息密度低等問題,對建模和推理都造成了困擾。
為了解決以上問題,阿裡媽媽提出了一種世界知識大模型 URM,通過知識注入和信息對齊,讓 LLM 成為兼顧世界知識和電商知識的專家。相比于傳統的推薦模型,URM 通過對用戶興趣的全面理解,可實現基于推理認知能力的用戶興趣推薦。
為了在低時延、高 QPS 要求的實際系統中上線應用,阿裡媽媽技術團隊設計了一套面向用戶行為動态捕捉的異步推理鏈路。
目前,URM 已經在阿裡媽媽展示廣告場景上線,在商家的投放效果和消費者的購物體驗等指标上均帶來了顯著提升。
以下面這個例子為例,一個對嵌入式家電、收納用品有過歷史行為的用戶,系統推測用戶在關注裝修且處于硬裝的早期階段,且根據點擊商品推斷用戶比較注重生活品質,因此推薦了一些全屋定制類產品以及高品質的家電。
在傳統推薦任務之外,通過特定的文字引導,URM 可結合用戶的歷史興趣產出更适合當前情境的結果。通過用戶行為我們推測用戶是一位男童的母親,并且關注過兒童的新年衣服和女士牛仔褲。
當引導詞增加新年時,推薦結果以兒童新年服裝為主,而傳統任務下系統會傾向于推薦用戶近期浏覽較多的女式牛仔褲。
本屆互聯網技術領網域國際頂級學術會議 - 國際萬維網大會(International World Wide Web Conference, 簡稱 WWW)于 4 月 28 日在悉尼召開。
會議期間,淘天集團的阿裡媽媽共同主持一個計算廣告算法技術相關的 Tutorial(講座),内容為介紹計算廣告領網域的技術發展脈絡,以及阿裡媽媽在該領網域的最新技術突破——
阿裡媽媽 LMA2 廣告大模型系列中的 URM(Universal Recommendation Model)世界知識大模型,首次重磅亮相。
世界知識大模型 URM
個性化推薦在人們的日常生活中出現頻率越來越高。為了滿足用戶的多樣化需求,推薦系統中的任務定義也更加多元化,如多場景推薦、多目标推薦、發現性推薦等等。
參考 LLM 在自然語言處理領網域的巨大成功,阿裡媽媽技術團隊希望基于 LLM 構建電商領網域的世界知識大模型,使得它能同時具備 LLM 的世界知識和電商領網域的專業知識,且能夠輕松應對上述全部任務。
基于此,阿裡媽媽技術團隊提出了世界知識大模型 Universal Recommendation Model(以下稱 URM),以預訓練的 LLM 為基座,将多任務設計融入 Prompt 設計中,通過 ID 表征的知識注入和電商領網域的任務對齊,實現對用戶歷史興趣的理解和推理并最終推薦出符合用戶興趣的結果。
以下将從任務定義、整體架構、離線實驗三方面詳細展開。
任務定義
參考 LLM 的訓練範式,在 URM 中,阿裡媽媽技術團隊利用文本來定義不同的推薦任務。
考慮到推薦場景用戶行為的重要性和豐富性,為了充分刻畫用戶的歷史行為,避免商品标題的冗長和低密度,URM 将商品 ID 作為一種特殊的 token 注入文本描述,實現用戶行為序列的高效表達。
考慮到工業場景落地的效率,URM 直接生成商品 ID,同時在輸出結果中保留了文本,在對齊電商任務的同時保留 LLM 本身的知識。
多任務會通過輸入中的任務描述體現,部分示例參考下表。
整體架構
為了保留 LLM 的預訓練知識,阿裡媽媽技術團隊保留多層 Transformer 結構不變,對輸入層和輸出層的結構進行修改,如下圖所示。
輸入端,輸入序列由用戶行為中的商品 ID、任務提示中的文本 token 以及 [ UM ] 、 [ LM ] 等特定查詢符組成。商品 ID 通過分布式商品 Embedding 模塊映射為商品 Embedding,其他文本映射為 Token Embedding,商品 Embedding 或 Token Embedding 與 Postion Embedding 相加後輸入到 LLM 的主幹網絡(對于使用 RoPE 的模型而言則不存在顯式的 Position Embedding)。
輸出端,為了避免產出推薦結果和推理文本相互幹擾,阿裡媽媽技術團隊在輸入中增加了 [ UM ] 和 [ LM ] 2 種特殊字元來表示當前應該輸出用戶表征還是開始生成文本。與 [ UM ] 符号對應的輸出通過用戶建模頭 hUM 映射到用戶表示空間,用于候選商品的生成;與 [ LM ] 符号及其後續符号對應的輸出通過語言模型頭 hLM 映射到文本空間,用于文本 token 的生成。
△URM 整體架構
URM 架構區别于傳統 LLM 主要有 2 個模塊,1 是商品多模态融合的表征方式,2 是兼顧效果和效率的 Sequence-In-Set-Out 生成方式。
以下會分别介紹這兩部分。最後介紹 URM 的訓練方式。
商品多模态融合表征。
在傳統推薦模型中,ID 表征是面向特定任務的數據分布學習的,代表了商品間的相似關系,壓縮了電商領網域的協同信息。而 LLM 中通常采用文本、影像等語義表征,描述内容信息間的相似性。
為了提升 LLM 對電商信号的理解,同時保留 LLM 的知識,表征層設計了 ID 表征和語義表征的融合模塊來表達商品,并通過可學習 MLP 層實現 ID 表征和文本、影像等語義表征的對齊。
同時,這套融合表征的設計具備較強的可擴展性,如語義 ID 等 token 均可作為新增模态引入,來不斷強化商品的表達能力。
△商品融合表征,輸入 ID/Text/Image 表征固定,MLP 層可學習
Seqence-In-Set-Out 生成方式
推薦的目标是從一個千萬級别的候選庫中找到曝光 / 點擊概率最大的 K 個商品,它和語言模型 LM 從十萬規模的詞表空間中生成語言概率最大的 Token,是類似的問題。
因此若不考慮計算成本,可以通過下述方式獲得結果:
其中 U 是大語言模型生成的用戶表征,對應 LM 中的隐藏層特征,W 是所有商品的融合表征,對應 LLM 中的最後一層的參數。考慮到工業界的落地可行性,阿裡媽媽技術團隊使用生成的用戶表征和候選商品表征的内積作為分數并采樣分數 TopK 的商品作為最終生成的結果。
在這種内積計算的範式下,模型的表達能力相對受限,對用戶和商品的建模能力較差且推薦集合的多樣性也會較差,難以發揮大語言模型的優勢。函數逼近理論的一個結論是,特征的多個内積的線性組合可以逼近任意復雜的函數。因此通過增加 [ UM ] token 的數量使 URM 在一次前向過程中并行生成多個用戶表征 U=(U1,……,UH),最終用戶和商品之間的打分為
這種 Set-Out 的多輸出方式不僅能夠保持僅需一次前向計算的相同推理效率,而且随 token 數上漲召回指标顯著提升,同時解決了單一用戶表征興趣覆蓋度有限的問題。
△不同 [ UM ] Token 輸出的可視化訓練方式
整體訓練損失包括商品推薦任務損失和文本生成任務損失。
輸出序列表示為
目标文本表示為
目标商品表示為
商品推薦任務通過噪聲對比估計(NCE)損失來優化:
其中用戶建模頭 hUM 輸出的用戶表征:
在每個批次中,負樣本 N 是從商品候選中基于其出現頻率采樣得到的。
文本生成任務可以通過目标文本序列的負對數似然來優化:
其中 P= softmax ( hLM ( ψ ( ⋅ ) ) 是由語言模型頭 hLM 輸出的概率。
最終的訓練目标是:
其中 η 是權衡超參數。考慮到 URM 對 LLM 的輸入和輸出層進行了顯著修改,阿裡媽媽技術團隊采用完整參數的有監督微調(SFT),僅凍結商品的原始表征。
離線實驗
URM 使用多任務融合數據集訓練,并在生產數據集上取得了平均 11.0% 的 Recall 提升,在 6 個子任務(共 9 個任務)中都超越了線上使用 Target-Attention 結構的傳統推薦模型。
△URM 在多任務上的表現 vs 傳統模型
進一步的消融實驗,驗證了表征融合模塊的有效性,也驗證了随 UM token 數量上漲召回 Recall 呈顯著上漲。Figure6 驗證了 URM 仍具有良好的文本理解能力和泛化能力,對已知的 query 文本和未知的 query 都有良好的推薦表現。
△商品多模态表征融合模塊消融實驗
△UM 頭輸出數量對效果的影響
高 QPS 低時延約束下的落地方案
考慮到 LLM 的推理時延較長,無法滿足在線請求的時延約束,阿裡媽媽技術團隊建設了一套異步推理的大模型召回鏈路。
如下圖所示,在用戶有淘系行為時異步觸發 URM 推理,并将結果做持久化存儲,供在線召回階段讀取使用。
在模型推理服務上,由于 URM 在商品多模态融合表征模塊和 User 表征檢索方式的改造,需要在 LLM 推理中增加 HashTable 支持,并支持推理表征的向量檢索。
為了進一步提升資源利用率,阿裡媽媽技術團隊實現了多 instance 在同一容器的部署,将 URM 推理的并發 qps 提升 200%。
結語
本文主要介紹了阿裡媽媽 LMA 2 廣告大模型系列中的世界知識大模型 URM 在建模和落地方面的思考和進展。通過結合大模型的通用知識和電商領網域的專家知識,URM 能夠更加精準地預測用戶的潛在興趣和購物需求,為商家和消費者提供更優質的服務。
更多 URM 的細節歡迎關注後續 " 阿裡媽媽技術 " 的公眾号文章或參考論文。
論文鏈接:
https://arxiv.org/pdf/2502.03041
* 本文系量子位獲授權刊載,觀點僅為原作者所有。
一鍵三連「點贊」「轉發」「小心心」
歡迎在評論區留下你的想法!
— 完 —
點亮星标
科技前沿進展每日見