今天小編分享的科學經驗:中科大ICLR2025:特定領網域僅用5%訓練數據,知識準确率提升14%,歡迎閱讀。
讓大語言模型更懂特定領網域知識,有新招了!
來自中國科學技術大學 MIRA 實驗室的王傑教授團隊提出了提出了一個創新的框架——知識圖譜驅動的監督微調(KG-SFT),該框架通過引入知識圖譜(KG)來提升大語言模型(LLMs)在特定領網域的知識理解和處理能力。
實驗結果表明,其在多個領網域和多種語言的數據集上取得了顯著的效果,成功入選 ICLR 2025。
截至目前,LLMs 在常識問答方面表現越來越出色,但它們對領網域知識的理解和推理能力仍然有限。
由于難以深入理解專業領網域問答背後所蘊含的復雜知識和邏輯關系,因此在面對這類問題時,往往無法準确地給出正确的答案和詳細的推理過程,這極大地限制了其在專業領網域的應用價值。
尤其是在數據稀少和知識密集型的場景中,如何讓 LLMs 更好地理解和操縱知識,成為了研究的關鍵。
而中科大 MIRA 實驗室的這項工作即圍繞此展開。
KG-SFT 是如何工作的
KG-SFT 針對 LLMs 難以理解領網域問答背後的知識和邏輯,導致推理能力弱的問題,提出基于知識圖譜增強的大語言模型監督微調技術。
KG-SFT 首先通過解析領網域知識圖譜中的多條推理路徑,設計圖上推理路徑與文本推理過程的聯合生成機制。使 LLMs 在監督微調過程中,能夠同步輸出推理答案以及蘊含豐富領網域知識和邏輯關系的推理過程,從而提升其對領網域知識的理解與推理能力。
KG-SFT 框架的核心在于将知識圖譜與監督微調相結合,通過生成問答背後的邏輯嚴密的推理過程解釋來增強 LLMs 對知識和邏輯的理解。
該框架包含三個關鍵組件:
Extractor(提取器)
Generator(生成器)
Detector(檢測器)
1、Extractor:精準提取知識關聯
Extractor 首先對問答對(Q&A)中的實體進行識别,并從外部知識圖譜中提取相關的推理子圖。
這一步驟揭示了 Q&A 對背後的知識關聯和邏輯,為後續的解釋生成提供了基礎。
通過命名實體識别(NER)和多條推理路徑的檢索,Extractor 能夠有效地從大規模知識圖譜中獲取與問題相關的知識。
2、Generator:生成流暢的解釋
Generator 利用圖結構重要性評分算法(如 HITS 算法)對推理子圖中的實體和關系進行評分,選擇高分部分作為重要内容。
然後,使用大型語言模型(如 ChatGPT)生成流暢的解釋草稿。
這些解釋不僅邏輯清晰,而且能夠幫助 LLMs 更好地理解問題和答案之間的關系。
3、Detector:确保解釋的正确性
Detector 對生成的解釋草稿進行句子級别的知識衝突檢測,确保解釋的正确性。
通過自然語言推理(NLI)模型(如 DeBERTa)和重新引導機制,Detector 能夠标記并糾正可能存在的知識衝突,從而提高解釋的可靠性。
實驗結果及創新點
實驗結果表明,KG-SFT 在多個領網域和語言設定中均取得了顯著的性能提升。
特别是在低數據醫學問答任務上,KG-SFT在英語場景中僅使用 5% 的訓練數據就比傳統方法提高了近 14% 的準确率。
從創新之處來看,KG-SFT 不僅關注數據的數量,更注重數據的質量。
通過生成高質量的解釋,KG-SFT 幫助 LLMs 更好地理解和操縱知識,從而在特定領網域實現更優的性能。
此外,KG-SFT 還可以作為插件式模塊與現有的數據增強方法結合使用,進一步提升性能。
在多領網域數據集上的實驗結果進一步驗證了 KG-SFT 的廣泛适用性。
盡管在某些需要復雜推理的領網域(如形式邏輯和專業會計)中表現稍遜,但整體性能依然具有較強的競争力。
概括而言,KG-SFT 框架通過結合知識圖譜和 LLMs,有效地提升了監督微調數據的質量,從而顯著提高了 LLMs 在特定領網域的性能。
這一方法不僅在低數據場景中表現出色,還展示了其作為插件式模塊與現有數據增強方法結合的潛力。
論文作者第一作者陳瀚鑄是中國科學技術大學 2021 級碩博連讀生,師從王傑教授,主要研究方向為大語言模型、知識圖譜和推理數據合成。
更多細節歡迎查閱原論文。
論文地址:
https://openreview.net/pdf?id=oMFOKjwaRS
一鍵三連「點贊」「轉發」「小心心」
歡迎在評論區留下你的想法!
— 完 —
學術投稿請于工作日發郵件到:
标題注明【投稿】,告訴我們:
你是誰,從哪來,投稿内容
附上論文 / 項目主頁鏈接,以及聯系方式哦
我們會(盡量)及時回復你
點亮星标
科技前沿進展每日見