今天小編分享的科學經驗:陳丹琦ACL學術報告來了!詳解大模型「外挂」數據庫7大方向3大挑戰,3小時幹貨滿滿,歡迎閱讀。
清華姚班校友陳丹琦,在 ACL 2023 上做了場最新演講!
話題還是近期非常熱門的研究方向——
像 GPT-3、PaLM 這樣的(大)語言模型,究竟是否需要依靠檢索來彌補自身缺陷,從而更好地應用落地。
在這場演講中,她和其他 3 位主講人一起,共同介紹了這個主題的幾大研究方向,包括訓練方法、應用和挑戰等。
演講期間聽眾的反響也很熱烈,不少網友認真地提出了自己的問題,幾位演講者盡力答疑解惑。
至于這次演講具體效果如何?有網友直接一句 " 推薦 " 給到評論區。
所以,在這場長達 3 個小時的演講中,他們具體講了些什麼?又有哪些值得一聽的地方?
大模型為何需要 " 外挂 " 數據庫?
這場演講的核心主題是 " 基于檢索的語言模型 ",包含檢索和語言模型兩個要素。
從定義上來看,它指的是給語言模型 " 外挂 " 一個數據檢索庫,并在進行推理(等操作)時對這個數據庫進行檢索,最後基于檢索結果進行輸出。
這類外挂數據存儲庫,也被稱之為半參數模型或非參數模型。
之所以要研究這個方向,是因為如 GPT-3 和 PaLM 這類(大)語言模型,在表現出不錯的效果同時,也出現了一些讓人頭疼的 "bug",主要有三個問題:
1、參數量過大,如果基于新數據重訓練,計算成本過高;
2、記憶力不行(面對長文本,記了下文忘了上文),時間一長會產生幻覺,且容易洩露數據;
3、目前的參數量,不可能記住所有知識。
在這種情況下,外部檢索語料庫被提出,即給大語言模型 " 外挂 " 一個數據庫,讓它随時能通過查找資料來回答問題,而且由于這種數據庫随時能更新,也不用擔心重訓的成本問題。
介紹完定義和背景之後,就是這個研究方向具體的架構、訓練、多模态、應用和挑戰了。
在架構上,主要介紹了基于檢索的語言模型檢索的内容、檢索的方式和檢索的 " 時機 "。
具體而言,這類模型主要會檢索 token、文本塊和實體詞語(entity mentions),使用檢索的方式和時機也很多樣性,是一類很靈活的模型架構。
在訓練方式上,則着重介紹了獨立訓練(independent training,語言模型和檢索模型分開訓練)、連續學習(sequential training)、多任務學習(joint training)等方法。
至于應用方面,這類模型涉及的也就比較多了,不僅可以用在代碼生成、分類、知識密集型 NLP 等任務上,而且通過微調、強化學習、基于檢索的提示詞等方法就能使用。
應用場景也很靈活,包括長尾場景、需要知識更新的場景以及涉及隐私安全的場景等,都有這類模型的用武之地。
當然,不止是文本上。這類模型也存在多模态擴展的潛力,可以将它用于文本以外的任務上。
聽起來這類模型優點很多,不過基于檢索的語言模型,當下也存在一些挑戰。
陳丹琦在最後 " 收尾 " 的演講中,着重提到了幾點這個研究方向需要解決的幾大難題。
其一,小語言模型 +(不斷擴張的)大數據庫,本質上是否意味着語言模型的參數量依舊很大?如何解決這一問題?
例如,雖然這類模型的參數量可以做到很小,只有 70 億參數量,但外挂的數據庫卻能達到 2T ……
其二,相似性搜索的效率。如何設計算法使得搜索效率最大化,是目前非常活躍的一個研究方向。
其三,完成復雜語言任務。包括開放式文本生成任務,以及復雜的文本推理任務在内,如何用基于檢索的語言模型完成這些任務,也是需要持續探索的方向。
當然,陳丹琦也提到,這些話題是挑戰的同時,也是研究機遇。還在尋找論文課題的小夥伴們,可以考慮是否把它們加進研究列表了 ~
值得一提的是,這次演講也不是 " 憑空 " 找出的話題,4 位演講者貼心地在官網放出了演講參考的論文鏈接。
從模型架構、訓練方法、應用、多模态到挑戰,如果對這些話題中的任何一部分感興趣,都可以去官網找找對應的經典論文來看:
現場解答聽眾困惑
這麼幹貨滿滿的演講,四位主講人也不是沒有來頭,在演講中他們還耐心地對聽眾提出的問題進行了解答。
我們先來康康主講人都是誰。
首先是主導這次演講的普林斯頓大學計算機科學助理教授陳丹琦。
她是計算機科學領網域近來最受關注的華人青年學者之一,也是 08 級清華姚班校友。
在信息學競賽圈,她頗具傳奇色彩——CDQ 分治算法就是以她的名字命名。2008 年,她代表中國隊斬獲一枚 IOI 金牌。
而她的那篇長達 156 頁的博士畢業論文《Neural Reading Comprehension and Beyond》,更是一度火爆出圈,不光獲得當年斯坦福最佳博士論文獎,還成為了斯坦福大學近十年來最熱門畢業論文之一。
現在,陳丹琦除了是普林斯頓大學計算機科學助理教授,也是該校從頭搭建 NLP 小組的聯合負責人、AIML 小組成員。
她的研究方向主要聚焦于自然語言處理和機器學習,并且對在實際問題中具有可行性、可擴展性和可泛化性的簡單而又可靠的方法饒有興趣。
同樣來自普林斯頓大學的,還有陳丹琦的徒弟鍾澤軒(Zexuan Zhong)。
鍾澤軒是普林斯頓大學的四年級博士生。碩士畢業于伊利諾伊大學香槟分校,導師是謝濤;本科畢業于北京大學計算機系,曾在微軟亞研院實習,導師是聶再清。
他的最新研究主要聚焦于從非結構化文本中提取結構化信息、從預訓練語言模型中提取事實性信息、分析稠密檢索模型的泛化能力,以及開發适用于基于檢索的語言模型的訓練技術。
此外,主講人還有來自華盛頓大學的 Akari Asai、Sewon Min。
Akari Asai是華盛頓大學主攻自然語言處理的四年級博士生,本科畢業于日本東京大學。
她主要熱衷于開發可靠且适應性強的自然語言處理系統,提高信息獲取的能力。
最近,她的研究主要集中在通用知識檢索系統、高效自适應的 NLP 模型等領網域。
Sewon Min是華盛頓大學自然語言處理小組的博士候選人,讀博士期間,曾在 Meta AI 兼職擔任研究員長達四年,本科畢業于首爾國立大學。
最近她主要關注語言建模、檢索以及二者的交叉領網域。
在演講期間,聽眾也很熱情地提出了眾多問題,例如為啥要用 perplexity(困惑度)來作為演講的主要指标。
主講人給出了細心解答:
在比較參數化的語言模型時,困惑度(PPL)經常被用到。但困惑度的改善能否轉化為下遊應用仍然是一個研究問題。
現已有研究表明,困惑度與下遊任務(尤其是生成任務)有很好的相關性,并且困惑度通常可提供非常穩定的結果,它可以在大規模評估數據上進行評估(相對于下遊任務來說,評估數據是沒有标籤的,而下遊任務可能會受到提示的敏感性和缺乏大規模标記數據的影響,從而導致結果不穩定)。
還有網友提出了這樣的疑問:
關于 " 語言模型的訓練成本高昂,而引入檢索可能會解決這個問題 " 的說法,你只是将時間復雜度替換為空間復雜度(數據存儲)了嗎?
主講人給出的解答是醬嬸的:
我們讨論的重點是如何将語言模型縮減到更小,從而減少時間和空間的需求。然而,數據存儲實際上也增加了額外的開銷,這需要仔細權衡和研究,我們認為這是當前的挑戰。
與訓練一個擁有一百億以上參數的語言模型相比,我認為目前最重要的是降低訓練成本。
想找這次演講 PPT,或是蹲具體回放的,可以去官網看看 ~
官方網址:
https://acl2023-retrieval-lm.github.io/
參考鏈接:
[ 1 ] https://twitter.com/AkariAsai/status/1677455831439384582
[ 2 ] https://twitter.com/cosmtrek/status/1678077835418955781
[ 3 ] https://app.sli.do/event/ok8R2jMMvNjp9uMkxi63Qi/live/questions