今天小編分享的科技經驗:思考、思考、思考不停歇,思維樹ToT「軍訓」LLM,歡迎閱讀。
機器之心報道
編輯:杜偉、梓文
本文引入了一種名為 ToT(Tree of Thoughts)的新型語言模型推理框架,使用 LLM 模拟人類的決策過程,以解決復雜問題。
GPT 和 PaLM 等大型語言模型在處理數學、符号、常識和知識推理等任務時正變得越來越熟練。也許令人驚訝的是,所有這些進展的基礎仍然是生成文本的原始自回歸機制。它逐個 token 地進行決策,并按從左到右的方式生成文本。這樣簡單的機制是否足以構建一個通用問題求解器的語言模型呢?如果不行,哪些問題将挑戰當前的範式,應該采用什麼樣的替代機制呢?
有關人類認知的文獻提供了一些線索來回答這些問題。關于「雙過程(dual process)」模型的研究表明,人們在進行決策時有兩種模式:一種是快速、自動、無意識的模式(System 1),另一種是緩慢、深思熟慮、有意識的模式(System 2)。這兩種模式以前與機器學習中使用的各種數學模型聯系在一起。例如,對人類和其他動物的強化學習的研究探讨了他們進行聯想式的「無模型」學習或更加深思熟慮的「基于模型」的規劃的情況。語言模型的簡單聯想式 token 級選擇也類似于「System 1」,因此可能受益于更深思熟慮的「System 2」規劃過程的增強,該過程保持并探索當前選擇的多種替代方案,而不僅僅是選擇一個。此外,它會評估其當前狀态,并積極地展望或回溯以進行更全局的決策。
為了設計這樣一個規劃過程,來自普林斯頓大學、 Google DeepMind 的研究者選擇先回顧一下人工智能(和認知科學)的起源,汲取 Newell、Shaw 和 Simon 在上世紀 50 年代探索的規劃過程的靈感。Newell 和他的同事将問題解決描述為對組合式問題空間的搜索,這個空間被表示為一棵樹。因此,他們提出了适用于語言模型的思維樹(ToT)框架,用于通用問題求解。
論文鏈接:https://arxiv.org/pdf/2305.10601.pdf
項目地址:https://github.com/ysymyth/tree-of-thought-llm
正如圖 1 所示,現有的方法通過對連續語言序列進行采樣來解決問題,而 ToT 則積極地維護一棵思維樹,其中每個思維都是一個連貫的語言序列,作為解決問題的中間步驟(表 1)。
這樣一個高級語義單元使 LM 能夠通過深思熟慮的推理過程來自我評估不同中間思維對解決問題的進展貢獻情況(圖 2、4、6)。通過 LM 的自我評估和深思熟慮來實現搜索啟發式是一種新穎的方法,因為以前的搜索啟發式要麼是編程的,要麼是學習得來的。
最後,研究者将這種基于語言的生成和評估多樣思維的能力與搜索算法相結合,例如廣度優先搜索(BFS)或深度優先搜索(DFS),這些算法允許對思維樹進行系統性的探索,并具備展望和回溯功能。
在實驗階段,研究者設定了三項任務,即 24 點遊戲、創意寫作和填字遊戲(表 1),這些問題對現有的 LM 推理方法來說頗具挑戰性,即使對于 GPT-4 來說也不例外。這些任務要求具備演繹、數學、常識、詞匯推理能力,以及一種融入系統性規劃或搜索的方式。實驗結果表明,ToT 在這三個任務上取得了優越的成績,因為它具備足夠的通用性和靈活性,可以支持不同層次的思維、不同生成和評估思維的方式,以及适應不同問題性質的不同搜索算法。通過系統的實驗消融分析,作者還探讨了這些選擇如何影響模型性能,并讨論了未來訓練和使用 LM 的方向。
思維樹:利用語言模型進行深思熟慮的問題求解
一個真正的問題求解過程涉及反復使用可用信息來啟動探索,進而揭示更多信息,直到最終發現實現解決方案的方法。—— Newell 等
對人類問題求解的研究表明,人類通過搜索一個組合式問題空間來解決問題。這可以看作一棵樹,其中節點表示部分解,分支對應修改它們的運算符。選擇哪個分支是由啟發式決定的,這些啟發式幫助導航問題空間并引導問題解決者朝着解決方案的方向前進。這個觀點突出了使用語言模型來解決通用問題的現有方法的兩個關鍵缺點:1)局部上,它們不探索思維過程中的不同延續 —— 樹的分支。2)全局上,它們不包括任何類型的規劃、展望或回溯來幫助評估這些不同的選擇 —— 這種啟發式引導的搜索似乎是人類問題求解的特征。
為了解決這些問題,作者引入了思維樹(ToT),這是一種讓語言模型能夠在思維路徑上探索多種推理方式的範式(圖 1 ( c ) )。ToT 将任何問題框架化為對樹的搜索,其中每個節點是一個狀态 s = [ x, z_1・・・i ] ,表示帶有輸入和迄今為止的思維序列的部分解。ToT 的具體實例包括回答以下四個問題:
1. 如何将中間過程分解為思維步驟;
2. 如何從每個狀态生成潛在思維;
3. 如何啟發式地評估狀态;
4. 使用什麼搜索算法。
1. 思維分解。雖然 CoT 在沒有明确分解的情況下對思維進行連貫的采樣,但 ToT 利用問題屬性來設計和分解中間思維步驟。如表 1 所示,根據不同的問題,思維可以是幾個單詞(填字遊戲),一個等式(24 點遊戲),或者是一段寫作計劃(創意寫作)。一般來說,思維應該足夠「小(small)」,以便 LM 能生成預期多樣化的樣本(如生成太「大(big)」而不連貫一本書),但思維又應該足夠「大」,以便 LM 可以評估其解決問題的前景(例如,生成一個 token 通常太小而無法評估)。
2. 思維生成器 G ( p_ θ, s, k ) 。給定樹狀态 s = [ x, z_1・・・i ] ,該研究利用兩種策略來為下一步思維 step 生成 k 個候選對象。
3. 狀态評估器 V ( p_ θ, S ) 。給定不同狀态的邊界,狀态評估器評估它們在解決問題方面的進展,以确定哪些狀态應該繼續探索,以及以何種順序進行探索。雖然啟發式是解決搜索問題的标準方法,但它們通常要麼是編程式的(例如 DeepBlue),要麼是需要經過學習的(例如 AlphaGo)。本文提出第三種替代方法,通過使用語言來有意地推理狀态。在适用的情況下,這種深思熟慮的啟發式方法可能比編程規則更靈活,比學習模型更有效。
與思維生成器類似,考慮兩種策略來單獨或一起評估狀态:
(1)獨立評估每個狀态
(2)跨狀态投票
這兩種策略,可以多次提示 LM 來整合價值或投票結果,用時間、資源、成本換得更加可靠、魯棒的啟發式。
4. 搜索算法。最後,在 ToT 框架内,可以根據樹結構即插即用不同的搜索算法。本文探索了兩個相對簡單的搜索算法,并将更高級的算法留作以後進行研究:
(1)廣度優先搜索(BFS) ( 算法 1 )
(2)深度優先搜索(DFS) ( 算法 2 )
從概念上講,ToT 作為語言模型解決一般問題的方法有幾個好處:
(1)通用性。IO、CoT、CoT- sc 和自我細化可以看作 ToT 的特殊情況(即深度和廣度有限的樹;圖 1);
(2)模塊化。基本的 LM 以及思維分解、生成、評估和搜索過程都可以獨立變化;
(3)适應性。可以适應不同的問題屬性、LM 能力和資源約束;
(4)便捷性。無需額外的訓練,只需要一個預訓練的 LM 就足夠了。
實驗結果
該研究提出了三個任務,即便使用最先進的語言模型 GPT-4,通過标準的 IO prompting 或思維鏈(CoT)prompting 進行采樣,這些任務仍然具有挑戰性。
24 點數學遊戲
給定四個數字,玩家需要在限定的時間内使用這四個數字和基本數學運算符号(加号、減号、乘号、除号)來創建一個表達式,使其結果為 24。比如,給定數字:4、6、8、2,一個可能的解法是: ( 8 ÷ ( 4 - 2 ) ) × 6 = 24。
如表 2 所示,使用 IO、CoT 和 CoT-SC prompting 方法在任務上表現不佳,僅實現了 7.3%、4.0% 和 9.0% 的成功率。相比之下,b(breadth) = 1 的 ToT 已經實現了 45% 的成功率,而 b = 5 時則達到了 74%。他們還考慮了 IO/CoT 的 oracle 設定,通過使用 k 個樣本中的最佳值來計算成功率 ( 1 ≤ k ≤ 100 ) 。
為了将 IO/CoT(k 個最佳結果)與 ToT 進行比較,研究者考慮在 ToT 中計算每個任務中訪問的樹節點數量,其中 b = 1・・・5,并将 5 個成功率映射在圖 3 ( a ) 中,将 IO/CoT(k 個最佳結果)視為在賭博機中訪問 k 個節點。毫不奇怪,CoT 比 IO 更具擴展性,而最好的 100 個 CoT 樣本實現了 49% 的成功率,但仍遠遠不及在 ToT 中探索更多節點(b > 1)。
下圖 3 ( b ) 分解了 CoT 和 ToT 樣本在任務失敗時的情況。值得注意的是,大約 60% 的 CoT 樣本在生成第一步,相當于生成前三個單詞 ( 例如 "4 + 9" ) 後就已經失敗了。這讓直接從左到右解碼的問題更加凸顯了。
創意寫作
研究者還發明了一個創意寫作任務,輸入 4 個随機句子,輸出一篇包含四段的連貫文章,每段分别以 4 個輸入句子結尾。這樣的任務是開放式和探索性的,挑戰了創造性思維和高級規劃。
下圖 5 ( a ) 顯示了 GPT-4 在 100 個任務中的平均分數,其中 ToT ( 7.56 ) 比 IO ( 6.19 ) 和 CoT ( 6.93 ) 生成了更連貫的段落。雖然這樣的自動度量可能會有噪聲,但圖 5 ( b ) 證實,人類在 100 passage 對中有 41 對更喜歡 ToT 而不是 CoT,而只有 21 對更喜歡 CoT 而不是 ToT ( 其他 38 對被發現 " 相似連貫 " ) 。
最後,迭代優化算法在該自然語言任務上取得了更好效果,IO 一致性得分從 6.19 提高到 7.67,ToT 一致性得分從 7.56 提高到了 7.91。研究者認為,這可以看作是 ToT 框架中思維生成的第三種方法,新思維可以從細化舊思維中產生,而不是順序生成。
迷你填字遊戲
在《24 點數學遊戲》和創意寫作中,ToT 是比較淺顯的 —— 最多需要 3 個思考步驟就能達到最終的輸出。研究者将探索 5 × 5 迷你填字遊戲作為有關自然語言的更難一層的搜索問題。同樣,這次的目标不僅僅是解決任務,因為一般填字遊戲可以通過專門的 NLP pipeline 輕松解決,該 pipeline 利用大規模檢索而不是 LM。相反,研究者的目标是探索語言模型作為一個通用問題求解器的極限,探索它自身的思維,并以嚴謹的推理作為啟發式來指導自己的探索。
如下表 3 所示,IO 和 CoT 提示方法表現不佳,單詞級别的成功率低于 16%,而 ToT 顯著提高了所有指标,實現了 60% 的單詞級别成功率,在 20 個遊戲中解決了 4 個。考慮到 IO 和 CoT 缺乏嘗試不同線索、更改決策或回溯的機制,這樣的提升并不令人驚訝。
© THE END
轉載請聯系本公眾号獲得授權
投稿或尋求報道:[email protected]