今天小編分享的科學經驗:一句話讓AI訓練AI!20分鍾微調羊駝大模型,從數據收集到訓練全包了,歡迎閱讀。
只需一句話,描述你想要大模型去做什麼。
就有一系列 AI 自己當 " 模型訓練師 ",幫你完成從生成數據集到微調的所有工作。
比如讓 70 億參數羊駝大模型學會優化 GPT-4 提示詞,整個過程只要 20 分鍾。
秘訣就是網友分享的一個可以幫咱自動訓練模型的 AI 工具:
它能幫你搞定數據收集、寫代碼等一系列操作,你要做的就是用人話描述你要什麼,然後坐等即可。
可能是全世界最簡單的大模型微調方法了(手動狗頭)。
并且成本也不高,羊駝這個例子花費就不超 15 美元(合 100 來塊人民币)。
好消息,小哥已将它直接開源(GitHub1k 标星),你也可以試試。
AI 模型訓練師操作指南
如上圖所示,此工具名叫gpt-llm-trainer。
如果你也想用它來自動微調某個大模型,首先需要準備:
1、Google Colab 或者本地 Jupyter notebook;
2、如果選前者,請切換到可用的最佳 GPU(執行 "Runtime -> change runtime type");
3、以及一個 OpenAI API key(主要還是用的 GPT-4 能力)。
然後就可以進入具體操作了:
1、先寫你的提示詞,也就是你希望這個微調後的模型需要具備什麼功能。
可以肯定的是,描述得越清晰越好。
比如開頭的羊駝例子,作者就給了這麼一大段(紅字部分):
官方也給了一個簡單的示例:
A model that takes in a puzzle-like reasoning-heavy question in English, and responds with a well-reasoned, step-by-step thought out response in Spanish.
2、設定兩個值:
(1)temperature,生成數據集的 " 溫度 "(取值 0-1),值越高代表創意性越強,越低代表越精确;
(2)number_of_examples,要生成的示例數量,推薦從 100 開始。
3、無腦 " 下一步 ",運行所有 cell,完成 " 生成數據集 "、" 自動分為訓練集和驗證集 "、" 安裝各種必備庫 "、" 定義超參數 "、" 加載數據集并訓練 " 這一系列自動步驟。
之後,你就能得到一個微調好的新模型了。
需要注意的是,這個過程可能在10 分鍾到幾個小時不等,取決于你設定的示例生成數量。
4、最後執行 "Run Inference" 測試效果,完畢。
相當簡單有沒有。
值得一提的是,作者已經盤點出了一些待改進的地方,比如:
改進示例生成 pipeline,讓生成效率更高,成本更低;
添加示例修剪功能,删除相似的樣本從而提高性能;
根據示例和數據集的詳細信息(比如示例數量),利用 GPT-4 自動選擇超參數,甚至是要微調的模型;
訓練多個變體,推出評估損失(eval loss)最少的那個;
……
大家也可以淺淺期待一波。
如此神器,出自誰手?
我們簡單挖了一下,發現作者的來頭還不小。
他叫 Matt Shumer,推特粉絲 1.7 萬。
Matt 自己開了家公司,產品名叫 HyperWriteAI。
這是一個厲害的浏覽器操作 agent,可以像人一樣操作谷歌浏覽器來完成一系列任務,比如訂披薩。
和 gpt-llm-trainer 一樣,你只需要用文字描述目标,它就會一邊列步驟,一邊執行。
号稱 " 比 AutoGPT 強 " ——
目前,HyperWriteAI 已經可以在谷歌擴展程式中安裝了,顯示用戶已達 10w+。
最後,我們翻看這位大佬的推特,發現他當天最新的一條推文是:
幾周之後,大語言模型的前景就可能要變天了。
可能又在醞釀什麼大動作?(手動狗頭)
更新:大佬又發了一個類似的自動工具,名叫gpt-oracle-trainer。
只需上傳一個產品文檔,就能自動訓練出一個可以回答有關該產品問題的聊天機器人。
友情鏈接:
[ 1 ] https://github.com/mshumer/gpt-llm-trainer
[ 2 ] https://github.com/mshumer/gpt-oracle-trainer