今天小编分享的科学经验:一句话让AI训练AI!20分钟微调羊驼大模型,从数据收集到训练全包了,欢迎阅读。
只需一句话,描述你想要大模型去做什么。
就有一系列 AI 自己当 " 模型训练师 ",帮你完成从生成数据集到微调的所有工作。
比如让 70 亿参数羊驼大模型学会优化 GPT-4 提示词,整个过程只要 20 分钟。
秘诀就是网友分享的一个可以帮咱自动训练模型的 AI 工具:
它能帮你搞定数据收集、写代码等一系列操作,你要做的就是用人话描述你要什么,然后坐等即可。
可能是全世界最简单的大模型微调方法了(手动狗头)。
并且成本也不高,羊驼这个例子花费就不超 15 美元(合 100 来块人民币)。
好消息,小哥已将它直接开源(GitHub1k 标星),你也可以试试。
AI 模型训练师操作指南
如上图所示,此工具名叫gpt-llm-trainer。
如果你也想用它来自动微调某个大模型,首先需要准备:
1、Google Colab 或者本地 Jupyter notebook;
2、如果选前者,请切换到可用的最佳 GPU(执行 "Runtime -> change runtime type");
3、以及一个 OpenAI API key(主要还是用的 GPT-4 能力)。
然后就可以进入具体操作了:
1、先写你的提示词,也就是你希望这个微调后的模型需要具备什么功能。
可以肯定的是,描述得越清晰越好。
比如开头的羊驼例子,作者就给了这么一大段(红字部分):
官方也给了一个简单的示例:
A model that takes in a puzzle-like reasoning-heavy question in English, and responds with a well-reasoned, step-by-step thought out response in Spanish.
2、设定两个值:
(1)temperature,生成数据集的 " 温度 "(取值 0-1),值越高代表创意性越强,越低代表越精确;
(2)number_of_examples,要生成的示例数量,推荐从 100 开始。
3、无腦 " 下一步 ",运行所有 cell,完成 " 生成数据集 "、" 自动分为训练集和验证集 "、" 安装各种必备库 "、" 定义超参数 "、" 加载数据集并训练 " 这一系列自动步骤。
之后,你就能得到一个微调好的新模型了。
需要注意的是,这个过程可能在10 分钟到几个小时不等,取决于你設定的示例生成数量。
4、最后执行 "Run Inference" 测试效果,完毕。
相当简单有没有。
值得一提的是,作者已经盘点出了一些待改进的地方,比如:
改进示例生成 pipeline,让生成效率更高,成本更低;
添加示例修剪功能,删除相似的样本从而提高性能;
根据示例和数据集的详细信息(比如示例数量),利用 GPT-4 自动选择超参数,甚至是要微调的模型;
训练多个变体,推出评估损失(eval loss)最少的那个;
……
大家也可以浅浅期待一波。
如此神器,出自谁手?
我们简单挖了一下,发现作者的来头还不小。
他叫 Matt Shumer,推特粉丝 1.7 万。
Matt 自己开了家公司,产品名叫 HyperWriteAI。
这是一个厉害的浏览器操作 agent,可以像人一样操作谷歌浏览器来完成一系列任务,比如订披萨。
和 gpt-llm-trainer 一样,你只需要用文字描述目标,它就会一边列步骤,一边执行。
号称 " 比 AutoGPT 强 " ——
目前,HyperWriteAI 已经可以在谷歌扩展程式中安装了,显示用户已达 10w+。
最后,我们翻看这位大佬的推特,发现他当天最新的一条推文是:
几周之后,大语言模型的前景就可能要变天了。
可能又在酝酿什么大动作?(手动狗头)
更新:大佬又发了一个类似的自动工具,名叫gpt-oracle-trainer。
只需上传一个产品文档,就能自动训练出一个可以回答有关该产品问题的聊天机器人。
友情链接:
[ 1 ] https://github.com/mshumer/gpt-llm-trainer
[ 2 ] https://github.com/mshumer/gpt-oracle-trainer