今天小编分享的科学经验:大模型玩《宝可梦》达人类水平!网友喊话世界冠军:是时候一较高下了,欢迎阅读。
基于大模型的 Agent 会玩宝可梦了,人类水平的那种!
名为Pok é LLMon,现在它正在天梯对战中与人类玩家一较高下:
Pok é LLMon 能灵活调整策略,一旦发现攻击无效,立刻改变行动:
Pok é LLMon 还会运用人类式的消耗战术,频繁给对方宝可梦下毒,并一边恢复自身 HP。
不过面对强敌,Pok é LLMon 也会 " 慌乱 " 逃避战斗,连续切换宝可梦:
最终对战结果是,Pok é LLMon 在随机天梯赛中取得 49% 的胜率,与专业玩家的邀请赛中取得 56% 的胜率,游戏战略和决策水平接近人类。
网友看到 Pok é LLMon 的表现也很意外,直呼:
小心被任天堂封禁,这话是认真的。
甚至有网友喊话宝可梦大满贯选手、世锦赛冠军Wolfey Glick,来和这个 AI 一较高下:
这究竟是如何做到的?
Pok é LLMon 大战人类
Pok é LLMon 由佐治亚理工学院研究团队提出:
具体来说,他们提出了三个关键策略。
一是上下文强化学习(In-Context Reinforcement Learning)。
利用从对战中即时获得的文字反馈作为一种新的 " 奖励 " 输入,不需要训练就可以在线迭代完善和调整 Pok é LLMon 的决策生成策略。
其中反馈内容包括:回合 HP 变化、攻击效果、速度优先级、招式额外效果等。
比如 Pok é LLMon 反复使用相同的攻击招式,但由于对方宝可梦具有 " 干燥皮肤 " 的能力,对其没有任何效果。
在第三回合中对战中,通过即时上下文强化学习,Pok é LLMon 随后选择更换宝可梦。
二是知识增强生成(Knowledge-Augmented Generation)。
通过检索外部知识源作为额外输入,融入到状态描述中。比如检索类型关系、招式数据,模拟人类查询宝可梦图鉴,来减少未知知识导致的 " 幻觉 " 问题。
由此一来,Pok é LLMon 可以准确理解并应用招式效果。
比如面对犀牛进化形态的地面攻击,Pok é LLMon 未选择更换宝可梦,而是施展 " 电磁飘浮 ",该技能在五回合内成功抵御地面攻击,使犀牛的 " 地震 " 技能无效。
三是一致性动作生成(Consistent Action Generation)。
研究人员发现,当 Pok é LLMon 面对强大对手时,思维链(CoT)的推理方式会导致它因 " 恐慌 " 而频繁更换道具或宝可梦。
△Pok é LLMon 害怕,不断切换宝可梦
而通过一致性动作生成,可以独立多次生成行动,投票出最一致的,从而缓解 " 恐慌 "。
值得一提的是,研究人员所用的模型自主和人类作战的宝可梦对战环境,基于 Pokemon Showdown 和 poke-env 实现,目前已开源。
为了测试 Pok é LLMon 的对战能力,研究人员用它分别与随机天梯赛玩家和一名拥有15 年经验的专业玩家对战。
结果,Pok é LLMon 与天梯随机玩家的胜率为 48.57%,与专业玩家的邀请对战胜率为 56%。
总的来说,Pok é LLMon 的优势在于:能准确选择有效招式,统一使用一个宝可梦击倒全部对手;展现出类人的消耗战略,使对手中毒后再拖延回血。
不过研究人员也指出了 Pok é LLMon 的不足之处,面对玩家的消耗战略 ( 拖延回血 ) 很难应对:
容易被玩家的迷惑战术误导(迅速切换宝可梦,巧妙使 Pok é LLMon 浪费强化攻击机会):
团队简介
三位作者均为华人学者。
论文一作胡思昊,现为佐治亚理工学院计算机科学博士生,本科毕业于浙江大学,曾在新加坡国立大学担任研究助理。
研究兴趣包括用于区块链安全和推荐系统的数据挖掘算法及系统。
作者Tiansheng Huang,同为佐治亚理工学院计算机科学博士生,华南理工大学校友。
研究兴趣包括分布式机器学习、并行与分布式计算、优化算法以及机器学习安全性。
导师刘玲,现为佐治亚理工学院计算机系教授。1982 年毕业于中国人民大学,1993 年于荷兰蒂尔堡大学获博士学位。
刘教授主导分布式数据密集系统实验室(DiSL)的研究工作,专注于大数据系统及其分析的多个方面,如性能、安全和隐私等。
同时她也是 IEEE Fellow,2012 年获得 IEEE 计算机学会技术成就奖,还曾担任多个 IEEE 和 ACM 大会主席。
参考链接:
[ 1 ] https://twitter.com/_akhaliq/status/1754337188014100876
[ 2 ] https://poke-llm-on.github.io/
— 完 —
点这里关注我,记得标星哦~
一键三连「分享」、「点赞」和「在看」
科技前沿进展日日相见 ~
>