今天小编分享的科学经验:o3挑战ARC-AGI,遇见大网格就懵圈?英国工程师:ARC-AGI不适合大模型,欢迎阅读。
o3 在超难推理任务 ARC-AGI 上的成绩,属实给人类带来了不少震撼。
但有人专门研究了它不会做的题之后,有了更有趣的发现——
o3 之所以不会做这些题,原因可能不是因为太难,而是题目的规模太大了。
来自英国的 ML 工程师 Mikel Bober-Irizar(不妨叫他米哥),对 ARC 题目进行了细致观察。
结果米哥发现,题目中的网格规模越大,大模型的表现也就越差。
而且不仅是 o3,o1 和 o1 mini,还有隔壁的 Claude,都出现了这样的现象。
米哥的这项研究,引起了人们对大模型工作机制的许多讨论。
世界首位全职提示词工程师Riley Goodside看到后,也认为这是一项很好的研究。
大模型被困在了网格规模上
还是先简单回顾一下 ARC 挑战,题目带有色块的网格阵列(以文本形式表述,用数字代表颜色),大模型需要观察每道题目中 3 个输入 - 输出示例,然后根据规律填充新的空白网格。
米哥发现,在 ARC 挑战中,规模越大,也就是网格的数量越多,大模型的表现也就越差。
o3 也逃不过这样的魔咒,但相比于其他模型,o3 表现的明显下降出现得更晚,大约在网格数量达到 1024 个之后(请记住这个位置,后面还会讲到)。
为了进一步验证这个发现,米哥还用 o1-mini 进行了实际测试。
下图当中,左右两栏的题目乍一看上去好像没什么区别,但在右边,米哥对网格进行了细粒度的切割,原来的一个格子被切成了 4(2 × 2)个。
结果原来能做对的题,切成小块之后,o1-mini 还真就不灵了。
进一步地,米哥还对 ARC 数据集中的规模分布进行了统计,结果刚好是规模在 1024 个像素的题目数量最多。
还记得前面 o3 成绩下降趋势突然变大的位置吧,刚好就是在 1024 附近。
米哥认为,这就是 o3 在 ARC 挑战上取得优异成绩的重要因素,而其他模型成绩不佳,是因为对应的小规模试题占比较少。
所以在米哥看来,ARC 挑战并不能完全反映大模型真实的推理能力——有不少模型都被低估,o3 则是被高估了。
ARC 挑战不适合大模型?
那么,为什么题目中网格数量一多,大模型的表现就不好了呢?
先来看米哥的分析。
米哥引用了纽约大学的一项研究结果(arXiv:2409.01374),这项研究发现人类在挑战这样的问题时并不会出现这种现象。
如果在人类和模型之间做个比较,那么在规模较小时 o3 的表现可以说完胜人类,但规模较大时优胜方就变成了人类。
这说明,大模型在解决此类问题时,思考方式和人类依然存在差别。
当然,大模型在挑战 ARC 时看到的不是影像,而是用数字代表的矩阵,这是显而易见的,但差别还不止于此。
人类在面对 ARC 问题时,即使是用这种数字矩阵来表示,也能够看出视觉信息,理解其中的位置关系。
在空间中,ARC 是一个二维问题,需要跨行和列进行推理,但大模型在处理 token 时是以一维格式进行的。
这意味着,大模型进行跨列推理时,需要组合较长的上下文信息。
而随着网格变得更大,模型需要对更长的上下文进行推理,并且必须对相距较远的数字进行组合和推理。
米哥之前曾经和剑桥大学高级研究员 Soumya Banerjee 此前进行的一项研究(arXiv:2402.03507)表明,通过对矩阵进行 90 度旋转,让模型分别基于行和列进行推理,比直接做题成绩提高了一倍。
所以米哥认为,是观察问题的维度影响了大模型的成绩,ARC 这种任务并不适合大模型。
他还表示在 NeurIPS 上听到了一个很好的类比——
将二维的 ARC 任务交给大模型,就像期望人类在四维空间中进行推理。
同时网友们还指出,虽然本质上涉及了维度差异,但视觉依然是一个重要因素。
想象一下,如果人没有视觉能力,单纯依靠听或其他方式获得关于其中网格的信息,也很难直接构建出二维的矩阵。
不过说到这,即便模型拥有 " 视觉 " 能力,也是将视觉信息转换为 Token,和人类的视觉也未必相同。
网友认为,真正的视觉需要能够处理并行输入的信息,而不是逐个 Token 的串行输入,二进制 IO 数据流或许是一种解决方案。
One More Thing
根据 ARC 挑战官方的说法,ARC-AGI 的下一代 ARC-AGI-2 即将推出。
早期测试表明,其将对 o3 构成重大挑战——
即使在高计算量模式下,o3 的得分也可能会降低到 30% 以下(而聪明人仍然能够得分超过 95%)。
— 完 —
点这里关注我,记得标星哦~
一键三连「分享」、「点赞」和「在看」
科技前沿进展日日相见 ~
>