今天小编分享的科学经验:惨遭拒稿的Mamba,7个月后拿下首届COLM杰出论文,华为俄罗斯实验室等4篇入选,欢迎阅读。
顶流新会议首届 COLM成功举办,Mamba 等 4 篇论文获得杰出论文奖。
新架构 Mamba 系列经历了等风波后,,现在开山之作也终于获得了应有的认可。
虽然 COLM 刚刚才办第一届,热闹程度已不输老牌顶会,根据参会者现场返图,海报区人挤人。
作为专注语言建模的会议(Conference on Language Modeling),四篇获奖论文分别探讨了序列建模的新架构、语言模型中的评估问题、数据中的知识截止问题、以及生成文本的检测。
Mamba 作者 Tri Dao 参会感觉,由于专注于单一领網域,人们投入程度更高。
最佳论文讲了啥
第一篇:Mamba: Linear-Time Sequence Modeling with Selective State Spaces,团队来自 CMU、斯坦福
https://arxiv.org/abs/2312.00752
获奖理由
Mamba 解决了结构化状态空间序列模型中的关键架构和实现问题,创造了一个潜在可行的 Transformer 替代方案。虽然建模长序列的最优架构仍有待商榷,但这是具有次二次复杂性的序列建模中的一个重要且有影响力的进步。
第二篇:Auxiliary task demands mask the capabilities of smaller language models,团队来自哈佛、斯坦福
https://arxiv.org/abs/2404.02418
获奖理由
本文借鉴了人类儿童推理行为的研究,认为对语言模型性能的解释应考虑任务需求——与正在评估的能力无关但可能影响模型分数的因素。作者表明,任务需求对小型语言模型的影响尤为显著,表明当前的评估可能低估了它们的能力。
第三篇:Dated Data: Tracing Knowledge Cutoffs in Large Language Models,团队来自约翰霍普金斯大学
https://arxiv.org/abs/2403.12958
本文介绍了大语言模型训练中的 " 有效知识截止 ":与训练期间使用的数据的特定部分相关的日期。作者引入了一种简单的方法来评估资源的有效截止,并研究了有效截止与报告截止之间的不一致,揭示了大语言模型中数据文档的重要后果。
第四篇:AI-generated text boundary detection with RoFT,团队来自华为俄罗斯 AI 基础与算法实验室、伦敦玛丽女王大学等
https://arxiv.org/abs/2311.08349
获奖理由
本文提出了一种思考生成文本检测的新方法:检测包含人类编写和人工智能生成的文本的文档中人类编写和人工智能生成的文本之间的过渡。鉴于大型语言模型如何用于协作文本创作,这种观点特别有先见之明。实验表明,基于困惑度的方法和内在维度估计优于传统分类器,并且能够很好地适应混合了人类和人工智能生成的文本的环境中的细微挑战。
1036 投稿,入选率 28.8%
主办方介绍了了第一届 COLM 的总体情况,今年共有 1036 篇投稿,入选率 28.8%。选出 22 篇 spotlights,4 篇杰出论文,现场 930 人参会
还开了一个由于从 0 开始,增长趋势是无穷大的小玩笑。
首届七位组织者均是来自业界学界的大佬,其中有三位是华人学者谷歌周登勇、普林斯顿陈丹琦、Meta 的 Angela Fan。
除了杰出论文奖外,斯坦福 AI 实验室主任 Christopher Manning的开幕演讲也很受关注,根据现场参会学者总结,要点如下:
NLP 研究人员长久以来(乐于)专注在自己的领網域,但 ChatGPT 一出现,AI 就成了大语言模型的同义词。真奇怪!
语言模型已经存在很长时间了,NLP 研究人员应该在 2000-2015 年左右就早点开发出更好的语言模型。
之前的语言模型在语音识别、机器翻译领網域已经非常有用,人们并不真正期待它们能像当前的大模型一样真正理解语言。
好的人工智能定义应该包括学习解决问题、实现目标和适应新环境。
系统 2 智能尚未真正实现
参考链接:
[ 1 ] https://colmweb.org/index.html
[ 2 ] https://x.com/aliceoh/status/1843295126292156600
[ 3 ] https://x.com/gabe_grand/status/18433155749544348340