今天小编分享的科技经验:马斯克xAI创始成员国内首发声:ChatGPT时代「乱世出英雄」,欢迎阅读。
马斯克组局xAI" 钻研宇宙本质 ",创始成员高深又神秘。
相比专注于 AI 领網域本身,这些成员大多具有基础学科背景,接触 AI 之前或是在研究基础数学,或是在搞物理。
这家公司究竟要做什么?
就在这两天,丘成桐弟子杨格(Greg Yang),成为第一个以 "xAI 创始成员 " 身份在国内会议上发言的人。
在国际基础科学大会的 " 基础科学与人工智能 " 论坛上,他谈及了自己一直以来、也是接下来要进行的数学 AI 工作,以及对大模型当前发展现状的看法。
而他的个人经历也再次浮出水面,为更多人所关注。
接下来要进行什么研究?
在国际基础科学大会上,杨格就自己正在研究的方向进行了一场演讲。
演讲主题,主要与AI 和数学交叉学科有关——
从数学角度出发,建立一种描述神经网络架构的统一编程语言Tensor Programs。
这是他从微软研究院开始就一直钻研的领網域,继 2019 年连续独立发表的两篇论文之后,迄今这一项目已经有 7 篇相关论文问世。
具体来说,Tensor Programs 项目有一个 " 短期目标 " 和一个 " 长期目标 "。
短期来看,这个编程语言能实现在设计新神经网络架构时,自动进行初始化条件分析,并给出其中最优的超参数初始化条件,从而让模型训练更顺利。毕竟此前,这一领網域的初始化設定几乎 " 全靠经验 "。
长期而言,Tensor Programs 项目的目标是开发大规模深度学习的 " 万物理论 "。
这也与杨格在推特说的、他在 xAI 要进行的研究方向一致:
目前无论是大模型还是其他 AI 研究方向,都依旧没有真正意义上解决 AI" 黑箱 " 的问题,换而言之,AI 究竟走哪种研究方向(堆叠更大参数量的模型、还是 MoE)收益更高,还没有一个明确的结论。
因此,Tensor Programs 最终目标是找到一种理论上的规则,可以真正理解 AI 大模型的行为。
Tensor Programs 最新的项目进展,是微软与 OpenAI 合作发表的论文 µ Transfer,杨格以共同一作的身份完成了这项研究。
这项研究的核心是帮助大模型找到最合适的超参数配置,从而替更多模型节省时间和算力成本,否则对于大模型来说," 重训 " 是一个非常浪费参数的行为。
目前这项研究已经开源,杨格也在这次的演讲中着重以 µ Transfer 为例,介绍了 Tensor Programs 项目的进展。
从这几篇研究论文侧重的 AI 模型来看,大模型如今已经是杨格研究的重点方向之一。
一个值得关注的点就是,μ Transfer 已经用到 GPT-4 中了。
公众号 " 安迪的写作间 " 作者在杨格(Greg Yang)演讲结束后,和他聊了聊:
下台我问了他关于GPT-4 用到 μ Transfer 了吗,给出肯定回答。
所以,他究竟如何看待大模型的未来?
在这次论坛的圆桌对话上,杨格也提到了自己对大模型发展方向的看法。
他认为,继续堆叠大模型参数可以让模型效果越来越好,但这有个前提,即数据集的质量和数量必须要上升。
以前收集网络数据就行,如今训练集必须变得更偏向数学、科学、更有逻辑性,才能提高模型的科学和数学推理能力。
同时,杨格也给了如今拼搏在科研、交叉创新一线的 AI 研究人员一点建议,就是 "Follow your dreams":
这一阶段的很多杰出的搞 AI 的人,像工程师、研究人员,有几个都是像我这样没有读博士,只是就想去干,拼一下就拼出结果的,像 Alec Radford,GPT-1、GPT-2 都是他自己做的,后来 OpenAI 就开始砸钱了。
曹操说的 " 乱世出英雄 ",这是个新世界,你不要想一些外部环境,直接去干,很有可能擦出火花,这就是要你自己有热情。
没错,当年的杨格,打破了微软研究院 " 只招博士生 " 的惯例,本科毕业就进入了这一机构工作。
他在学术经历上究竟有什么过人之处?
换而言之,为何他会成为马斯克选中的 "12 人 " 之一?
杨格是谁?
杨格出生于湖南省,在北京读完小学后,就去了美国,本科考上了哈佛数学系。
在哈佛的头两年,杨格参加了鼓手团、咨询团等众多活动。
大二结束时,有着音乐梦的他决定休学全身心投入音乐事业,成为一名电子舞曲音乐制作人和 DJ,取艺名 "Zeta"。
也是在此期间,杨格接触到了人工智能。
一年半后,杨格发现自己的 " 真爱 " 终归还是数学,于是又回到了哈佛。
读完春季学期的课程后,他又休学两年,这一次他没有执着于音乐,而是快速学习了数学和理论计算机科学,以及人工智能的前沿进展,此外还广泛涉猎物理学、生物学和神经科学。
此外,他还研究起了神经图灵机,并结合可微拓扑学中的思路,提出 "Lie Access Neural Turing Machine",发表于 ICLR。
再次回哈佛,杨格师从丘成桐教授。
△杨格与丘成桐,图源:杨格推特
2017 年,杨格顺利从哈佛毕业,拿到了数学学士学位和计算机科学硕士学位。并获得了 2018 年摩根奖荣誉提名(Honorable Mention for the 2018 Frank and Brennie Morgan Prize for Outstanding Research in Mathematics by an Undergraduate Student)。
毕业后,老师丘成桐曾问杨格 " 你毕业去哪儿 ",他说 " 我要去谷歌 "。
丘成桐说 " 谷歌这种很差的公司就不要去了,我有个朋友叫沈向洋,我马上给他打电话 "。
后来,沈向洋让菲尔兹奖得主 Michael Freedman 面试了杨格:
面试之后(Michael)说这个小孩不得了,那时候他才刚刚本科毕业,但在哈佛至少是前五名(的水平)。
我(沈向洋)当时就跟杨格讲,你把谷歌的 Offer 拿来给我看一看,我给你加一块钱,就来微软吧。
最后杨格选择了微软。而进入微软后杨格也获得了沈向洋的高度评价:
微软研究院平时只招博士生的,杨格作为一个本科毕业生进了微软研究院,不仅进了微软研究院,过去这五年还做得无比优秀,特别是在 GPT 发展过程中做了举足轻重的贡献。
进入微软后,杨格的重要成果之一就是持续开发上面提到的 "Tensor Programs" 框架,其中还用 GPT-3 对所提出的超参数迁移方法进行了验证,相关论文已收录于 NeurIPS、ICML 等顶会:
此外,谷歌学术数据显示,杨格从 2015 开始发布论文,至今已有 34 篇。
其中引用量最高为 415,这也是他在微软的工作,杨格在这个项目中担任主要指导(Primary mentor)。
目前,杨格个人主页和推特主页等均已更新,已离开微软研究院,加入 xAI,接下来将继续做数学工作。
杨格做出了新一轮的选择,但从第一次休学过后,他再也没有放弃对数学的热爱。
在这次的论坛上,杨格也被问到,当时去从事音乐后又转到数学研究,是怎样一直坚定走到现在的?
杨格回答道:
其实就是个人爱好,在我大二休学之前,我一直都是数学比较好的人,可能会觉得一辈子在这种(数学研究中)。之后虽然我去搞音乐,但有段时间自己思考后,发现其实我个人还是很热爱数学。
这里面可能有外在动机(motivation extrinsic)和内在动机(motivation intrinsic)。像数学答卷老师给你 100 分,你觉得很高兴,这是外在的。这种外在和内在混在一起,可能感觉不到自己真心的爱好,但是后来休息一段时间以后,感觉(对数学)是发自内心的热爱,之后就走了这么长的路。
One More Thing
还记得前段时间杨格给大伙儿推荐的 300 多本(大部分是数学)书吗?
不少网友看过之后,表示 " 书单实在太长了,不是普通人能看完的 ",还有网友调侃 " 能不能用 GPT 帮我总结一下 " ……
论坛结束后,我们也和杨格聊了聊,了解了他对 ChatGPT 等大模型的一些看法。
提问:看到您前段时间推荐了大概 300 本多书,有很大一部分是数学书,您认为 AI 是否有可能把它直接总结成一个核心的要点给我们?平时在日常生活中,您是不是也会用 GPT-4 一样的模型,去帮助做一些数学的基础研究什么的?
杨格:我觉得 AI 的总结能力(summarization)现在应该挺好的了,做简单的总结应该没问题。但你要再深入理解它里面的道理,像是一些数学道理的话,可能 AI 现在的帮助还不是那么大。
日常生活的话,是会经常用到(大模型)。
提问:可以透露一下主要是用在哪些方面吗?
杨格:我觉得最有用的方法就是写程式吧。比如有些程式你确实可以自己写,但自己写的话,一是可能要花几个小时,二是觉得这种东西不是特别有趣,所以像这种工作你就可以用 ChatGPT 来帮你做。
提问:相当于您完成核心思考,然后 ChatGPT 帮您实现代码的工作。
杨格:其实就是实现它已经在网上看到很多很多遍、所以它能写得很好的一些程式。
但如果现在你想写一个复杂的程式、像是有什么逻辑性的程式的话,让 ChatGPT 来做可能还不一定做那么好。但如果是那种你写了几百遍的程式了,你不想再写,就可以用 ChatGPT 完成。
参考链接:
[ 1 ] https://arxiv.org/abs/2203.03466
[ 2 ] https://github.com/microsoft/mup
[ 3 ] https://mp.weixin.qq.com/s/s7MGUCHoEfyXhUcQAScltw