今天小编分享的互联网经验:ChatGPT“缔造者”艾丹·戈麦斯:探索Transformer算法和AI感知的潜力,欢迎阅读。
Cohere 联合创始人艾丹 · 戈麦斯(Aidan Gomez)(图片来源:多伦多大学)
艾丹 · 戈麦斯(Aidan Gomez)是一位著名的 AI 研究者,也是 Cohere 的联合创始人。他是少数在 Google Brain 工作时创造 Transformer 算法的研究者之一。此次交流中,他谈到了自己的经历以及他的初创公司 Cohere,该公司以他早些时候的工作为基础。
戈麦斯在加拿大长大,后来他去了多伦多大学学习。在那里,他在大二的时候发现了人工智能,并开始狂热地阅读有关该主题的学术论文,是一名机器学习研究员和数学迷。
" 我变得痴迷,我就是日夜不停地阅读论文," 他回忆说。" 我会带着一篇研究论文入睡。"
他在文献中一直看到一个名字——杰夫 · 辛顿(Geoffrey Hinton )——他的附属机构也是多伦多大学,尽管辛顿早已停止教学。戈麦斯通过电子邮件与他联系,向辛顿提出一个小技术问题。令他惊讶的是,辛顿回应了他,这位世界上最著名的 AI 研究者向一个当时还是匿名的大學生解释了一个普通的问题。
在他的本科学习期间,戈麦斯前往科技创新的中心——硅谷——那里他成为了著名的 Google Brain 团队的一名实习生。在那里,他与领網域内一些最聪明的人合作,包括在开发谷歌 TensorFlow 模型框架中发挥了重要作用的 Lukasz Kaiser。
"Kaiser 想把机器学习研究者们编译的每一个数据集都放入一个模型中,使其在输入和输出方面都完全 Multi-model(多模态)。" 戈麦斯说。
为了支持这个项目,戈麦斯帮助建立了一个名为 Tensor2Tensor 的軟體基础设施,该设施可以在成千上万的 GPU 之间分配计算任务。他说,这主要集中于自回归模型,特别是基于注意力的模型。" 我们听说 Google 翻译的一个团队也对基于注意力的自回归模型感兴趣,Lukasz 说服他们过来,并在 Tensor2Tensor 上构建它。"
接下来的 10 周,我们一直在赶制这个模型。" 由于我们得到的结果非常出色,所以压力只是越来越大," 戈麦斯回忆道。" 这是早期非常成功、可以大规模扩展的架构之一,我们的大规模 GPU 集群带来了极高的性能。"
" 没人在睡觉;我每天工作 14 个小时编码,建设这个基础设施,使它更为健壮,运行实验,这就是我们得到变压器算法的方式。"
现在,Transformer 算法只有大约 20 行代码。基本层是一个多层感知器(MLP),Transformer 实际上只是一些堆叠在一起的 MLP 和一个注意力层。在 Transformer 之前,有这些非常复杂的 LSTM 架构,没有统一的架构。有了 Transformer,所有这些都被拆除,留下的是简单的、表现良好的、可扩展的 " 内核 " 东西。
Transformer 算法为先进的自然语言处理打开了大门,使机器能够理解和生成类似人类的语言。OpenAI 的首席科学家 Ilya Sutskever 立即利用它建立了第一个生成预训练 Transformer 模型—— GPT,现在已经发展到第四代 GPT-4。Transformer 引领了正在改变世界的生成 AI 革命。
戈麦斯接着共同创立了一家公司,Cohere,目的是使人们能够接触到这种变革性的算法和围绕它构建的大型语言模型。Cohere 致力于使 LLM(大型语言模型)尽可能地实用和有用,以满足不同的垂直任务和行业的需要。
戈麦斯大部分时间都没有参与关于生成式 AI(AIGC)对人类的威胁的辩论。但考虑到 AI 近期的显著进步,戈麦斯表示,越来越难以否认机器获得感知能力的想法。
随着 AI 感知潜力的展现,戈麦斯强调了负责任开发和伦理考虑的重要性。他呼吁 AI 社区以保护人类价值、隐私和社会福祉的承诺来面对进步。他相信,通过培养对 AI 开发的深思熟虑和透明的方法,我们可以减少风险,最大化它所提供的好处。(本文首发钛媒体 App)
更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体 App