今天小编分享的互联网经验:马斯克开了场誓师大会:我们就是OpenAI竞争对手,欢迎阅读。
文 | 周鑫雨
编辑 | 邓咏仪 苏建勋
" 当然,我们是竞争对手!" 谈及对 OpenAI、谷歌的态度时,新任 AI 公司老板的马斯克这样说道。
继 7 月 12 日晚宣布成立新公司 xAI 后,马斯克没有让大众等待太久。7 月 15 日,马斯克在 Twitter 语音聊天室里组了个 " 谈心会 ",和 xAI 成员们一起聊 xAI 的进展,包括使命、目标以及具体分工。
公众们也参与到聊天会中。xAI 对其 " 如何使用 Twitter 的数据 "、政府监管 AI 的边界等问题也做出了回应。总体来说,这场发布会可以说是信息量满满,xAI 反主流技术路径、拥抱公众监管的形象已经逐渐浮现。
一方面,12 人组成的 AI" 复仇者联盟 ",现在已经分工明确——
毕业于哈佛数学系的华人联创杨格(Greg Yang),会延续专业特长,主要对深度学习的数学和科学问题进行研究;
出身 OpenAI 的 Kyle Kosic,在 xAI 负责分布式系统的研发;
另一位华人、出身 DeepMind 的张国栋,在 xAI 则负责市场营销。
xAI 的 12 名成员。图源 :xAI 官网
另一方面,与其说谈心,这更像是一次誓师大会。" 我们应该小心,AGI 的出现看起来是不可避免的。我们有两个选择,要么只是旁观者,要么参与其中。" 马斯克表示。
xAI 就像现有 AI 模型的 " 复仇者联盟 " ——会上,成员们不遗余力地批判了 ChatGPT 等主流模型并不理解现实,而成员们的野心则和著名 AI 科学家杨立昆(Yann LeCun)一样,希望创建基于 " 现实世界 " 的 AI 模型。
马斯克也提及了对 AGI 的态度,给出了一个大概时间表:大约到 2029 年,AGI(通用人工智能)才能实现。他也补充,AI 领網域多一点竞争对手是好事,因为 " 可以让 AI 公司更加诚实 "。xAI 的成立并非想创造 AI 竞争对手,而是在创造更好的 AI 这件事情上 " 做自己的事 "。
但具体要怎么创造更好的 AI?从多位成员们的专业背景中可以预见——通过数学。用 xAI 成员吴宇怀(Tony Wu)的话来解释,这条路径是将自然语言和现实世界转换成数学形式,再进行机器学习。
会上,xAI 一号员工 Igor Babuschkin 也放出了产品预告:新产品正在研发中,未来几周可能会披露更多细节。
而与听众的交流过程,让人不禁梦回 OpenAI 创始人 Sam Altman 的国会听证会现场。交流会上的首个问题,就直指 xAI" 探寻宇宙真相 " 的愿景是不是假大空。
xAI 会如何使用 Twitter 的用户数据,也成了观众关心的议题。当被听众问到政府监管 xAI 的边界时,马斯克反问:" 你是美国政府的工作人员吗?"
比起政府的监管,马斯克认为无政府组织和公众的监督更能保持公允,即从 "AI 是否给出了真相 " 这一维度出发。会议最后,他开了个玩笑:公众参与 xAI 决策的前提是自证人类," 在未来,银行可能会收取一些日常费用,比如 10 美元,来提高你的人性。"
当然,和 OpenAI 的爱恨情仇没有被落下,马斯克谈及了当年创立 OpenAI 又离开的故事。他也侧面回应签署叫停 GPT-5 联名信的理由:如果花费额外的 6 个月或者一年来确保 AGI 安全,那我觉得是需要的。
关于马斯克的 xAI 和 OpenAI,推特网友制作的梗图。图源:Twitter
在问答会中,xAI 成员们提出了以下几个观点:
人均计算资源数量是项目成功与否的一个重要指标。我们希望有一个相对较小并且拥有大量专业知识的团队,让最优秀的人获得大量自主权和资源对他们的想法进行尝试。
在 xAI,我们必须允许 AI 说 "它认为是真的" 的东西,而不是欺骗性的,或 " 政治正确 " 的。
真相不是流行的内容。训练模型过程中,模型预测内容的下一个词来自数据集,如果这个数据集来自互联网,那么它可能会给你一个流行的、但可能错误的答案。所以你必须把答案建立在现实基础上。
总体而言,不应该特别地放缓 AGI 的到来,或者说这种放缓不应该持续很长时间。如果是为了显著提高安全性,那么稍微放缓速度可能是值得的。
当前的模型只是模仿训练它们的数据,我们真正想做的是改变范式,创造真正能发现真相的模型,而不是仅仅重复它们从人类的新发现中学到的东西。
xAI 的 Twitter Spaces 问答会。图源:截图
整场问答会围绕 xAI 的愿景、组织形式、商业模式、监管模式进行了讨论。以下是 36 氪对部分问答的整理(除注明观众外,交流人物均为 xAI 成员,问答内容略经 36 氪编辑):
xAI 和 OpenAI、谷歌是对手吗?
听众:随着 xAI 入局,周围有了很多关于竞争的讨论。你们将自己视为 OpenAI 和 Google Bard 之类公司和产品的竞争对手吗?还涉及将自己视作另一个赛道的参与者?
Elon Musk:当然,我们是竞争对手。
听众:xAI 的业务未来会 To C 还是 ToB?
Elon Musk:我们才刚刚成立,在业务上还处于萌芽阶段,所以我们需要一些时间做出真正有用的东西。我们希望为公众、消费者、企业或者任何人提供有用的工具。
以及就像 Kyle(Kyle Kosic,xAI 成员)之前(在自我介绍中)提到的,未来大家肯定不希望只有一家公司占据 AI 领網域的主导地位,AI 需要一些竞争,竞争能使公司变得诚实。
听众:xAI 计划如何使用 Twitter 的数据?
Elon Musk:许多 AI 组织都用一手数据进行训练,基本上是非法的。
一周前,推特带有互联网档案的商业应用程式被不少组织疯狂抓取,这也是我们大规模限制了用户服务的原因,很抱歉给大家带来了不便。
所以 xAI 只会使用公共贴文,而不会使用任何私人贴文进行训练。同时,Twitter 只是文本训练的优秀数据集,但影像和视频的训练也同样重要。
某种程度上,AI 会用完人类创造的数据,我认为 AI 最终会自己产生内容并且自己评估内容,这是我所认为的 AGI 的路径。
数据质量非常重要,好比读有史以来最伟大的小说,比我读一堆蹩脚的小说要好得多。
听众:特斯拉有自己的定制芯片团队,xAI 的算力会来自这个团队,还是使用英伟达的现货?
Elon Musk:我不会把特斯拉生产的任何图形处理器(GPU)称作 A100 或 H800 的等价物。考虑到汽车的性能,我们完整设计了芯片 Hardware 3,几年后还会有 Hardware 4,运行效率将会是 Hardware 3 的 3-5 倍。
我认为如果每天的访问量达到数十亿次,推理效率和节能优化是极其重要的。特斯拉的超级计算机 Dojo 在减少推理能耗方面有显著优势,但在内存带宽上有一定限制,所以无法很好地优化运行 LLM(大语言模型),但在影像处理上效果很好。
我们正在采取多步训练的方式,缓解内存带宽的限制,以便 Dojo 能够有效运行 LLM 以及其他形式的 AI 训练。
如今算力极度短缺,可能大约一年内电压互感器(Potential Transformer,用于变换电压的仪器)会短缺,再接着一到两年内电力也会短缺——这就是 AI 训练到推理的趋势。所以提高算力利用效率也很重要。
听众:所以考虑到节省能耗,xAI 会考虑和特斯拉合作吗?
Elon Musk:很明显,xAI 和特斯拉的关系是上市公司和股东。如果更进一步,xAI 和特斯拉的合作对特斯拉也有利,自动驾驶功能实际上也是为了理解现实世界的 AI。我对特斯拉在理解现实 AI(Real World AI)方面的进展感到乐观,不过帮助实现这一目标的聪明人类越多越好。
如何 " 理解宇宙 "?
Ross Nordeen(xAI 成员):很多人问 " 理解宇宙 " 是否是一个雄心勃勃但不够具体的目标?
Elon Musk:我不同意这个观点。我认为我们现在有太多悬而未决的问题是非常基本的,比如能量。我们有可以预测事物的静态模型,但仍然存在许多关于引力的性质的疑惑。
比如你刚才提到 " 费米悖论(注:该悖论主要讨论外星人是否存在)",这个理论也可以表述为假设人类已经存在了 140 亿年,为什么仍然没有能够证明外星人存在的证据——因为我和太空的紧密联系,人们经常问我这个问题。
而事实上,我们也无法排除人类至少在太阳系或者银河系某一部分,就是唯一的生命体。
值得注意的是,地球上 " 思想(consciousness)" 的进化大概有 45 亿年的历史(注:科学家在 45 亿年前的陨石中发现了遗传物质核糖)。当太阳逐渐膨胀,直到地球的温度被加热到足以让海洋沸腾,地球将变得和金星一样,无法让我们已知的生命生存,可能只需要 5 亿年。如果思想存在的时间比地球长 10%,那么思想就会完全发展,但从宇宙的角度来看,我们所剩的时间視窗很狭窄(只有 5 亿年)。
从本质上而言,知道到底发生了什么是很棒的一件事。所以我想大家可以把 xAI 的使命宣言重新表述为 "到底发生了什么(what the hell is really going on)"(笑),这是我们的目标。
马斯克官宣 xAI 成立,并提到愿景是 " 理解真实 ",xAI 官网的 slogan 则为 " 理解宇宙 "。图源:Twitter
Toby Pohlen(xAI 成员):使命宣言代表的是我们的报复。当然在短期内,我们正在研究更容易理解的深度学习技术。
但我认为,我们在做任何事的同时也应该永远记住,我们不仅应该创造(build),还应该理解(understand),所以追求科学对我们正在做的事情是很重要的,也包含在对我们使命的理解中。
Greg Yang(xAI 联创):我还想补充一点。我们基本上一直在谈论如何创造一个真正聪明的代理(Agent)来帮助我们更好地理解宇宙,就像指引方向的北极星一样。
但我发现,新的数学网络也可以开辟新的思维方式,比如思考基础物理,或者其他类型的物理现实。换句话来说,当我们试图通过数学的角度更好地理解运作模式,也能得出对现有问题的有趣和有意义的观点和理论。当然,现在这一切都是推测,不过数学也是理解宇宙的另一个视角。
Igor Babuschkin(xAI 成员):我们所谓的 " 理解宇宙 ",不仅仅指的是我们想要理解宇宙,而是我们也想让你更容易理解,同时也让大家对现实拥有更明显的感知,并且更好地学习和利用互联网上的知识。所以我们热衷于在早期发布工作和产品,让公众一起参与进来。
Elon Musk:当然,如果我们最后不了解宇宙,也不会告诉其他人(笑)。
目前 AI 领網域数量级的泛滥很严重。即便有 10 兆瓦的 GPU,AI 也没法写出比优秀人类更好的小说—— AGI 基本上是用野蛮堆数量级的方式去强迫逼近的,但实际上仍然没有成功。这是因为我们不知道正确答案是什么,所以要进行大规模计算。
澄清一下,这不代表 xAI 打算在筆記型電腦就就实现 AGI,我们还是会使用超级计算机。不过随着我们更好地理解现实的基本问题,暴力计算的比例将会减少。
Igor Babuschkin(xAI 成员):在我之前参与的所有项目中,人均计算资源数量是项目成功与否的一个重要指标。所以这也是我们真正想要优化的东西。我们希望有一个相对较小并且拥有大量专业知识的团队,让最优秀的人获得大量自主权和资源对他们的想法进行尝试——这是我屡试不爽的经验。
Toby Pohlen(xAI 成员):关于 xAI 计划如何执行我还有一件事要说明,正如 Igor 所说的,过去人均计算资源数量的机制运行得非常好,我们可以有一个相对较小的团队,可以相对不受约束地运行。
目前我们已经有了可以快速迭代想法的文化,成员间可以互相挑战,快速把成果分享。现在我们已经在开发产品的第一个版本,希望在几周后能够分享更多关于产品的信息。
监管该如何进行?
听众:ChatGPT 在使用过程中出现了很多奇怪的答案,甚至对真相进行了编辑,以此引导公众。这是否是你创立 xAI 的主要动机之一?
Elon Musk:我认为训练 " 政治正确 " 的 AI 是很危险的。换句话说,在 xAI,我们必须允许 AI 说 " 它认为是真的 " 的东西,而不是欺骗性的,或 " 政治正确 " 的。
显然,这会遭致一些批评。但我认为唯一的出路是反向追求真相,而不是强化 " 政治正确 "。
若是试图找出《2001:太空漫游(2001:A Space Odyssey)》中故事的症结所在,你就会发现 " 哈尔 9000 型电腦 "(注:太空漫游中控制太空船的电腦)所说的都是谎言。所以,AI 在较少的训练场景中不会设定通常无法实现的目标,但这也恰恰强迫 AI 为满足设定的目标而说谎。
听众:政府应该深度监管 AI 吗?
Elon Musk:我觉得最好的监管可能出现在非政府组织中,但这件事我们应该谨慎一些,但我不知道正确的答案是什么。
我们将用法律反对任何我们认为不符合公众利益的事情。据我所知,我们是唯一一家这样做的社交媒体公司。
Igor Babuschkin(xAI 成员):我觉得这取决于情况的严重程度。如果我认为公共利益很大程度上是正确的,我愿意冒进监狱的风险。
从更积极的层面来看,你希望 AI 如何让你受益会影响你对 AI 项目的态度。
Elon Musk:在 AGI 上,我思想斗争了很久,我既抗拒又努力让 AGI 发生。我应该分享一些关于 OpenAI 的背景故事。OpenAI 存在的原因是 Google 收购了 DeepMind。我曾经是拉里佩奇(Larry Page,谷歌创始人)的密友,但他没有把 AI 安全放在心上,至少在 DeepMind 上不够认真。
Google 和 DeepMind 合并后,他们就拥有了世界上 3/4 的 AI 人才,这也打破了 AI 竞争的平衡。所以,大家需要一个开源非营利性组织。
如今非常讽刺的是,OpenAI 想在三年内筹集 1000 亿美元,为此他们必须赚很多钱来吸引投资者,所以他们反而在相反的方向上做了和 Google 一样的事。
我的意思是,我们应该小心,AGI 看起来是有可能发生的事,我们有两个选择,要么成为旁观者,要么参与其中。作为旁观者,我们可能会因为过度训练而影响结果,作为参与者,我们无意创造竞争对手,比 OpenAI、微软更好的选项有很多。但只要我们还能优化 AI,我们就做我们的事。
听众:xAI 构建的是一个拥有物理世界知识的 AI 吗?
Igor Babuschkin(xAI 成员):在推特上我们有社区节点,本质上是一个非常惊人的数据集,可以用于训练语言模型来尝试验证有关用户的事实。因为我们知道当前的技术有很多弱点,比如不可靠、产生幻觉,所以你必须发明特定的技术来对抗它,并确保我们的模型更真实,有更好的推理能力。
这就是我们引进相关领網域的专家,尤其是数学领網域,因为我们真正关心的东西可以在数学上得到验证。一旦我们拥有了验证的能力,我们再将模型扩展到更模糊的领網域,也就是没有数学真理的领網域。
Elon Musk:我认为真相不是流行的内容。训练模型过程中,模型预测内容的下一个词来自数据集,如果这个数据集来自互联网,那么就会出现相当大的问题,因为它会给你一个流行的、但可能错误的答案。所以你必须把答案建立在现实基础上。
Igor Babuschkin(xAI 成员):当前的模型只是模仿训练它们的数据,我们真正想做的是改变范式,创造真正能发现真相的模型,而不是仅仅重复它们从人类的新发现中学到的东西。
Elon Musk:我认为总体而言,不应该特别地放缓 AGI 的到来,或者说这种放缓不应该持续很长时间。如果是为了显著提高安全性,那么稍微放缓速度可能是值得的。如果花费额外的 6 个月或者一年来确保 AGI 安全,那我觉得是需要的。
在不同发展阶段,风险也会发生变化,并且在所有阶段都是流动的。与其说是监管机构在指导特斯拉和 SpaceX,不如说这是我们内部必须思考的问题,然后去证明监管机构的合理性。
Manuel Kroiss(xAI 成员):监管迫使我们更多地思考安全性,但如果引入外部监管,往往会暴露我们内部的业务进展,同时外界对我们做的任何事会有各种反应。我想问 xAI 是否希望与更多外部实体合作?以及合作的哲学是?
Elon Musk:我当然支持与他人合作。这个问题听起来,像是一些大型上市公司对内部业务暴露的尴尬和对被起诉的担忧,所以大公司法律部门的人数与规模成正比。目前 xAI 法律部门的人数为 0,也将永远是 0。所以我确实支持与他人合作。
Igor Babuschkin(xAI 成员):在分享会结束前,最后想问 Elon。假设 xAI 是成功的,无论人类的水平是否超越 AI,你觉得让公众参与公司的决策是合理的吗?
Elon Musk:我们对批评性反馈非常开放,我对公众的意见表示欢迎。事实上,我喜欢(发布会)上一条推特的原因是因为推特上有很多负面反馈,这有助于自我意识的缩减。
我现在能够想到的最好的事是,任何想在 xAI 的未来投票的人都应该被允许,前提是你可以验证你是一个真正的人类(笑)。在未来,银行可能会收取一些日常费用,比如 10 美元,来提高你的人性(笑)。
欢迎交流!