今天小编分享的财经经验:又到年底,那些AGI预言“实现”到哪一步了?,欢迎阅读。
文 | 适道
2024 年余额告急,目测一大波 # 展望 2025# 正在路上。
谁还记得大佬们对 2024 年的展望?
一年以来,不仅 GPT-5 爽约,Brockman 本人险些离席,甚至连被奉为圭臬的 Scaling Law 最近也遇到了 " 小插曲 "。
一年以来,各类优秀的视频生成产品陆续发布,全员处于加速状态。但视频生成领網域并未迎来 "GPT 时刻 ",商业化探索同样是个难题。
年初惊艳世人的 Sora,自横空出世以来,就鸽了。。。。其背后原因,据说是卡在了审查关。一方面,要和政府深入探讨安全风险;另一方面,亟需好莱坞和艺术家们入驻合作。
另一种可能性是,太烧钱了。Factorial Funds 估算,Sora 在训练环节对算力需求比 LLM 高出好几倍,至少需要在 4200-10500 块 H100 上训练 1 个月。如果 Sora 得到大范围应用,比如 TikTok 的 50% 视频由 AI 生成、YouTube 的 15% 视频由 AI 生成,推理环节则需要约 72 万台 H100,大概烧 216 亿美元。前 OpenAI CTO Mira 提到,公司希望成本做到和 Dall · E 接近后再考虑开放。
一年以来,生成式 AI 应用依然处于早期,但挡不住巨头们的下注热情。红杉算了一笔账,AI 的预期收入和基建投入之间,或存在 6000 亿美元缺口。目前局势尚且稳定,不过历史给我们的教训是,泡沫需要很长时间才能破裂 ......
所谓 " 预言 ",往往会出现 " 方向 " 正确;" 时间点 " 错误的情况。虽然你很难咬定上面哪条预言判断有误,但目前的 " 体感 " 并不明朗。
" 黑天鹅 " 之父塔勒布曾在《反脆弱》一书中提出了 " 脆弱推手 "(Fragilista)的概念,特指那些在系统中增加脆弱性的 " 西装革履 " 的人物或机构。他们会用 " 预测 ",规划未来的路线图,对于自己不理解的事物,则倾向于当其不存在。
然而,如果这些 " 预言家 " 完全置身事内,其 " 预测 " 将影响自身利害,情况就大不相同了。比如,包括上述 Greg Brockman 等等投身 AI 事业的诸位大佬,他们或许会夸张炒作,或许会误测时间,但不会纸上谈兵。
只不过,有些预言实在是 " 太夸张 " 了。
最近,在一段 YouTube 视频采访中,当被问及对 2025 年的期待时,OpenAI CEO Sam Altman 答道:AGI?我对此很兴奋。我们要有 " 孩子 " 了,这是我一辈子最兴奋的事情。
眼看 GPT-5 正在 " 卡壳 ",你是信 2025 实现 AGI,还是信我是秦始皇。关于 AGI 的预言都有哪些?想要实现还差几步?《商业内幕》的一篇文章《Those bold AGI predictions are suddenly looking stretched》进行了解释。
看山跑死马," 明年实现 AGI" 堪比 " 明年移民火星 "
盘点大佬们对 AGI 的预测,大致存在 "2026 年 ""2029 年 ",以及 "2034 年 " 三个时间节点。
第一梯队:3 年内
OpenAI CEO Sam Altman:对 2025 年实现 AGI 充满期待。
" 全美 Cutter" 马斯克:最迟 2026 年会出现 AGI。
Anthropic 创始人 Dario Amodei :预测 2026 年实现 AGI 。
OpenAI 联创 John Schulman:AGI 将在 2027 年实现,ASI 将在 2029 年到来。
第二梯队:5 年内
诺奖得主、AI 教父 Geoffery Hinton:5 年内看到 AGI。
英伟达创始人兼 CEO 黄仁勋:未来 5 年,AI 能通过人类任何测试。
谷歌首席研究员 Ray Kurzweil:预测 AGI 将在 2029 年到来。
《奇点临近》作者 Ray Kurzweil:预测 2029 年实现 AGI。
第三梯队:10 年
诺奖得主、DeepMind 创始人 Demis Hassabis:实现 AGI 需要 10 年时间,且还需要 2 到 3 项重大创新。
软银 CEO 孙正义:AI 将在 10 年内比人类聪明一万倍。(直接预言上了 ASI)
当然,还有一些 " 白日梦 " 组合。
Yann LeCun 认为,AGI 短期内不会出现。至少不会像好莱坞科幻电影那样突然出现。它更可能是一个渐进的过程,而不是某个时刻突然 " 开机 " 就得到 AGI。实现真正的 " 人类级别 " 的 AI 之前,我们得到的更可能是一种 " 猫级别 " 或者 " 狗级别 " 的低智能 AI。
吴恩达对宣称 AGI 即将到来持怀疑态度:我希望能在我们有生之年看到 AGI,但我不确定。
人工智能专家 Gary Marcus 曾表示,如果我们继续深度学习和语言模型的路线,将永远无法实现 AGI,更遑论 ASI 了。因为这些技术存在缺陷,相对薄弱,只有通过更多的数据和算力,才能取得进步。
华盛顿大学计算机科学教授、《终极算法》作者 Pedro Domingos 曾断言:ASI 只是一个白日梦。
对于 AGI 的预测,背后关系着数万亿美元的投资。其无疑是未来科技发展的重要方向,但更重要的是,看清楚什么是真实可行,什么是过度炒作。
文章作者 Alistair Barr 认为,警示信号已经出现。
最为迫切的是 Scaling Law" 撞墙 ":OpenAI 联创 Ilya Sutskever 明确表示,依赖于扩大模型规模的结果似乎已经停滞;OpenAI 研究员 Noam Brown 表示,在某个节点,扩展模式会失效;谷歌下一代 Gemini 性能未达预期,内部正在重新评估训练数据的使用方式。
连 " 技术乐观派 " 投资人都开始 " 谨言慎行 "。
a16z 创始人 Marc Andreessen 和 Ben Horowitz 怀疑 LLM 是否能保持现有的发展劲头。
Andreessen 表示:目前看起来,AI 模型的能力似乎遇到了某种瓶颈。当然,行业中有许多聪明人正在试图突破这个天花板。但是,如果你仅仅从数据和性能趋势图来看,AI 模型性能的提升速度正在放缓,并呈现出一种 " 触及天花板 " 的趋势。
Horowitz 则指出了阻碍因素:即使芯片到位了,我们可能也没有足够的电力支持。而有了电力后,又可能缺乏有效的冷却手段。虽然 GPU 的算力在不断提升,但 AI 模型的性能却未能同步增长,这表明仅仅依靠硬體的更新并不能解决所有问题。
如果目前无法突破这个技术瓶颈,那么短期内实现 AGI 的可能性几乎为零。如今,Google 未给出明确回应;Sam Altman 直接表示,没有撞墙;Anthropic 则表示,尚未发现任何偏离 Scaling law 的迹象。
有趣的是,Alistair Barr 解释了 Sam Altman 为何 " 嘴硬 "。
一方面,如果 OpenAI 实现了 AGI,则有望逃离微软的巨额 " 控制 "。OpenAI 官网写道,一旦实现 AGI,其所产生的知识产权将不受现有与微软的協定约束。
另一方面,Altman 的 AGI 目标完全是一种愿景,就像马斯克对火星移民和自动驾驶汽车的执着——即便一次次错过预测时间,却总能点燃团队的热情。
因此,"2025 年实现 AGI" 的宏大目标,无疑比 " 实现公司账单自动化 " 这类相对平凡的目标更带劲儿,尽管后者可能更具短期商业价值。
历史表明,技术的发展充满了不确定性,比如某些技术在经历长期稳定的进步后,可能会突然失效。最经典的例子是 " 摩尔定律 "。该定律是半导体行业发展的一盏明灯,其 " 每两年翻一番 " 的预言,点燃了整个科技界的创新热情,并为英特尔等巨头的崛起奠定了坚实基础。
然而,麻省理工学院计算机科学与人工智能实验室(CSAIL)的研究表明,摩尔定律的魔力正在逐渐消退。
比如,2014 年— 2019 年,英特尔在 14 纳米和 10 纳米工艺的推进上遭遇了瓶颈,用 5 年才完成预期 2 年就能达成的目标。2019 年,投资者意识到摩尔定律不再适用以来,英特尔股价下跌了约 50%,至今未能完全恢复。
这些现象预示着,技术进步可能并非永恒,AGI 的到来并非迫在眉睫。
挡在 AGI 前方的四座大山
近期,Scale AI 创始人兼 CEO Alexandr Wang 的演讲颇具启发意义。
他将现代 AI 时代分为三个主要阶段:
第一个阶段是研究阶段(2012-2018),由第一个深度神经网络 AlexNet 开启,那是一个 AI 只能告诉你 YouTube 视频里有没有猫的时代。
第二个阶段是规模化阶段(2018-2024),由 OpenAI 的 Alec Radford 训练的 Transformer 和 GPT-1 开启。在这段时期,投入资源增长了一万多倍,这带来了性能的巨大提升。模型能力也从默默无闻的 GPT-1,发展到了博士水平的 o1 模型。
第三个阶段将是创新阶段,由 o1 模型开启,直到出现超级智能为止。我们拭目以待,看看这个阶段是 6 年还是更短。这个阶段的标志是,大家已经在模型上投入了 2000 亿美元,而事实上大公司无法投入比这更多的资金了。我们不可能在模型上砸出 200 万亿美元。所以,从数量级来说,能继续规模化的空间已经很有限了。砸钱工作结束,才真正需要相应的创新来配合,增强推理能力和测试时间计算能力肯定是其中之一。
Wang 认为,在此之前,迈向 AGI 路上存在五大挑战:数据墙、评估过拟合、Agent 不可靠、芯片和能源、国际竞争等等。
挑战一是数据墙。Epic AI 预计的时间点在 2027 年到 2030 年之间。但如果你和业内人士交流,他们会说比这更早。目前,有几个主要的解决方案。
例如,前沿数据,各种形式的合成数据,以及更高级的数据类型,还有企业数据。这些数据类型能让我们更有效地学习高级概念,比如推理能力、多模态、智能体数据。此外,具身智能以及其需要的现实数据将是一个重要领網域。总之,绝大部分的数据仍然是私有和专有的,是被锁起来的。
比如,GPT-4 的训练数据集大约为 0.5 PB。而摩根大通的专有数据集,超过了 150 PB。他们只是众多大企业中的一个。还有大量的数据躺在那里,从未被用于任何主要的训练。
挑战二是评估。这在 AI 圈内经常引发讨论,但是圈外人不太理解其重要性。评估是我们用来衡量这些模型进步的标尺。目前,许多评估都饱和或容易过拟合,过拟合指它们有点被 " 游戏化 " 了;饱和是指模型在所有评估中都已经表现得非常好。这意味着研究可能变得更加漫无目的。如果你看过去几年的 MMU、数学、GPQA 等测试,模型表现似乎达到了瓶颈。但这并不是因为模型没有变得更好,而是因为这些评估已经不够难了。为解决这个问题,我们需要建立更具挑战性的评估。
挑战三是 Agent。尽管每个人都在谈论 Agent,但它们还没有真正到来,而且不可靠。我们看到 AI Agent 与自驾中的 "L1 — L5" 非常相似。这个类比非常贴切:L1 是一个聊天机器人;L2 是你可以寻求各种帮助的助手。L3 是指用于工作流程特定部分的 Agent,你可以开始依赖它们;L4 可能会颠覆这一点,当 Agent 需要人类帮助时,会向你寻求帮助,更像是一种远程操作模式。首先,让模型在每个领網域都具备推理能力,最终在几乎每个领網域都能发挥作用。其次,建设能够实现远程操作 Agent 的基础设施。在未来,我们大多数人可能只是 AI Agent 的远程操作员。
挑战四是芯片和能源。在未来五年内,这些数据中心所需的电力保守估计为 100 吉瓦,也许远远不够。这相当于 20 个芝加哥的能源消耗,需要投入数万亿美元的资本支出。在这里我没有解决方案,只是指出这个挑战。
结语
AGI 被视为人类追求的 " 圣杯 "。一旦实现,世界将被彻底改变。
如果 AI 出现了 " 神 " 的能力,它或许就成了 " 神 " 的化身。
无论是在 2 年后,3 年后,抑或 5 年后,10 年后,终有一天 AGI 会实现,现在留给人类 " 转型 " 的时间还有多少?
或许,预测未来不如预测 " 脆弱 "。
正如 Sam Altman 所言:我从不祈祷求神站在我这边,而是希望自己站在神的一边。