今天小编分享的科技经验:AI 的下个“万亿美元机会”在哪里?,欢迎阅读。
AI 风行一年,最大的市场机会,却不在大模型本身。
2023 年,投身 AI 的入局者不少," 群模乱舞 " 之下,玩家大概可以抽成几类。
大模型时代的下策,是单做模型,意在用技术力挤开市场大门,片面关注在模型能力、参数,硬要对标技术前沿,做最 " 牛 X" 的大模型。
这类现象在去年上半年最火,ChatGPT 掀起的热潮也捂热了不少人的大腦,但实际做下来,却总发现要拿下技术,终归逃不开大模型的 Scaling Law,投入深不见底,技术差距也无法一时弥补;产品缺乏新意,难以做到与市场需求匹配,自然也难以维持高额的算力、人员支出。
而随着资本市场渐冷,去年,这一批人已经不少,倒在了理想主义的大门前,败于 " 反复造轮子 " 带来的生产力浪费。
而中策,是模型和产品两手抓,用大模型能力带动 AI 产品的开发,为人工智能找一个能够实际落地、产生价值的安身之所。
曾有人说,大模型当下的市场思路,是把一颗上好的松露,放进油纸袋子里包好,放在顾客面前——无论多好的品质,吹到天上,食客不知道怎么吃,也不知道怎么才好吃;
而有经验的厨师,会把松露辅以牛排、鳕鱼、鹿肉等本就鲜美的食材,最大程度发挥松露的优点,把那些 " 传统 " 的菜式 " 重做 " 一遍。
要制造出 AI 的杀手级应用,也是一个道理:让 AI 发挥长处,用智能重新为原有的场景赋能。如果能找到这样一个恰到好处的结合点,很容易就能捧出下一个字节和拼多多量级的公司。
而归根结底以上两点,终归不是上策。更大的格局,是用一个更庞大的体系,把无数的 " 杀手级应用 " 纳入自己的下游,以技术推动产业和世界的变革,在时代齿轮的扭矩中采掘一个数十年难得的机会——
一个用 AI 作業系統改变世界的机会。
一、人机互動每变革一次,就诞生一个万亿美元规模的机会
在过去一年间,与诸多 AI 业内精英交流的过程中,AI 科技评论总能听到一个声音:
人机互動,才是让一家超级科技公司诞生的 " 金钥匙 "。4 月 16 号在深圳举办的百度 2024 Create AI 大会上,百度集团执行副总裁、百度智能云事业群总裁沈抖,讲了这么一个故事:
从最早期,人类与计算机的互動靠的还是布线板,工人手动插拔电缆、转动旋钮,人机互動甚至是个 " 体力活 ";
而随着汇编语言、汇编器、高级编程语言和编译器的出现,人类这才能用一种 " 类似 " 交流的方式,以一种 " 语言 " 和计算机沟通;
时间轴再次推进,很快,单机算力再难面对正急速增长的市场需求,云计算应运而生,人类也不再满足同时与一台机器 " 对话 ",而是要按需与多台机器形成的 " 集群 " 协作,把人机互動又推上了一个等级;
而到了今天,AI 大模型的出现,再次给人机互動带来了新机会——以编程为例,程式员不必再从语言学起,直接使用自然语言,在 AI 的帮助下,就能实现自己想要的功能;
也是如此,编程也就不再是人类与计算机 " 斗智斗勇 ",而变成了人对 AI" 许愿 "。
在人工智能慷慨的帮助下," 人人都是开发者 " 的愿景已经不远。
回看这个过程,如同耕者在春季翻开土壤,无数的生机因此出现,每一次人机互動方式的新革命,带来的都是一次科技行业万亿美元规模的契机。
抓住了这个机会,苹果做出了第一台个人电腦,后又在移动互联网时代引领风潮;微软做出了第一个可视化的作業系統,又利用办公軟體奠定了今天的办公流;而在云业务的加持下,亚马逊在二级市场 20 年来狂涨近 300 倍,从一家电商平台起家,跻身今日头部科技公司的行列 ……
细心观察,人们会发现:这些万亿美元市值科技公司的诞生,都脱不开他们在技术革新的浪潮中,抓住了一个能够改变人机互動方式的机会。
开头提到,当下大模型势头正盛,如果单纯把 AI 看作是一个技术或一个产品,那么人工智能真正的潜力就仍未被完全挖掘;
相反,只有把 AI 的能力和矩阵集成为一个作業系統,管理硬體资源和軟體服务的运行池,提供对外的服务接口,并借此为人机互動带来新的变化,才有可能撬动这个万亿美元的机会。
而要做这样一个作業系統,在人机互動逐鹿之战中问鼎,又谈何容易?
二、做 AI 作業系統,高性能异构计算是 " 硬门槛 "
" 大模型不是免费的午餐。" 在大会上,沈抖如此讲道。想要让 AI 作業系統能跑起来,算力是一个永远无法跨过的话题。
去年年初,在一众分析师的论断中,算力并不是一个关键因素:毕竟算力是一个 " 金钱游戏 ",只要钱够,能砸下来足够多的卡,这个问题也就自然迎刃而解。
然而一年过去,越来越多的人这才发现,当模型参数量级越卷越大," 金钱游戏 " 所需的金钱量级,也正在超出大多数公司能承受的范围。
如此,算力问题,单靠 " 砸钱 " 也就再难得出一个令人信服的答案。
连 AI 大模型的 " 领头羊 " —— OpenAI 的 CEO 山姆 · 奥特曼都不仅一次公开抱怨手里的算力不足。至少在当下看来,算力问题正强硬地制约着 AI 的发展速度。
大模型的计算也需要 " 降本增效 ",降低算力浪费是一个重要的途径。
如何让万卡集群如同一张卡一样 " 通力合作 "、让性能可以线性扩展、任务间不产生间断,这给 AI 作業系統的算力集群设计、调度和容错提出了巨大的挑战。
而新近推出了 AI 作業系統 " 万源 " 的百度,正通过万卡集群上的有效训练时长占比超过了 98.8%,线性加速比和带宽有效性都达到了 95% 的 " 傑出人士生 " 成绩,让业界看到了新希望。
(百度智能云发布新一代智能计算作業系統——万源)
而仅解决算力浪费问题,似乎还并不足以一劳永逸地完成大模型的 " 降本增效 " ——在国内," 禁运 " 带来的影响还在持续,要凑齐运载大模型所需的万卡算力,使用多种性能不同的芯片异构计算,几乎成了一个必选项。
异构计算,让不同厂家、不同代际、不同性能的芯片互联互通,是一个巨大的难题。
过去的通识是,异构计算只能用不同的芯片解决不同的任务;要把型号不一而足的芯片,放进同一个任务里——尤其是训练任务——几乎是天方夜谭。
要迎难而上,解决异构计算的效率问题,就不得不需要一点 " 黑科技 "。
而要做 AI 作業系統,百度在算力层的底气,就是他们已经解决了这个 " 不可能 " 的难题,屏蔽掉了不同芯片之间的差异,更是给了用户选择芯片组合的自由权。
在百度的异构计算平台 " 百舸 " 上,单一训练任务下,多家厂商的上万张芯片相互协作,百卡性能损失 3%,千卡损失不超过 5%,硬生生用技术把异构算力协作的效率提了上来。
也正是如此,芯片的 " 卡脖子 " 难题也就此被百度化解:不仅可以摆脱对单一芯片的依赖,创建一条更具弹性的供应链,把风险降到最低;还可以让成本更加可控。
百度的解决方案,一是将底层通信和上层算子的优化和实现拆分开,让专业的人做专业的事,自己专门负责底层加速库 AIAK 的开发,给异构计算搭好一个 " 大舞台 ",让各家芯片来到百度的集合通讯库都可以跑通;
二是在加速库里做好并行框架的实现,优化并行策略,通过自适应算法自动实现 TP(张量模型并行)、MP(模型并行)、PP(流水线并行)不同的并行策略的参数设定,迅速拿准并行化策略,处置训练任务的底层設定。
三是在卡间通信上,整合网络協定,GPU 层面上主要通过 NVLink,而当算力走出机器,百度主要使用的还是 RDMA,对于一些特殊的芯片,百度也有一些相当具体的实现策略。
既然短期内多款芯片并存是现实局面,那么与其怨天尤人,不如主动拥抱。百度让 " 百舸 " 争流,主打的就是主动拥抱多样化的芯片生态,在异构计算上做到极致。
脱离了 " 云 " 的硬體,AI 作業系統的实现也就成了 " 空中楼阁 " ——而云智一体,协同软硬體优化也正逐渐成为不少实力的大玩家的共识。
而要跑到一万张卡,要让一万张卡跑到同一个任务里,还是多家芯片组成的 " 多国部队 ",对于任何公司来说,都是个难以逾越的鸿沟。
今天的百度,已经跑出了一条路一云多芯、单任务多芯片的异构之路;
(业界领先的单一任务一云多芯大模型训练解决方案)
而其他玩家想要跑通这一套体系,进而在这一套体系上打造新的 AI 作業系統,在 AI 和云计算领網域多年的积累和落地则必不可少。
三、工具链," 低成本 " 有 " 高难度 "
如果把计算能力看作 AI 作業系統的 " 内核 ",那么工具链就是链接着开发者与 AI 的 " 中间层 "。
归根结底,算力和大模型再强,使用者用不顺手,没法把大模型用进场景,将 AI 的能力用到极致,AI 的作業系統就也只能是空谈。
到了这一层,AI 作業系統面临的就不再只是一个技术难题。如何理解广阔市场和纷繁复杂的场景,也成为了一个必须被回答的问题。
一方面,面对不同预算和需求的用户,AI 作業系統必须足够灵活,给出多种能够最高效解决问题的方案。
尽管去年以来,市场对大模型原生应用的需求正不断地提升,但在使用中," 性能、速度、价格 " 的 " 不可能三角 ",也让不少人望而却步——
如果只用一个模型,参数规模小了解决不了问题,参数规模大了又难以打平成本、满足高并发的需求。
这也就要求 AI 作業系統的提供方,不能一味抱持着一以贯之的思路,面对不同的场景,要提供不同规格的基座模型选择,不让用户在作業系統里花冤枉钱。
以百度为例,在已经获得了不少认可的文心 4.0 基础上,千帆团队又训出了 ERNIE Speed、Lite、Tiny 3 个不同量级的轻量化模型,分别针对不同用户对大模型的不同需求。
而在 ModelBuilder 提供的模型路由服务之下,针对不同难度的任务,AI 作業系統万源也可以自主选择最合适的模型完成调用,实现效价比的最优,在效果基本持平的情况下,将推理成本下降了 30%。
而在自有模型之外,千帆也支持 LLaMA、Baichuan 等等第三方的模型产品,主打一个 " 客户想要什么,我们就提供什么。"
一方面,大模型让人机互動方式走向自然语言,背后也需要一整套的 AI 能力和工具的支持。
一个更好的 AI 作業系統,要让用户可以更轻松简便地完成应用的开发,甚至只需输入一小段对应用功能的描述,甚至不用写一行代码,就可以获得实际解决自己需求的应用。
在百度的万源体系下,内置的 AppBuilder、AgentBuilder 两个应用开发平台,不仅已经让上述的想象落进了现实,而且两个平台的 SDK 也支持二次开发,让开发者细致入微的个性化需求得到满足。
不仅如此,以百度 AppBuilder 开发的应用,可以一键发布至百度搜索、微信公众号等平台,让应用的分发不再困难;也可以通过 API 或 SDK 的方式集成到自己的系统中。
另一方面,纷繁复杂的场景,使得模型的精调和完善的工具组件体系成为了必要。
在百度万源中,支持开发的工具组件数,已经上次的 11 个,高速增长到了 54 个。其中大模型的组件、 AI 能力的组件、插件工具以及数字人的组件等等种类多样,不一而足,同时还支持一次鉴权全部接入,省去不少繁琐的手续。
如同搭积木一样,用户搭配组合不同的组件,拼装之后就可以成为一个工作流,完成符合自己使用需求的大模型定制。
一个人如果长年从事 To B 生意,大多都会发现,To B 的底层逻辑总是 " 朴实无华 ":如何花小钱,办大事。
" 简单是终极的复杂。" 沈抖用这句话开始了自己在 Create AI 开发者大会上的演讲,就是意在减轻开发者的负担,为用户提供极简的开发体验。
当下,百度整个大模型平台的服务客户数在一个多月里又增长了 1 万,已经突破了 8.5 万。通过千帆精调的模型数,则涨到了 1.4 万,而开发的应用数现在也超过了 19 万。
便宜易用的工具链,让百度的 AI 作業系統体系已经有了一个不浅的用户池子。而积累起了用户,生态怎么做,则又成为了百度万源的 "One more thing"。
四、做生态,要 " 譬如北辰 "
作業系統的成功,绝不只是技术上的成功。
十几年,智能手机刚刚问世,也并不只有安卓、IOS 两家独大——塞班、黑莓、Windows 等等大批的作業系統百花齐放,激烈竞逐。而在厮杀的最后,只有安卓胜利了。
究其本质,还是得开发者得天下。
而得到了开发者,怎么把开发者留在作業系統里?怎么让开发者找到用户?赚到钱?这也考验着 AI 作業系統开发者在市场领網域的能力和资源。
在 AI 时代,市场角度上 " 客户 " 和 " 伙伴 " 的概念,正因为被进一步降低了的开发门槛而模糊。对于 AI 作業系統的开发者生态,一个点是把他们引进来,一个点是把他们留下来。
引进来,靠的是直接的激励,以及加入平台的便捷程度。这就要求 AI 作業系統足够开放,也能投入足够的成本用于激励,开办开发者大赛,让更多人加入进 AI 原生应用开发的行伍。
在争夺开发者的大战中,AI 作業系統的先发优势显然更加明显——一方面是能够首先获得一个更大的开发者群体,并且让他们更早在平台上完成产品,获得收益;另一方面是触达 AI 原生应用的 B、C 端用户更早,也能更早让开发者形成粘性,留在 AI 作業系統上。
而提到先发优势,就又不得不提到百度。无论在大模型技术、大模型生态,还是 AI 作業系統上,百度都是国内一众跟进者的领头羊。
在千帆的应用商店上,已经有 300 个 AI 原生应用上架,而第一批上线的 App 已经开始拿到了分润。
而要让人留下来,就得让开发者能够在平台上持续地获得商业收入和正反馈,最终实现用 AI 作業系統的 " 发家致富 " ——这才是 AI 作業系統能够提供给开发者的核心价值。
比如,在千帆平台上卖的最好的,是一个叫 ChatPPT 的演示文档助手,依靠亲民的价格和好用的功能,百元左右的价格,至今已经售出了上千单。
而有一家公司,短短一个月的时间,就在千帆发了 20 多款应用,涵盖背古诗、写作文、市场营销、绘图,一个月的净利润就有几百万。
如果简单的工作就能带来不错的收入,开发者怎么会不愿意留在平台上?
尽管已经有了不错的成绩,但要扭转用户的使用习惯,终归还是一件不容易的事情。
一方面让开发者看到 AI 的价值,另一方面也要实打实地给开发者带来生产力的提升和经济上的收益。
而万源的生态体系还不仅如此:
对上,万源链接开发者,通过不断更新的能力和接口,让 AI 原生应用大繁荣;
对下,万源链接芯片厂商,扩大芯片适配的队伍,给开发者提供更简便易用的异构算力;
向左,万源可以链接企业用户,让他们可以基于万源个性打造自己的 AI 作業系統;
向右,万源则链接智算中心,把更高效的计算方案推广给更多的用户。
这条路,如同《论语》中说的 " 譬如北辰,居其所,而众星共之。" 用更好的生态,将产业链路中的每一环都围绕在 AI 作業系統的身旁,进而创造一个以 AI 为轴的更广阔的生态系统。
结语:1+1>2
技术、产品、市场矩阵,要做成一个 AI 时代的作業系統,这三者一个也不能少。
作为中国第一个提出 AI 作業系統概念的大厂,百度的万源看起来似乎并不是一个新技术、新产品,而更像是当下百度智能云技术产品体系的又一次整合。
有人或许会问:这只不过又是一个新概念,拼拼凑凑算什么作業系統?要说 AI OS,集成了 New Bing 和 Copilot 的 Windows 才算是真正的 AI 作業系統。
而事实上,万源的提出,很可能是百度在 2024 年最令人激动的新动向:将诸多技术产品在作業系統上兵合一处,正很好地向外界展现了百度作为一家 AI 大厂,在人工智能领網域上 " 舍我其谁 " 的野心。
而之所以没有选择 Windows 的形态,而选择了 To B,百度万源对标的反而是微软的 Azure,做自己更擅长的赛道,找离钱更近的领網域。
去年,不少人大谈 AGI,梦想着在未来,人工智能将如同科幻小说里写的那样,改变世界;
而仍有不少人," 枯燥 " 地打磨技术和产品,深入行业和场景,只做最落地的事情——他们也要改变世界,而且他们要在今天就一点点地改变世界。
作業系統,是科技界在人机互動上的又一次爆炸性的机会。而要抓住这个机会,就必须用一整套体系形成规模效应,让 1+1>2。
在未来,用 AI 作業系統提供全栈 To B 服务,一站式解决用户的问题,必然是优秀 AI 大厂的大势所趋,也是云大厂转型的必然方向。
其他云大厂要加入这场竞争,不仅需要有足够优质的大模型作为支持,还要有足够深厚的云技术、场景积累,能做 " 模型 - 开发 - 市场 " 的全链路支持。如同一个水桶,不能有一块短板。
把万源 AI 作業系統当成一块沃土,在上面长出的应用——无论是百度来开发,还是其他开发者来开发——都能够以多种多样的形式,走进 B 端和 C 端的很多场景,进而带动公司在云领網域上的收入。
如此看来,万源称得上是百度智能云最坚实的基石。
" 我们终极的成功," 百度集团副总裁侯震宇在接受采访时讲道," 就是希望我们的 ModelBulider 能够身材更多的模型,我们的 AppBulider 能够产生更多的应用,这就是我们最大的理想。