今天小编分享的科学经验:为千行万业开算力通途,为什么是百舸?,欢迎阅读。
2025,各行各业基于 DeepSeek 探索各自领網域的落地方式,由此开启了 AI 智能化加速的新航程。然而,大模型应用落地是一个系统工程,技术与资源门槛高,还存在大量未知挑战。
面对不确定的海浪,具备全栈能力的云基础设施,成为企业追逐 AI 的可靠巨轮。
大模型对云计算基础设施的需求,与传统云计算存在显著差异。比如大模型训练需要万卡级 GPU 集群支持,且对多芯混合训练效能和稳定性要求极高。传统以 CPU 为中心的云计算中心,需转向以 GPU 为核心的智能算力架构,并实现算力资源的极致调度。
而百度智能云与其他云厂商最大的区别,就是一直是百度 AI 技术和业务的坚定支持者,常年在 AI 基础设施上进行投入。上云用大模型的需求爆发之后,百度智能云迅速跻身中国大模型平台第一,领航 AI 云市场。
这一成绩的背后,离不开百度所有核心业务的算力底座——百舸异构计算平台。借助百舸的大规模推理加速能力,以及自研昆仑芯 P800 芯片,百度智能云实现了算力性能与成本的双重突破。
就在昨天,4 月 25 日召开的 Create 2025 百度 AI 开发者大会上,百度正式点亮了昆仑芯 P800 的三万卡集群,发布昆仑芯超节点。仅有高性能芯片和大规模集群是不够的,为了稳定、高效地释放算力价值,百度智能云也全面更新百舸推理加速能力。
云计算的大船,正乘 AI 之风,扬时代之帆,迎来前所未有的增长机遇。这时候,有必要深入百舸内部,去窥探一下百度智能云这艘 AI 巨轮的加速密码。
为什么破解算力短缺和计算成本高的问题,仅靠单体硬體和集群还不够,需要平台级的优化助力?
纵观 2025 年的大模型算力格局,前有 DS 技术突破,算力需求激增;后有海外进口芯片供应持续不稳定,算力焦虑始终存在。多元异构芯片的混合训练,成为国内缓解算力荒的一个选择。但异构芯片之间的協定生态不同,合池训练难度大,对云基础设施提出了挑战。
首先,集群规模更大,推理场景下快速定位故障并恢复,十分考验超大规模集群的稳定性。
此外,异构芯片多样,国内超万卡集群多采用混合芯片方案,但不同架构合池训练会出现性能损失。《AIDC 白皮书》显示,业界顶尖的千卡智算集群,其算力利用率不超过 60%,万卡集群不超过 55%。提高国产集群的资源利用率和算效,避免资源浪费,刻不容缓。
DeepSeek 之后,尽快用上 DS 等大模型,成为企业的当务之急,云基础设施承载的 AI 任务大幅上量。一方面考验云基础设施的敏捷性,是否支持在云上快速构建和进行模型迭代,无缝集成 AI 开源生态,也需要调优技术的加持,从而带来极致的推理性能优化,降低推理成本。
可以说,AI 大模型深入千行万业,上云深度用 AI 的当下需求,进一步强化了多元异构计算平台的重要性和必要性。沧海横流处,百度智能云和百舸,已经做好了准备。
一场以 AI 为核心、多元异构算力为底座的云技术竞赛,就此拉开帷幕。百度智能云率先点亮了昆仑芯万卡集群,今年 Create 大会上,又正式宣布点亮 3 万卡集群。那么,百度是如何解决多芯混训问题的?百舸平台,是核心驱动。
百舸作为超大规模 GPU 算力平台,可以对算力集群的 AI-IaaS 基础资源进行调度,打造高性能 AI 基础设施,支持高达 10 万卡大规模集群,提供稳定、极速、高效的算力服务,满足企业的训练、精调、推理的全流程需求。
如果把 AI 云基础设施看作一艘航船,那么百舸的存在,可以发挥几个作用:
作用一,支撑更大的算力船身。百舸平台不仅有更强的单节点性能,同时通过昆仑芯超节点(高密整机柜),把卡放在同一个机柜里,用更快的机内通信替代机间通信,降低机柜之间通信的复杂性、高延迟和带宽成本,从而支持超大规模集群建设。基于百舸,AI 基础设施可以纳管的算力资源规模大,提供更加充沛、稳定的智能算力。
作用二,提供稳定的 AI 体验。当计算机群出现故障,每一次重写 checkpoint,都会给大模型的开发和企业平添波折。百舸平台通过智能调度与冗余设计,实现 99.5% 有效训练时长,以分钟级故障恢复能力,减少中断,确保 AI 任务连续稳定运行。
作用三,为 AI 任务加速的高效动能。类 DeepSeek 的长思维链推理模型,增加了思考环节,需要输出的 token 更多,如果吞吐速度不够快,用户就需要长时间等待,AI 体验很差。百舸的大规模分布式 PD 分离推理系统,可根据不同的模型特点,选择最优的并行策略,做到 token 级别的 PD 负载均衡,同时结合算子融合、all-to-all 通信算子优化、异步 KV 传输、双流编排等技术进一步提升 GPU 利用率,推理成本节省 95%,总吞吐提升 20 倍。同时,百舸还支持私有化部署。也就是说,无论是云上调用推理模型,还是本地部署,百舸都可以保障高效实时的体验。
可以说,在百舸平台的支撑下,百度得以打造坚固的异构算力底座,拥有了在大模型时代远航的稳定推进力,在 AI 云服务的竞争中处于领先身位。
开年以来,AI 云市场进入后 DeepSeek 时代,头部云服务商都在积极更新 AI 基础设施及服务。百度能否长期保持 AI 云的优势,还取决于 AI 底座与产业的融合深度。
说到底,只有让企业真正用上 AI,用好 AI,AI 基础设施及 AI 云服务才能焕发出最宽广的价值。
如何帮助千行百业高效地接入 AI 算力与模型,打造自己的 AI 应用?百度智能云 AI 计算部负责人、百度杰出架构师王雁鹏认为,支撑 AI 应用的创新大爆发,基础设施必须让算力不再成为瓶颈,让算力唾手可得。全新更新的百舸,就是百度智能云交出的一份答卷,可以用三个字来概括:
全。王雁鹏提到,面对 AI 模型的爆发,敏捷的基础设施能够支持各种芯片、模型、框架以及工具链。全新更新的百度百舸算力平台,不仅提供高性能的计算、存储、网络的基础资源产品,也提供了一键式全站 AI 工程开发平台以及各类工具集,能够一键建设资源池,一键部署开发环境,一键部署模型,把 GPU 的利用率发挥到极致,为各类开源模型带来显著的加速效果。
作为企业级的一站式 AI 工程平台,百舸覆盖 AI 大模型的全周期、全流程,可以缩短 AI 开发周期,对于金融、互联网等追求效率、时间敏感、竞争激烈的行业来说,意义重大。比如百度智能云携手招行基于昆仑芯国产算力,接入开源模型,帮助招行快速提升了智能客服、多模态数据分析等场景的应用效能。
省。领先的 AI 工程硬核加速能力,也可以让各领網域开源模型训推成本更低、周期更短、故障更少,能够同时支持成百上千的各种任务不中断,大幅节省了企业的时间和资源成本。北京人形机器人创新中心的通用具身智能平台,就依托百度百舸 AI 异构计算平台和稳定可靠的 AI 算力基础设施,进行模型训练,为人形机器人打造更聪明的 " 大腦 "。
强。王雁鹏介绍到,把训推系统的能力做到极致,充分压榨出硬體的算力,是百舸一直以来追求的目标。百舸的原生 AI-IaaS 对接和管理能力,可以发挥出基础设施最大效能,性能更强。
最近,百舸针对多模态模型以及智驾模型做了深度优化,在多模态模型上取得了 30%,在智驾模型上取得了 150% 以上的加速效果,助力更多行业、汽车企业等智能化降本增效。比如教育机构好未来,就借助百舸的队列超发能力,充分利用集群闲时资源,整体资源利用率提升 10% 以上。
当一个企业打算落地应用大模型,百舸是一条更短、更省、更快的智能化航路。
在未知的海網域中探索,望向技术远方的星辰,才能走在正确的方向上。十多年来,AI 指引着百度的航向,从未偏离航道,才能成为大模型时代 AI 与云的领航人。
云基础设施 +AI 技术的优势,让百度智能云在大模型时代快速增长,成为大量政企上云赋智的首选。而百舸平台,也为缓解行业智能化的算力焦渴,发挥了关键作用。
早在百度押注 AI、大模型、昆仑芯的时候,就知道必须把多元异构计算集群掌握在自己手中,那么百舸平台的出现,也就是水到渠成了。
进入 2025 年,国产大模型 + 异构算力,正在书写智能中国的新篇章。我们已经从百舸身上,发现了百度继续领航 AI 与云时代的必要条件:
基础设施完备。从昆仑芯,到百舸平台,AI 算力基础设施底座是百度业务 AI 重塑的基本保障。
进化动能强劲。高性能优化技术,降本增效,支撑百度大模型、AI 应用等低成本高效迭代,持续进化,竞争力不断增强,避免掉队。
商业逻辑清晰。AI 即服务、模型即服务的商业逻辑想要成立,必须持续优化 token 成本,带给客户上云用 AI 的真实价值,从而在用户规模和资源回报比上占据优势。凭借百舸平台能力,新业务模式得以成立。
为千行万业,开算力通途,属于 AI 与云的时代才刚刚开始。接下来,百舸支撑的 AI 云基础设施及服务,不仅是行业和企业加速拥抱 AI 的时代航船,也将是百度增长的主航道。