今天小编分享的财经经验:百度摊牌了,欢迎阅读。
出品 | 虎嗅科技组
作者 | 王欣
编辑 | 苗正卿
头图 | 视觉中国
面对全球性的大模型狂热,究竟是一场新的技术革命,还是新一轮泡沫的灵魂拷问。
百度再次将答案指向应用—— " 没有构建于基础模型之上的、丰富的 AI 原生应用生态,大模型就一文不值。"
11 月 12 日,本次百度世界 2024 大会主题为应用来了,李彦宏在 1 小时的演讲中,提了 42 次应用,他认为," 依托检索增强(RAG)技术,大模型会利用检索到的信息来指导文本或答案的生成,从而极大地提高了内容的质量和准确性。" 基于此,李彦宏感受到过去 24 个月 AI 行业最大的变化是 " 大模型基本消除了幻觉 " ——这也是应用爆发的基础。
基础模型能力就位的情况下,他观察到应用层的真需求逐渐爆发:
截至 11 月初,百度文心大模型的日均调用量超 15 亿,相较 5 月披露的 2 亿,增长 7.5 倍,相较一年前首次披露的 5000 万次,增长约 30 倍。
在产业端,百度智能云已经拥有中国最大的大模型产业落地规模,超过六成的央企和大量的民营企业,正在联合百度智能云进行 AI 创新。百度智能云千帆大模型累计帮助用户精调了 3.3 万个大模型,开发出了 77 万个企业级应用。
实际上,百度在应用上的态度始终较为激流勇进,在去年的百度世界大会上,李彦宏就喊出:" 百度要做第一个把所有现有产品都进行重构、重做的公司。"
今年的大会,百度在应用上的布局变得更为大胆。
你似乎很难将大胆与百度这家公司联系起来,但铁了心要做应用的百度也显露了一些与以往不同的端倪。
用 AI 重构产品矩阵只是第一步,一些大刀阔斧的变革正在发生。
最大变量?
这样的变化,发生在百度的 " 基本盘 " ——搜索业务上。
作为 PC 时代的搜索巨头,百度在 AI 搜索应用上的动作一直备受关注。随着战火逐渐烧到 AI 搜索,百度也坐不住了。
目前,百度搜索引擎总搜索量的 18% 都是由智能问答的快思考方式回答,也就是说每天调用百度 AI 搜索的次数已经过亿。
智能问答的快思考主要针对答案明确的简单问题,例如:百度大会举行几年了?
百度搜索向虎嗅透露,近日,百度在 AI 搜索上开辟更多新路径——内测了慢思考模式的深度推理搜索。
这一模式支持更加复杂、需要结合全网信息进行推理整合的问题,比如:总结下国产新能源车近两年的发展趋势是什么样的?
目前,OpenAI 的 O1、Kimi 的探索版都采用了这种应用思维链的深度推理搜索能力,据某国产六小虎 AI 公司高层透露,目前国内有更多厂商都在投入这一路线。而百度的优势在于它积累的用户数据,以及全网几十亿的搜索溯源库。
同时,作为分发入口,百度也在将更多其他 AI 应用接入搜索。比如背靠百度搜索获得流量的智能体平台——用户能够通过百度搜索场景,直接进入智能体触发对话。
而在业内非常关注的 AI 搜索成本方面,百度移动生态事业群组(MEG)搜索平台负责人肖阳曾告诉虎嗅,单看搜索一项,基于文心一言实现 " 极致满足、推荐激发、多轮互動 " 的搜索成本没有那么可怕。相对于普通搜索,融合了生成式 AI 的搜索在成本方面只是 " 略高 "。
极限求变
另外,在 C 端应用方面,百度也在 AI 重构产品基础之上,探索更多的可能。
这里我们以李彦宏所展示的的工具智能体—— " 自由画布 " 为例,它的形态相较去年,更偏向探索新的应用边界。
实际上,去年它的采用的仍是行业主流 AI 原生应用的产品形态——对话框互動,用户通过输入不同的指令,生成所需的 AIGC 内容。这里所支持的内容可以是视频、文档、图片。
今年的 " 自由画布 " 不再是对话框形式,而是支持兼容不同模态限制的一张画布,用户可以将视频、文档、图片等各种不同模态的檔案同时拖拽到画布中,生成用户所需要的内容。
高自由度还体现在,用户可以标记出所需要文档素材中的某几句话,输入更加准确的指令,比如 " 这段文字重新写成更严肃的风格 " 或者 " 这段话保留在报告中 "。
百度副总裁,百度事业部、网盘事业部负责人王颖向虎嗅透露,该产品的设计理念源于两个阶段。
一是 2023 年 3 月份重构应用时,她就在思考文库作为内容创作(输入)的起点,该做成什么样的形式,那时她发现问题在于各种编辑器都存在于不同的平台,因此逐渐开始有了做更加融合的跨模态产品形式的想法。
二是 24 年 3 月份时,开始从输入、处理、输出三个维度来同时考虑,产品形态也更为清晰——在这个平台上让用户可以输入输出任何格式的内容。
文库偏向创作、编辑等内容生产端,网盘侧重分享、存储等内容消费端,这两种形式天然就形成内容创作的闭环链路。
所以他们决定将百度文库与网盘融合,来打通文库公網域资料与个人授权的网盘私網域内容的壁垒,实现内容创作和消费的闭环。
变革之后,王颖发现,他们 " 已经实现了一个全新的内容作業系統。"
极限求变之下,目前百度文库月活已经超过 7000 万,在国内 AI 应用月活排名第一,百度文库 AI 产品负责人钟昊表示,截至 2024 年 10 月,文库的 AI 用户数累计超过 2.3 亿。
不要超级应用?
虽然业界探讨 AI 超级应用的声音一直没变,但李彦宏却表示 " 百度不是要推出一个‘超级应用’,而是要不断地帮助更多人、更多企业打造出数百万‘超级有用’的应用。"
同时,百度发布基于大模型的 100 大产业应用,它涵盖了制造、能源、交通、政务、金融、汽车、教育、互联网等众多行业
对此,百度智能云事业群总裁沈抖的判断是 "AI 应用正率先在 B 端爆发 "。
百度智能云技术委员会主席孙珂告诉虎嗅,应用层的优势,还体现在百度上下层衔接和基础设施支撑上," 我们一直提倡的是从底层芯片层、基础云设施、平台,应用四层架构完全打通,客悦等应用基本上是基于包括百舸、千帆等底层平台搭建的,这是我们的基本逻辑。"
在底层算力方面,随着 " 暴力美学 " 大模型的算力要求已冲破十万卡门槛,百度也提前布局,是行业内最早打磨 10 万卡集群能力的厂商之一。
百度 AI 计算部负责人王雁鹏告诉虎嗅,虽然大模型创企 只有少数的一两家需要十万卡,但他们对成本有很高诉求。十万卡的意义在于,通过跨地網域的 RDMA 的技术、多芯混训技术、容错技术的技术储备,可以提供更好的云平台。整体云的成本下降了,就可以给客户更好的算力供给。