今天小编分享的科技经验:百度李彦宏:如果没有应用,DeepSeek等 AI 模型和芯片都没有价值,欢迎阅读。
百度创始人、CEO 李彦宏
4 月 25 日消息,钛媒体 AGI 获悉,今天上午武汉举行的百度 Create 开发者大会上,百度创始人、董事长兼 CEO 李彦宏正式发布文心大模型 4.5 Turbo 和文心大模型 X1 Turbo。
李彦宏认为,当下以 DeepSeek 为代表的部分模型仍然存在模态单一、幻觉高、速度慢和价格贵等问题,而百度发布这两款新模型,正是为了解决这些问题。
李彦宏在演讲中表示,DeepSeek 横空出世,MCP(模型上下文協定)逐渐被接受为行业标准,代码智能体和通用智能体等多智能体协作产品被广泛关注,越来越多的人加入到开发者的队伍。过去一年,开源中国社区增加了 150 万个开发者,但同时,不少开发者充满了焦虑,模型迭代这么快,模型能力也越来越强,那么开发者基于大模型开发出来的应用,会不会很快就过时,就没有价值了——这种担心不无道理。
" 大模型的世界风云变幻,几乎每周都有发布,天天有更新。去年第四季度有 49 个大模型更新发布,今年一季度就有 55 个,最多的时候一周发 8 个模型。一边,大模型的厂商卷生卷死,另外一边对于开发者来说又无所适从,不敢放心大胆的做应用,为什么?因为担心自己做的应用被模型迭代给快速覆盖掉,这样就相当于是白费了功夫。" 李彦宏称。
李彦宏认为,当前对于开发者来说是一把双刃剑。一方面,开发者确实需要理解技术发展的趋势,避开大模型自身发展的延长线;另一方面,日益强大的模型能力其实给开发者带来了更多选择,需要找对场景、选对基础模型。
李彦宏强调,AI 应用才是真正创造价值的。没有 AI 应用,什么模型、什么芯片其实都没有价值。
这是李彦宏对于 AI 技术行业的最新言论。
早前,李彦宏曾表示,中国的大模型太多。国内有 200 多个大模型其实都没有什么使用量。他还曾指出,百模大战是对社会资源的极大浪费,更多资源应该放在超级应用。同时,包括百度在内的大公司内部反应太慢、生产力落后。
2024 年 7 月,李彦宏直言开源模型就是 " 智商税 "。" 当你理性地去想,大模型能够带来什么价值,以什么样的成本带来价值的时候,就会发现,你永远应该选择闭源模型。今天无论是 ChatGPT、还是文心一言等闭源模型,一定比开源模型更强大,推理成本更低。"
2024 年 4 月百度 Create 大会上,李彦宏再度表示,同等效果下,成本明显更低,所以开源 AI 模型会越来越落后。随着今年中国开源 AI 大模型 DeepSeek-V3/R1 风靡全球之后,李彦宏的这句话再被热议。
李彦宏曾强调,大模型的算力推理其实很贵。所以说开源大模型的价值在教学科研这些领網域,要想搞清楚大模型的工作原理是什么,如果不知道源代码什么的肯定是有劣势的,但是真正在商业领網域,当你追求的是效率、效果,追求的是最低的成本时,开源模型是没有优势的。
李彦宏表示,DeepSeek 不是万能的,比如它只能处理文本,还不能够理解声音、图片、视频等多模态内容,而百度智能云的很多客户都需要这种多模理解和生成的能力;同时再比如,它的幻觉率比较高,在很多场合你不能够放心使用,如果在电商直播当中幻觉出 " 买一送一 " 的优惠,那么商家就要赔惨了;此外,中国市场上绝大多数大模型 API 的调用的价格都比 DeepSeek 满级版要低,而且反应速度也更快。
如今,李彦宏发布全新文心大模型 4.5 Turbo 和文心大模型 X1 Turbo。对比文心 4.5,Turbo 版速度更快、价格下降 80%,每百万 tokens 的输入价格仅为 0.8 元,输出价格 3.2 元,仅为 DeepSeek-V3 的 40%;而文心大模型 X1 Turbo 价格,仅为 DeepSeek R1 调用价格的 25%,输入价格 1 元 / 百万 tokens,输出价格 4 元 / 百万 tokens。
此外,百度还公布基于昆仑芯三代 P800 的中国首个点亮的全自研的 3 万卡集群,李彦宏称其同时承载多个满血版 DeepSeek 这样千亿参数大模型进行全量训练,也可以支持 1000 个客户做百亿参数大模型精调。
" 现在可以说,在中国开发应用,我们有底气。" 李彦宏在演讲结尾表示,坚信应用创造未来,开发者创造未来。
(本文首发于钛媒体 App,作者|林志佳)