今天小编分享的互联网经验:李彦宏内部讲话曝光:谈大模型三大认知误区,未来模型之间的差距会变大,欢迎阅读。
" 外界对大模型有相当多的误解," 近日据媒体报道,李彦宏的一则内部讲话曝光。在最近一次和员工交流中,李彦宏谈及三个大模型认知误区,涵盖了大模型竞争、开源模型效率、智能体趋势等热点话题。
李彦宏认为未来大模型之间的差距可能会越来越大。他进一步解释,大模型的天花板很高,现在距离理想情况还相差非常远,所以模型要不断快速迭代、更新和更新;需要能几年、十几年如一日地投入,不断满足用户需求,降本增效。
榜单不代表大模型实力,模型之间的差距是多维的
对于行业 " 大模型之间的能力已经没有壁垒 " 的说法,李彦宏给出了不同观点。" 每次新模型发布,都要和 GPT-4o 做比较,说我的得分已经跟它差不多了,甚至某些单项上得分已经超过它了,但这并不表明和最先进的模型就没有差距了。"
他解释说,很多模型为了证明自己,会在发布之后去打榜,会去猜测试题目、答题技巧,从榜单上看 ,或许模型的能力已经很接近了," 但到实际应用中,实力还是有明显差距的。"
李彦宏指出,模型之间的差距是多维度的。行业往往更关注理解、生成、逻辑、记忆等能力的差距,但却忽视了成本、推理速度等维度,有些模型虽能达到同样效果,但成本高、推理速度慢,还是不如先进模型。
内部讲话中,李彦宏认为,真正要去衡量大模型能力,应该是在具体应用场景中,看是否能满足用户需求、产生价值增益,这才是最值得被在乎的。
开源模型效率不高,解决不了算力问题
延续此前观点,内部讲话中,李彦宏进一步阐释了外界对开源大模型的认知误区。
" 在大模型时代之前,大家习惯了开源意味着免费、意味着成本低。" 他解释说,比如开源的 Linux,因为已经有了电腦,所以使用 Linux 是免费的。但这些在大模型时代不成立,大模型推理是很贵的,开源模型也不会送算力,还得自己买设备,无法实现算力的高效利用。
" 效率上开源模型是不行的。" 他表示," 闭源模型准确讲应该叫商业模型,是无数用户分摊研发成本、分摊推理用的机器资源和 GPU,GPU 的使用效率是最高的,百度文心大模型 3.5、4.0 的 GPU 使用率都达到了 90% 多。"
李彦宏分析,在教学科研等领網域,开源模型是有价值的;但在商业领網域,当追求的是效率、效果和最低成本时,开源模型是没有优势的。
智能体是大模型最重要的发展方向,但还不是业界共识
李彦宏还谈及了大模型应用的发展阶段,他认为首先出现的是 Copilot,对人进行辅助;接下来是 Agent 智能体,有一定的自主性,能自主使用工具、反思、自我进化;这种自动化程度再发展,就会变成 AI Worker,能独立完成各方面的工作。
当前,智能体已经受到越来越多的大模型公司及客户的关注,李彦宏认为,虽然 " 有很多人看好智能体这个发展方向,但是到今天为止,智能体还不是共识,像百度这样把智能体作为大模型最重要的战略、最重要的发展方向的公司并不多。"
为什么要强调智能体?李彦宏也给出了答案," 智能体的门槛确实很低 ", 很多人不知道怎么把大模型变成应用,而智能体是一个非常直接、高效、简单的方式,在模型之上构建智能体相当方便。目前,每周都有上万个新的智能体在百度文心智能体平台上被创造出来,智能体的日均分发次数已快速增长至 800 万次。
雷峰网