今天小编分享的科学经验:阿里云进军大模型一年,现在是开源第一名,CTO:闭源要超过所有开源模型才有机会参与讨论,欢迎阅读。
阿里云正式发布通义千问 2.5 大模型,同时宣布性能全面赶超 GPT-4 Turbo。
此时,距离阿里云通义大模型发布,恰好过去一周年;距离 GPT-4 发布,也已经过去一年有余。
同时,阿里云也正式宣布了 " 通义千问 App" 更名为 "通义 App",为所有用户提供免费服务。
通义意为 " 通情,达义 ",该 App 以最新通义基础大模型为底座,并把通义实验室的文生图、智能编码、文档解析、音视频理解、视觉生成等能力 "All in one"。
阿里云 CTO 周靖人表示:
大模型这么多家,大家都说的是同样的故事,但最后比拼的就是能力差异。包括最后比拼的是怎么融合生态,尤其是开发者的生态。
怎么把它落地运用起来,才是最大的差异。
通义千问 2.5 发布
先来看看最新发布的通义千问 2.5版本。
周靖人介绍,相比通义千问 2.1(去年 12 月 1 日发布),2.5 版本的理解能力、逻辑推理、指令遵循、代码能力分别提升 9%、16%、19%、10%,中文能力尤其突出。
在权威基准 OpenCompass(上海 AI Lab 出品)上,通义千问 2.5 得分追平 GPT-4Turbo。这是该基准首次录得国产大模型取得此等成绩。
会上介绍,通义 2.5 加强了文档处理能力。
可单次可处理多达 1000 万字的长文档,还能同时解析 100 份不同格式的文档,支持多檔案类型、多数据格式解析、多场景优化,便于用户使用和继承。
同时,通义的音视频理解能力也有迭代更新。
发布会上,周靖人着重介绍了专业提供智能编码能力的通义灵码,现在它不只支持个人程式员,也推出通义灵码企业版本。
在技术能力迭代的基础上,上述能力都集成在刚刚改名的通义 App 内,用户可以通过 App 和 Web 端进行使用。
百炼更新 2.0 版本
除了通义 2.5 模型以外,阿里云的百炼大模型平台最新进展也进行了展示。
去年 10 月,阿里云发布了百炼大模型平台,主要功能就是让开发者通过简单的拖拉拽,在 5 分钟开发一款大模型应用,几小时炼出一个专属模型。
现在更新后,百炼有了 2.0 版本,成为阿里云承载云 +AI 能力的重要平台,提供一站式、全托管的大模型定制与应用服务。
" 当下企业应用大模型存在三种范式:一是对大模型开箱即用,二是对大模型进行微调和持续训练,三是基于模型开发应用,其中最典型的需求是 RAG,以企业数据对大模型进行知识增强。" 周靖人展开介绍," 围绕这些需求,百炼打造了模型中心和应用中心,提供最丰富的模型和最易用的工具箱。"
目前,百炼联动魔搭开源社区,集成了上百款大模型 API,除了通义、Llama 等系列,还有智谱 ChatGLM、百川、月之暗面等系列模型。
对需进一步训练模型的用户,百炼提供从数据管理、模型调优、评测到部署的模型服务,用户可对算力按需调用,无需因底层架构费腦筋。
此外,百炼还支持基于 prompt 定制和优化、支持 Assistant API 开发模式,实现智能应用的编排,结合自身需求做定制化开发。
持续开源
去年 8 月,通义宣布加入开源行列,随之沿着 " 全模态、全尺寸 " 路线,陆续推出十多款模型。
其中较为瞩目的是参数规模横跨 5 亿到 1100 亿的八款大语言模型。
小尺寸开源模型:0.5B、1.8B、4B、7B、14B,可便捷地在手机、PC 等端侧设备部署;
中等尺寸开源模型:32B 试图在性能、效率和内存占用之间找到最具性价比的平衡点。
大尺寸模型:如 72B、110B 能支持企业级和科研级的应用。
此外,通义还开源了视觉理解模型 Qwen-VL、音频理解模型 Qwen-Audio、代码模型 CodeQwen1.5-7B、混合专家模型 Qwen1.5-MoE。
阿里云表示,自己是全球唯一持续开发模型、坚持开源的公司。
此次发布会上,通义也发布了最新款开源模型:1100 亿参数的 Qwen1.5-110B。
该模型在 MMLU、TheoremQA、GPQA 等基准测评中,超越了 Meta 的 Llama-3-70B 模型;在 HuggingFace 推出的开源大模型排行榜 OpenLLMLeaderboard 上,Qwen1.5-110B 冲上榜首。
最后,在谈及开源技术时,周靖人表示,开源对全球技术的贡献毋庸置疑,闭源模型至少要超过所有开源模型才有机会参与讨论。
— 联系作者 —
— 完 —
点这里关注我,记得标星哦~
一键三连「分享」、「点赞」和「在看」
科技前沿进展日日相见 ~
>