今天小编分享的互联网经验:大模型,阿里云不做选择题,欢迎阅读。
图片系 AI 生成
什么加速了云的发展?
自 2006 年云计算诞生之日算起,互联网和移动应用、云原生技术普及、企业向先进技术架构演进、中企全球化等因素,先后塑造了云计算的内在与外表,造就了一个数万亿规模的行业。
毋庸置疑的是,生成式 AI 将是云计算产业下一个革命性要素,但是,云厂商如何做大模型,行业内还没有达成一致。
开源与闭源,自研与投资,基础模型与工程化落地,技术创新与产业生态,阿里云没有做选择题,而是兼收并蓄,去构建一个 AI 与云的商业循环。
5 月 9 日,阿里云正式发布通义千问 2.5,中文性能全面赶超 GPT-4 Turbo,同时通义千问 1100 亿参数开源模型在多个基准测评收获最佳成绩,超越 Llama-3-70B,成为开源领網域最强大模型。此外阿里云还更新了百炼平台,更便于支持大型企业和成熟开发者的需求。
通义千问 2.5,地表最强中文大模型
基础模型是生成式 AI 产业的起点,模型本身在快速发展,从单一语言模型,到能处理文档、音视频、代码等各方面的能力,每个维度能力的宽度和深度都在快速地增加,在未来一段时间仍将继续迭代。
对于大模型厂商来说,本身的基础模型能力至少要保持在第一梯队,才有海量的用户基础和可持续的吸引力。相比通义千问 2.1 版本,通义千问 2.5 的理解能力、逻辑推理、指令遵循、代码能力分别提升 9%、16%、19%、10%,中文能力表现更为突出,在权威基准 OpenCompass 上,通义千问 2.5 得分追平 GPT-4 Turbo。
和部分厂商不同的是,阿里云开源和闭源两条路并重,在开源方面走的是 " 全模态、全尺寸 " 路线。" 阿里云的策略不是简简单单的开源,我们是要做开源最强的模型 ",阿里云 CTO 周靖人表示。
最新款开源的 1100 亿参数模型 Qwen1.5-110B,在 MMLU、TheoremQA、GPQA 等基准测评中超越了 Meta 的 Llama-3-70B 模型;在 HuggingFace 推出的开源大模型排行榜 Open LLM Leaderboard 上,Qwen1.5-110B 冲上榜首。
通义也不断丰富多模态模型和专有能力模型,例如通义千问视觉理解模型 Qwen-VL-Max 在多个多模态标准测试中超越 Gemini Ultra 和 GPT-4V,通义千问代码大模型 CodeQwen1.5-7B 是 HuggingFace 代码模型榜单 Big Code 的头名,也是助手通义灵码的底座。
周靖人提到," 我们是全球唯一一家积极做最先进的 AI 模型,同时也敢于全方位开源的云计算厂商,因为我们认识到,今天只有把 AI 能力真正赋能给企业,才能推动整个企业产业的快速发展。"
百炼 2.0,开发性与自由度
大模型应用落地的过程中,需要试验各种各样的模型,并且企业希望以高性价比的方式融合在自己的业务开发里,业务场景复杂、自身数据敏感,企业如何安全高效地将大模型和业务有机结合,这是工程化落地的重要课题。
阿里云百炼的一大特点,在于最大程度的开放性和自由度。当下一些大模型应用平台采用封闭链路,不支持替换原子能力,导致企业开发应用时无法引入自研插件,和业务场景充分融合。
百炼 2.0 平台从模型开发、应用开发到算力底座全面更新。" 当下企业应用大模型存在三种范式:一是对大模型开箱即用,二是对大模型进行微调和持续训练,三是基于模型开发应用,其中最典型的需求是 RAG,以企业数据对大模型进行知识增强。围绕这些需求,百炼打造了模型中心和应用中心,提供最丰富的模型和最易用的工具箱。" 周靖人说。
对希望直接调用模型进行推理的企业,百炼集成了上百款大模型 API,除了通义、Llama、ChatGLM 等系列,还首家托管百川等系列三方模型,值得一提的是,这可能是阿里大手笔投资大模型创业厂商带来的优势。
对需进一步训练模型的用户,百炼提供从数据管理、模型调优、评测到部署的全链路模型服务,用户可弹性按需调用算力,无需关心底层架构。训练过程可视化,还可自动评测模型质量,并与其他模型对比。
对希望打造 RAG 应用的企业,百炼支持 Assistant API 开发模式,可在百炼上轻松创建知识库,并一键开启知识检索增强(RAG),通过 Assistant API 联合输出。同时,百炼支持 agent 智能体开发,并能实现多智能体协作、对话记忆等高级功能。
大模型生态亟需建设
相比于海外市场,国内对大模型生态建设的需求更高。据外媒消息,美国初步计划对最先进的专有 AI 模型实施出口管制,诸如此类风险,要靠系统生态协作来缓解单点难题。
开源模型和百炼平台也是是生态建设一部分,开源模型能够让更多的开发者使用,并于其上搭建更复杂的应用,甚至更复杂的 Agent,更好地服务企业,从而推动 AI 产业的发展。百炼平台能够链接模型能力和业务场景,帮助大模型在各行各业落地。
阿里云不仅在做通义模型的开源,同时也在积极推广 AI 社区的发展,魔搭社区总用户数超过 500 万,成为了中国最大的 AI 模型社区,社区内有大量的 AI 模型,以及各种数据和经验,为大模型落地提供指引。
" 一门技术的良好发展一定要有一个好的生态,这也是为什么阿里云积极参与生态建设,从魔搭社区到开源体系,更多反馈才能实现更多的业务创新,激发更多模型的应用。" 周靖人说。
阿里云在大模型领網域正在构建大循环,以基础模型为起点,开放生态聚合用户和行业,更多人使用通义模型,也就能进一步优化模型效果,并且带动阿里云服务的采用,最终阿里云想实现的是—— AI 即云计算。(本文首发于钛媒体 APP,作者 | 张帅,编辑 | 盖虹达)