今天小编分享的科技经验:欧洲最火AI独角兽发布旗舰大模型,性能直逼GPT-4,微软宣布合作投资,欢迎阅读。
在 MMLU 基准测评中,Mistral Large 成为仅次于 GPT-4 且可通过 API 普遍使用的模型。
智东西 2 月 27 日消息,昨天,欧洲生成式 AI 独角兽 Mistral AI 发布最新旗舰大语言模型 Mistral Large。据外媒 The Verge 报道,与 Mistral AI 之前的模型不同,Mistral Large 不会开源。
该模型上下文視窗为 32K tokens,支持英语、法语、西班牙语、德语和意大利语,Mistral AI 未公布其具体参数规模。
Mistral AI 亮出了多份基准测评成绩单。其中,在衡量多语言理解任务基准 MMLU 上,Mistral Large 的表现仅次于 GPT-4;在多语言能力的基准测评对比中,Mistral Large 的表现优于 70B 参数规模的 Llama 2。此前,Mistral AI 就用 70 亿参数大模型 Mistral-7B 成功挑战 Llama 2 一度爆红。
在定价方面,Mistral Large 的定价略低于 GPT-4 Turbo。Mistral Large 为输入0.008 美元/1000tokens,GPT-4 Turbo 为0.01 美元/1000tokens,输出 Mistral Large 是0.024 美元/1000tokens,GPT-4 Turbo 为0.03 美元/1000tokens。
与此同时,在 Mistral AI 新模型发布当天,微软官宣与 Mistral AI 达成多年合作伙伴关系,并且据英国《金融时报》报道,微软还对 Mistral 进行了小额投资,但不持有该公司任何股权。
此次合作使得 Mistral AI 可以在微软的 Azure 云计算平台上提供其大模型,这家公司也成为继 OpenAI 之后第二家在该平台上托管大模型的公司。
01. 亮出四大新功能,多语言能力测试优于 Llama 2
在官方博客中提到,Mistral Large 具有四大新功能及优势:
首先,Mistral Large 支持英语、法语、西班牙语、德语和意大利语,并对相应语法和文化背景有更深入的理解。
其次,该模型支持32K tokens上下文視窗。
第三,Mistral Large 基于精确的指令遵循,使得开发人员能够设计他们的审核策略,并且 Mistral 使用这一指令設定了会话助手 le Chat 的系统级审核。
最后,这一模型本身能够进行函数调用。这与在 la Plateforme 平台上实行的约束输出模式(constrained output mode),可以实现大规模应用程式开发和技术堆栈的现代化。
Mistral AI 公布了 Mistral Large 与其他大语言模型在多项基准测评任务中的对比:
其中,在测量多语言理解任务基准 MMLU 上,Mistral Large 的表现优于 Claude 2、Gemini Pro 1.0、GPT-3.5 和 LLaMA 2 70B,成为仅次于 GPT-4 且可通过 API 普遍使用的模型。
推理和知识能力的基准测评对比:
多语言能力的基准测评对比:
Mistral Large 在法语、德语、西班牙语和意大利语的基准测试中明显优于 LLaMA 2 70B。
数学与代码能力测评对比:
此外,Mistral AI 还发布了新的对话助手 le Chat,le Chat 可以作为用户与 Mistral AI 所有模型进行互動的对话入口。面向企业的助手为 le Chat Enterprise,该助手可以通过自我部署功能和细粒度的审核机制来提高团队的生产力。
le Chat 没有接入互联网,因此官方博客也提到,该助手可能会使用过时的信息进行回答。目前,用户可以通过加入等候列表名单,以等待使用 le Chat。
le Chat 体验地址:https://chat.mistral.ai/chat
02. 发布全新 Mistral Small,优化响应延迟、成本
除发布新 Mistral Large 旗舰模型外,Mistral AI 还将Mistral Small针对延迟和成本进行了优化。
Mistral Small 的性能优于 Mixtral 8x7B,并且延迟较低,这使其成为该公司的开源重量级产品和旗舰型号之间的 " 精致 " 中间解决方案。
目前,该公司正在简化其端点产品以提供以下内容:
包括 open-mistral-7B 和 open-mixtral-8x7b 在内,具有竞争性定价的开放权重端点。
新的优化模型端点,涵盖 mistral-small-2402 以及 mistral-large-2402。
面向开发者,mistral-small 和 mistral-large 支持函数调用和 JSON 格式,其中 JSON 格式模式强制大语言模型输出为有效的 JSON,此功能使开发人员能够更自然地与模型进行互動,以结构化格式提取信息,以便在其流水线的其余部分中轻松使用。
函数调用使开发人员可以使用一组自己的工具连接 Mistral AI 端点,从而实现与内部代码、API 或数据库的更复杂互動。
Mistral AI 的博客中透露,该公司将很快向所有端点添加格式,并启用更细粒度的格式定义。
03. 与微软达成长期合作关系,围绕三大重点开展合作
昨天,微软宣布与 Mistral AI 达成多年合作伙伴关系。因此,Mistral AI 的模型目前可以通过三种方式获得,除了建立在 Mistral AI 自己基础设施之上的La Plateforme、企业私有部署外,还可以在微软云上使用。
微软的官方博客提到,微软与 Mistral AI 的合作重点主要围绕着超级计算基础设施、为 Mistral AI 的模型开拓市场以及 AI 研究和开发。
首先在超级计算基础设施方面,微软将通过 Azure AI 超级计算基础设施来支持 Mistral AI,支持其旗舰模型的 AI 训练和推理。
其次,微软和 Mistral AI 将通过Azure AI Studio 和 Azure 机器学习模型目录中的模型即服务(MaaS)向客户提供 Mistral AI 的高级模型。
最后,两家公司还将探索围绕为欧洲公共部门等特定客户训练特定目的模型的合作。
04. 结语:Mistral AI 商业化探索加快
此前,Mistral AI 就凭借创新的技术路线,以 70 亿参数打败了数百亿参数的开源大语言模型霸主 Llama 2。
Mistral AI 的模型通常是开源的,但此次模型闭源再加上与微软的长期合作,或许意味着这家法国创企可以探索更多的商业机会。