今天小编分享的互联网经验:OpenAI,Google和阿里们都“认”了的MCP,究竟给开发者带来啥实惠了,欢迎阅读。
AI 领網域的互操作性标准之争正变得异常热闹。就在本周,Google DeepMind CEO Demis Hassabis 宣布,将为其 Gemini 模型添加对 Anthropic 主导的模型上下文協定 MCP 的支持,称其为 " 一个优秀的協定,正迅速成为 AI Agent 时代的开放标准 "。这距离 OpenAI CEO Sam Altman 宣布支持 MCP 仅仅过去几周时间。
几乎在同一时间段,Google Cloud 也高调推出了自己主导的、旨在实现 AI Agent 之间协作和工作流自动化的开放協定—— Agent2Agent ( A2A ) ,并联合了包括 Salesforce、Box 等在内的 50 多家技术伙伴。
这种看似 " 左右互搏 " 的举动——既拥抱竞争对手的标准,又力推自家的新協定,恰恰凸显了当前行业对于如何让 AI 模型、Agent 更有效地连接外部数据、工具乃至彼此协作的迫切需求与探索。尽管 A2A 的目标是 Agent 间的通信与协作,Google 对 MCP 的明确支持,仍然被视为 MCP 走向主流标准的一个强力信号。
那么,这个让巨头们投入关注,并且已经在实际应用中崭露头角的 MCP,其核心价值究竟是什么?它能为开发者和用户带来哪些实实在在的好处?
AI 的 " 通用连接器 "
MCP 最初由 Anthropic 提出并开源,旨在创建一个开放、标准的规范,让大型语言模型能够无缝地与各种外部数据源和工具(如业务軟體、数据库、代码库等)进行互動。可以将其想象为 AI 世界的 "USB-C" 或 " 通用翻译器 ",解决模型智能与现实应用之间的连接问题。
在 Anthropic 的推动下,尤其是在 OpenAI 和 Google 这两大巨头相继明确表态支持后,MCP 正从一个有潜力的提议,加速成为被广泛接受的标准。这标志着 AI 应用开发朝着更统一、更高效的方向迈出了重要一步。国内如阿里云百炼等平台也已迅速跟进,上线 MCP 功能并着手构建服务生态。
MCP 的核心价值在于 " 标准化 "。它定义了一套通用规范,允许任何 AI 模型(客户端)通过轻量级的 "MCP 伺服器 " 与外部资源互動。这解决了以往需要为每个模型和工具定制集成方案的碎片化问题,MCP 借鉴了 API、LSP 等協定标准化的成功经验。虽然技术本身非颠覆性,但其标准化的尝试对提升开发效率和拓宽应用场景潜力巨大。
MCP 到底有什么用?
那么 MCP 的实际价值体现在何处?关键在于其模型无关的通用性、可重用性和组合性,这使得 AI 能够在真实场景中发挥更大作用。
首先,MCP 有效打通了 AI 与外部数据和工具的壁垒。有了 MCP,AI 能直接与数据库对话,用自然语言查询实时的销售数据;或者连接到你的代码仓库,像一个真正的助手那样浏览、理解甚至修改代码。同样,通过接入 Slack、Google Drive 等日常生产力工具的 MCP 伺服器,AI 可以帮你收发消息、查找更新文档,无缝融入你的工作流程。
MCP 的更大的潜力在于驱动更复杂的 Agent 行为和跨服务协作。AI Agent 不再局限于执行单一任务,而是能组合调用多个 MCP 伺服器来完成复杂目标。
必优科技近期发布了 AI PPT 方向的 MCP Server,市场负责人张嘉蒙给硅星人举了一个例子:要生成一份介绍北京交通的 PPT,AI 可以先调用地图服务商(如高德)的 MCP 获取交通数据,再调用 PPT 制作工具(比如必优自己的服务)的 MCP 来整合信息并生成演示文稿。这种跨服务的便捷调度,尤其是让不同开发者提供的服务能被 AI 灵活组合,在过去是难以想象的,MCP 则有望打破这种壁垒。" 常规我是调不到高德接口的,因为他们没空理我们,MCP 至少让我们的门槛降低了 "。
Codeium 是最早集成 MCP 的开发者工具公司之一。在他们的 IDE 产品 Windsurf 中引入了 MCP 支持,使 AI 能够执行各种开发任务,而不仅仅是代码补全。Codeium 的付费用户可以通过 GUI 或配置檔案配置外部 MCP 伺服器,Codeium 用户可以连接一个檔案系统或 Git MCP 伺服器,以便 AI 代理可以浏览和修改项目檔案。 Codeium 团队指出,Windsurf 现在能够让用户自己选择 MCP 伺服器,以使用定制工具和服务。这种扩展性极大地增强了 AI 在 IDE 中的能力 ----AI 不再局限于静态代码,而是能够与外部 API 互動、运行测试命令或通过网络搜索查询文档。
此外,像 LangChain 这样的开源代理框架已开始整合 MCP。已有工具发布,可将 MCP 工具转换为适用于 Python 或 TypeScript 代理的 LangChain 工具,这意味着使用 LangChain 规划的现有代理可以像调用本地函数一样调用 MCP 伺服器。这些表明,MCP 正在吸引那些希望其 AI 代理具备广泛功能而不必从头编写每个集成的开发者。
另一个更生动的一个例子来自一位自称代码小白的开发者 " 玛格丽特加盐 ",他利用 Cherry Studio 平台,接入 Gemini 模型,并参考官方文档自建了一个 MCP 伺服器,该伺服器集成了搜索 API(包含谷歌地图、班機、酒店工具)。通过这种方式打造了一个个性化的旅行助手。在测试中,当询问 " 新加坡机场到景点的公共交通路线 " 时,AI 通过 MCP 调用了谷歌地图工具,给出了比通用 AI(如豆包)更具体、准确且附带地图截图的路线规划。在处理更复杂的 " 规划杭州到新加坡行程(含机票酒店推荐)" 任务时,AI 更是展现了按需依次调用时间、班機、酒店搜索等多个 MCP 工具的能力,实现了多步骤规划,其结果的可用性也显著优于通用 AI 的简单联网搜索。
当我们对比 MCP 与特定模型的内置功能(如 Function Calling)时可以看到,MCP 不局限于某个模型意味着为一个工具构建的 MCP 伺服器,可以被任何支持 MCP 協定的 AI 客户端复用,极大地促进了工具生态的繁荣,因此被形象地称为 "AI 领網域的 ODBC"。当然,这种灵活性也可能带来额外的部署开销和初期技术门槛。
目前,MCP 也存在着一些局限性。例如开发者 " 多多 " 在尝试使用 Claude + Blender MCP 进行 3D 建模时发现的,虽然 MCP 能让 AI 执行一些 Blender 的简单操作,但在从零创建复杂模型或精确修改特定部位时效果不佳,AI 难以精确理解 3D 空间的细节。她的经验表明,现阶段 MCP 在某些专业领網域的深度应用,可能更适合辅助专业用户加速简单操作,或在已有模型基础上进行粗略调整,而非完全替代传统流程。
也就是说,要发挥 MCP 的价值,不仅依赖協定本身,更依赖于 MCP 伺服器的具体能力以及 AI 模型对任务和工具的理解程度,其在特定领網域的成熟仍需时日。
MCP 并非完美无缺,传统 API 在某些场景下仍有其价值。当前其应用尚处早期,但跨模型兼容性和标准化的优势正吸引着越来越多的参与者。
从目前趋势看,随着行业主要玩家的采纳、相关生态的逐步建立以及更多实际应用的探索,MCP 很可能成为 AI 与现有軟體和服务集成的基础技术。我们可能会看到更多产品 " 自带 "MCP 接口,让軟體天生具备 "AI 就绪 " 能力。这就像浏览器扩展 API 改变了网页互動一样,MCP 正在为 AI 模型提供一套标准化的方式,与现实世界的数字工具进行协作。MCP 有潜力成为提升 AI 在具体业务场景中实用性的关键基础设施,促进 AI 与现有軟體和工作流程更紧密的融合。