今天小编分享的互联网经验:终究是 Google 和 Anthropic,扛下了连接一切 Agent 的所有,欢迎阅读。
Google Cloud Next '25 大会上,Google" 杀疯了 ",而与其说今年的大会是一场按部就班的发布会,不如看作是 Google Cloud 在全球 AI 军备竞赛中的一次表态。面对亚马逊 AWS 和微软 Azure 这两大巨头的挤压,尽管手握 DeepMind 等顶尖 AI 研究力量,Google Cloud 在市场份额上长期扮演着 " 第三名 " 的角色。这一次,Google 似乎决心不再仅仅追随,而是要先发制人。
Google Cloud CEOThomas Kurian 和 Alphabet CEO 桑达尔 · 皮查伊在台上反复强调的主题,是如何将 AI 从 " 可能性 " 转变为企业的 " 生产力 "。
漂亮的增长数据—— Vertex AI 平台使用量激增二十倍、超过四百万开发者使用 Gemini 模型,固然能提振士气,但数字背后,Google 真正亮出的底牌是对 AI Agent 未来潜力的全面押注。
其中,最有野心的就是开放 Agent 互操作協定 Agent2Agent ( A2A ) 。
从 MCP 到 A2A:Agent 间的 " 通用语言 " 之争已经开始
在 Google 的 A2A 发布前,给 AI Agent 一个 " 通用语言 " 的趋势正在形成,而主角是 Anthropic 的 MCP。
在去年 11 月,Anthropic 开源了 " 模型上下文協定 "(MCP),该協定将大模型直接连接至数据源,核心目标是解决 AI 模型与数据孤岛的隔离问题,通过提供统一協定替代碎片化的自定义集成。MCP 使用客户端 - 伺服器架构,AI 应用(如 Claude Desktop 或 IDE)通过 MCP 客户端连接到 MCP 伺服器,前者提供数据源或工具的访问。
简单来说,现在企业和开发者要把不同的数据接入 AI 系统,都得单独开发对接方案,而 MCP 要做的,就是提供一个 " 通用 " 協定来解决这个问题。
MCP 架构包含以下几个部分:
MCP 主机:包括 Claude Desktop、IDE 等需要通过 MCP 访问资源的 AI 工具
MCP 客户端:与伺服器保持一对一连接的協定客户端
MCP 伺服器:一个轻量级程式,通过标准化的 MCP 協定开放特定功能
本地资源:计算机上的数据库、檔案和服务等资源,MCP 伺服器可以安全地访问这些内容
远程资源:通过互联网访问的 API 等资源,MCP 伺服器可以与之建立连接
"MCP 之所以强大,部分原因在于它通过同一協定处理本地资源(如数据库、檔案、服务)和远程资源(如 Slack 或 GitHub 的 API)" 当时 Anthropic 给出的 " 推荐语 " 如此。这个统一标准在推出之初并没有立刻成为行业共识。但随着最近一个月 AI Agents 产品的井喷,它迅速变成了目前最受认可的 " 标准 "。
有模型从业者从接口标准化的角度看待 MCP,将其类比为 Mac 笔记本的接口:" 充电,外接显示器以及插本地 U 盘什么的都用一个接口统一起来了 "。人们认为该協定的核心价值在于为大模型数据集成提供了统一标准,不仅能提高开发和使用效率,还能增强大模型的实际应用能力。
而在技术上,在 MCP 出现之前,业界主要依赖 RAG 和微调等方案,以及各类 Agent 应用来实现数据集成,不够统一。像 Dify、Coze 这些平台,都是借助 llamaindex 和 langchain 构建,虽然这些方案能够满足需求,但整体来说比较零散,缺乏统一标准。
本质上,Google 的 A2A 也是想解决这个孤岛与统一的问题。
目前有大量工具在尝试让大家能方便地 " 造 " 出 Agent,但这还远远不够。企业内部很快会面临新的 " 筒仓效应 ":不同团队、不同任务、使用不同框架(如 ADK、LangGraph、CrewAI 等)构建的 Agent 可能无法有效沟通,形成新的信息孤岛。
这是 Agent2Agent ( A2A ) 協定试图解决的核心问题。A2A 被定位为一个新型的、开放的互操作性協定,其野心在于让任何来源、任何框架构建的 AI Agent,都能够安全地进行通信、交换信息并协调行动。例如,一个销售部门的 Agent 可以无缝地调用财务部门的 Agent 来核实信用额度,或者一个客服 Agent 能够自动触发供应链 Agent 来查询订单状态—— A2A 旨在为这种跨系统、跨领網域的 Agent 协作提供一套标准化的 " 握手 " 和 " 对话 " 机制。
根据 Google 的介绍,A2A 協定基于能力发现(Agent 通过 JSON 格式的 "Agent Card" 发布自身能力)、任务管理(实现任务生命周期的同步)、协作和用户体验协商等关键原则运作,并建立在成熟的 HTTP 和 JSON 标准之上,以确保兼容性和安全性。
Google 深知,标准的建立非一家之功。因此,他们将 A2A 作为开源项目发布,并已联合了超过 50 家技术合作伙伴,包括 Salesforce、SAP、ServiceNow、MongoDB、德勤等行业巨头,共同参与協定的开发和推广。这个阵容显示了 A2A 在企业軟體领網域的初步吸引力。正如 ServiceNow 执行副总裁乔 · 戴维斯所说:" 这关乎打破壁垒和孤岛,让 Agent 真正协作。"
不过 A2A 的野心,可能远不止于让 AI Agent 聊天那么简单。有评论一针见血地指出,Google 试图通过 A2A 解决的是一些互联网诞生以来就存在的根本性问题:服务发现、互操作性、身份认证。这些挑战并非 AI 时代独有,想想微软曾凭借 OLE ( 对象连接与嵌入 ) 技术在桌面軟體时代构建的生态壁垒,再想想蒂姆 · 伯纳斯 - 李爵士那个宏大却未能完全实现的 " 语义网 " 梦想。
相比之下,目前业界热议的 " 自动函数调用 " 只是解决了 "Agent 如何使用工具 " 的问题,Anthropic 的 MCP 是这方面的一个重要标准,A2A 在这个意义上对其进行了补充支持。但长期来看, A2A 则试图解决 "Agent 如何与 Agent 协作 " 这个更宏大、更复杂的问题。这体现了 Google 在技术战略上依然怀有的 " 大图景 " 野心。
Google 还表示,A2A 的设计将支持文本、音频、视频等多种模态。此外,将 A2A 开源,邀请社区参与,既是加速标准成熟的策略,也是争取开发者和企业认同的高明之举。
在当天的发布后,Google 并没有 " 挑明 " 它与 Anthropic 的竞争,而是形容两者是 " 互补 " 的关系。不过,仔细对比会发现这场竞争注定发生:
MCP 最初的出现,就是 Anthropic 为了解决 Agents 的互通问题,只不过在 Anthropic 的定义里,模型能力它自己就能来解决,而 Agents 需要的调用工具的能力需要一个生态,这导致它其实更像传统的API的思路,参与者只需要把自己的能力提供出来,至于你能不能有一个完整的自己的应用,不重要。
但 Google 这次的 A2A,则在探索新的AI时代是否可以从一开始改掉API的模式。A2A 的设想里,加入的 AI Agent 是有 " 掌握 " 一个自己的应用产品的可能,不像 MCP 可能把数据的权利都要提供出来,而是以完整 Agent 的形式参与一个更大的市场。
这也让 Google 这次发布里的一些细节值得玩味,在 Google 当天宣布的合作伙伴名单中,缺少了微软和 OpenAI 这样的玩家。但 OpenAI 其实在前不久刚刚高调宣布接入了 Anthropic 的 MCP。很明显的一个判断是,对于 OpenAI 这样的野心家,MCP 它可以不做,但 Google 这种更直接的可能统一应用生态的标准,它是想做的。
Google 发布 A2A 的时机抓的也很准,在模型水平不断拉平,曾经落后的 Gemini 早已追上 OpenAI 后,在制定标准这事上,Google 绝对不想让 Anthropic 吃掉一切。这场竞争已经开始。
配套 A2A 的更大野心:要让 AI Agent 无处不在
要繁荣生态,必先降低门槛。Google 为此还推出了 Agent Development Kit ( ADK ) 。
这是一个开源的、初期以 Python 实现的框架,旨在极大简化单个 Agent 及复杂多 Agent 系统的创建过程。Google 宣称,开发者仅用不到 100 行代码就能构建一个功能性的 Agent。
ADK 的目标非常明确:鼓励开发者和企业围绕 Google Cloud 构建各式各样的 Agent ——无论是用于响应客户、编写代码、生成营销文案还是优化运营流程。通过提供易用的工具,Google 希望加速 Agent 应用的落地。当然,这也潜藏着商业目的:一个繁荣的 Agent 生态,自然会增加对其底层云服务的依赖和消耗,从而提振 Google Cloud 的收入,或许还能部分缓解投资者对生成式 AI 高昂成本和资本支出(Alphabet 预计今年高达 750 亿美元)的担忧。
在 Agent 蓝图之外,Google 还在加速将其能力融入实际工具,让 Agent 成为可用的生产力。
其 AI 编程助手 Code Assist 也迎来了 Agent 化更新,核心是引入能执行多步骤复杂任务(如根据需求文档生成应用、自动代码迁移)的 AI 代理,并扩展支持 Android Studio 等环境。此举旨在应对日益激烈的 AI 编程助手竞争,尽管新功能尚待发布。
同时,Google 推出了 Firebase Studio,一个基于云和 Gemini 的全栈 AI 工作区。目标是显著降低 AI 应用开发门槛,让开发者乃至非技术用户也能在浏览器中一站式构建、发布和监控应用,从而加速 AI 应用的创新和普及。
通过 Code Assist 的深化和 Firebase Studio 的拓宽,Google 正将 Agent 能力注入从专业开发到低代码的全流程。这显示了其完善工具与平台、配合底层 ADK 与 A2A 協定,加速 Agent 战略在 Google Cloud 生态落地的决心。
这一系列关键产品发布背后,Google 深知成为标准制定者的重要性,在 AI Agent 走向繁荣的关键节点,它肯定不想让所有 AI Agents 都听 Anthropic 的。Google 想让 AI Agents 无处不在,并且要让它们都建立在 Google 的生态里。