Google支持MCP,并宣布AI代理进入“插件+网络”时代


继 OpenAI 宣布支持 Anthropic 制定的 Model Context Protocol(MCP) 仅数周后,Google 也宣布加入这一生态。2025年4月,这一消息在社交媒体上引发热议,上一篇MCP:AI 代理的“上下文引擎”的文末提问有了答案, MCP 正逐步成为 AI 代理时代的事实标准。

Google 的 MCP 承诺

4月8日(周三),Google DeepMind 首席执行官 Demis Hassabis 在 X 平台发文宣布,Google 将为其 Gemini 模型及软件开发工具包(SDK)新增对 MCP 的支持。他表示:“MCP 是一个优秀的协议,正迅速成为 AI 代理时代的开放标准。我们期待与 MCP 团队及其他行业伙伴共同推进其发展。”尽管具体时间表尚未公布,这一表态已足以显示 Google 对 MCP 的重视。

与此同时,在 4月9日的 Google Cloud Next '25 开发者大会上,Google 还推出了自家的新协议Agent-to-Agent(A2A),并将其定位为 MCP 的补充。Google 强调,MCP 好比为单一 AI 代理提供工具和数据的“插件系统”,而 A2A 则是代理之间的“网络层”,通过标准化通信助力多代理协作。这两大协议的结合,展现了 Google 在推动 AI 生态开放性与协作性上的双线布局。

MCP 是什么?为何备受关注?

MCP 由 Anthropic 开发并于 2024年11月开源,旨在为 AI 模型提供一种简单、标准化的方式,以连接外部工具和数据源。通过 MCP,模型可以从企业软件、内容存储库及开发环境中获取数据,并实现与 AI 应用的双向交互。例如,开发者可通过“ MCP 服务器”暴露数据,再利用“ MCP 客户端”(如应用或工作流)按需连接这些服务器。

自开源以来,MCP 的影响力迅速扩大。Block、Apollo、Replit、Codeium 和 Sourcegraph 等公司已纷纷为其平台添加 MCP 支持。更值得一提的是,微软 Visual Studio Code 的最新更新(v1.99)也将 MCP 集成至 GitHub Copilot 生态,AWS 也在上周宣布支持 MCP 用于代理式 AI 开发。

Google 的加入有何意义?

Google 的加入无疑为 MCP 生态注入了新的活力。作为 AI 领域的代表企业,Google 的 Gemini 模型若全面支持 MCP,将极大提升开发者构建智能应用的效率。例如,基于 MCP 的聊天机器人可以直接调用企业工具中的实时数据,完成从简单查询到复杂任务的多样化需求。

此外,Google 推出的 A2A 协议进一步丰富了这一生态。A2A 聚焦于多代理协作,遵循“开放性、安全性、支持长期任务”等五大原则,旨在让不同供应商的 AI 代理通过标准化的“语言”互联互通。Google 已携手超 50 家合作伙伴(如 Atlassian、Salesforce、MongoDB 等)推广 A2A,显示出其打造跨平台、多模态 AI 协作网络的雄心。

MCP 与 A2A 的协同效应

从功能上看,MCP 和 A2A 相辅相成:

  • MCP:赋予单一代理更强的工具使用和数据访问能力;

  • A2A:为代理间协作提供安全、高效的通信渠道。

例如,一个基于 MCP 的代理可以从企业 CRM 系统提取客户数据,而通过 A2A,它还能与另一个负责分析的代理协作,最终生成全面的报告。这种“插件 + 网络”的组合,为开发者提供了更大的灵活性,也为企业带来了跨云环境的标准化管理方式。

行业影响

Google 的加入不仅是对 MCP 技术价值的认可,也推动了 AI 行业的开放标准进程。正如 Hassabis 所言,MCP 和 A2A 的发展需要行业共同努力。社交媒体上,已有开发者表示:“MCP 的普及将让 AI 应用开发变得更简单,而 A2A 则可能开启多代理协同的新时代。”

版权声明:charles 发表于 2025年4月11日 am5:36。
转载请注明:Google支持MCP,并宣布AI代理进入“插件+网络”时代 | AI工具大全&导航

相关文章