
从 MCP 到 A2A,AI Agent 应用架构设计演进之路 原创
AI Agent 本质上是一种通过控制大语言模型(LLM)来解决问题的 AI 应用系统,但这一本质特征并不妨碍其成为大模型时代最具潜力的应用方式。尤其在 DeepSeek 和 Manus 等项目今年爆火之后,AI Agent 被认为即将迎来发展的黄金时期。然而,AI Agent 的发展也面临着诸多瓶颈,比如:应用程序调用的复杂性以及跨平台 AI Agent 之间的通信问题等。不过,随着谷歌4月10日发布开源协议 A2A(Agent-to-Agent 协议),以及 MCP(Model Context Protocol) 协议的逐渐普及和大规模应用,这些问题有望逐步得到解决。随着时间的推移,AI Agent 将不断走向成熟,其发展前景令人期待。
首先,让我们来探讨一下已经基本成为行业标准的 MCP 协议(详见这里:《MCP 架构设计演进:从 Local MCP Server 到 Remote MCP Server 开源架构设计实现》)。MCP 协议主要解决了大模型在调用外部数据和应用时的规范性问题。该协议采用了客户端-服务器架构:客户端负责将大语言模型的请求发送到 MCP 服务器,随后服务器将这些请求转发至相应的资源。只要 AI Agent 支持 MCP 协议,便可以直接调用那些配备了 MCP 服务器的应用,无需再为各种各样的插件功能而烦恼。简而言之,MCP 协议有效解决了 AI Agent 调用外部数据和应用的难题。
其次,谷歌于4月10日发布的 A2A 协议(详见这里:《“谷歌版 MCP”来了!重磅开源 A2A 智能体交互新架构》)同样值得关注。A2A 协议的诞生,使得基于不同底层框架和供应商平台创建的 AI Agent 之间能够实现相互通信,这无疑是其最为突出的贡献。
以一个更直观的例子来说,倘若 A2A 协议能够像 MCP 协议那样得到广泛采用,那么在阿里云上创建的 AI Agent 将能够与火山云上创建的 AI Agent 进行无缝的通信与协作。
基于 A2A 协议的开源理念,谷歌并未为其添加任何独有的内容,而是采用了当前流行的标准技术进行构建,比如:HTTP、SSE、JSON-RPC 等。这种设计不仅便于企业将其与现有的 IT 环境进行集成,还确保了高度的兼容性。此外,A2A 协议还支持企业级的认证和授权机制,从而有效保障了 AI Agent 协作过程中的安全性。
在文章开篇,我们提到 AI Agent 本质上是通过控制大语言模型(LLM)来解决问题的 AI 应用系统。MCP 协议的标准化和普及,解决了 AI Agent 在调用外部数据和应用时的难题,显著提升了其工作效率。而 A2A 协议的出现,则进一步推动了 AI Agent 的发展,使得不同底层框架和供应商平台创建的 AI Agent 能够实现相互通信与协作。这标志着 AI Agent 的应用范围从单一提升工作效率,迈向了大规模驱动应用的新阶段。
本文转载自公众号玄姐聊AGI 作者:玄姐
原文链接:https://mp.weixin.qq.com/s/77o8jMME9E2MtgZNHyR78w
