人工智能技术的快速发展催生了智能体(Agent)的广泛应用,但系统间的协作障碍逐渐显现。模型无法直接访问实时数据、工具调用标准不统一、多Agent协作缺乏规范等问题,成为制约AI规模化落地的核心瓶颈。
这种情况下,智能体(Agent)之间的协作与通信是实现复杂任务的关键。由此,MCP(模型上下文协议)、ANP(Agent网络协议)和 A2A(Agent到Agent协议)相继成为支持 AI Agent通信和协作的重要协议和框架。
三种协议各有独特的设计和目标,旨在增强AI Agent能力,都反映了AI Agent从单一模型向多Agent协作发展的趋势。本文,王吉伟频道将从定义、架构、场景、联系与区别等方面简单科普这三种协议,帮助大家快速了解AI Agent领域的技术发展趋势。
在AI应用中,大型语言模型(LLM)需要访问外部数据和工具来完成复杂的任务。然而传统的集成方式通常需要为每个数据源或工具单独开发接口,这不仅耗时耗力,还难以维护。MCP的出现,正是为了解决这一问题提供一种通用的、标准化的通信方式。
MCP(Model Context Protocol,模型上下文协议)由Anthropic于2024年11月推出,是一套开放协议标准,旨在规范AI模型与外部数据源、工具之间的交互方式。
它通过标准化接口,实现AI模型与外部资源(如数据库、API、文件系统等)的无缝集成。MCP的设计以模型为中心,将互联网视为上下文和工具的来源,适合当前AI模型(尤其是大型语言模型)访问互联网资源的需求。可以让AI模型像使用USB设备一样方便地调用外部工具,因此可以被视为AI系统的“USB接口”。
其核心目标是解决以下问题:
- **数据孤岛:**模型无法直接访问实时数据或本地资源;
- **集成复杂性:**为每个工具编写独立接口导致开发成本高;
- **生态碎片化:**不同平台的工具调用机制缺乏统一标准;
- **安全隐患:**缺乏标准化的访问控制机制。
核心架构
MCP采用客户端-服务器架构,包含三个组件:
- 主机(Host):运行LLM的应用程序(如Claude Desktop、IDE插件);
- 客户端(Client):与服务器建立连接,管理会话和路由消息;
- 服务器(Server):提供资源访问、工具调用等能力的独立服务。
协议定义了四类核心交互原语
资源(Resources):通过URI标识的数据(如文件、API响应);
工具(Tools):可执行的动作(如发送邮件、执行代码);
提示(Prompts):预设的提示模板或工作流;
采样(Sampling):服务器主动请求模型推理的机制。
应用场景
**开发工具集成:**在IDE中通过自然语言查询数据库、调用部署工具,开发工具集成,在IDE中通过自然语言查询数据库、调用部署工具;
**自定义AI工作流:**通过MCP,用户可以将AI助手与外部数据源和工具连接,构建个性化的AI工作流。
**企业级自动化应用:**在企业环境中,MCP可以连接ERP、CRM等系统,构建智能客服系统、自动化办公流程等,实现流程自动化,提高企业的运营效率。
本地数据处理:在隐私保护前提下分析用户设备内的文件。
核心优势
**统一接口:**MCP提供了一种标准化的通信方式,简化了AI助手与外部工具的交互过程。
**安全性:**通过MCP,可以限制AI助手对资源的访问权限,确保数据安全。
**灵活性:**MCP支持多种数据源和工具的集成,能够适应不同的应用场景。
采用CS架构的存在一定的局限性,这种架构可能在Agent断开连接时限制通信,难以支持大规模去中心化协作。
ANP(Agent Network Protocol)
当前的互联网基础设施虽然成熟,但对于智能体网络的特定需求,仍然缺乏最优的通信和连接解决方案。ANP的出现,为智能体提供一种去中心化的协作方式。
ANP(Agent Network Protocol,智能体网络协议)是一种专为分布式智能体设计的开源通信协议,旨在为智能体之间的连接、通信和协作提供标准化框架。ANP的设计以智能体为中心,通过去中心化的身份认证和端到端加密通信,确保数据安全和隐私保护。
其目标是成为智能体互联网时代的“HTTP”,为数十亿智能体构建一个开放、安全、高效的协作网络,从而推动未来Agentic Web的发展。
其设计受到Web3、语义网等技术影响,它重点关注:
- **去中心化身份:**基于W3C DID标准实现智能体身份管理;
- **协议协商:**支持动态协商通信协议和交互规则;
- **语义兼容:**利用JSON-LD、RDF等技术实现数据语义对齐。
技术架构
ANP采用三层架构:
- 身份与加密层:基于DID实现身份验证与数据加密;
- 元协议层:定义协议协商机制(如通信格式、QoS参数);
- 应用协议层:实现具体业务逻辑(如任务分配、资源调度)。
应用场景
物联网协同:跨厂商设备Agent的自主协作.在物联网场景中,ANP可以实现大量设备之间的去中心化协作,降低对中心服务器的依赖。
**分布式AI训练:**协调异构计算节点的资源分配;
**去中心化应用:**支持智能合约与AI Agent的交互。
**智能家居:**可以实现不同品牌智能家居设备的无缝协作。例如,智能灯、智能窗帘和智能音箱可以通过ANP直接通信,无需依赖中心服务器。
**智能驾驭:**在自动驾驶领域,ANP可以协调不同车辆的智能体之间的通信,提高交通安全性和效率。
核心优势
去中心化:智能体之间直接通信,无需依赖中心服务器,提高了系统的可靠性和安全性。
高效协作:通过ANP,智能体可以快速响应彼此的请求,提高协作效率。
可扩展性:ANP支持大量智能体的加入,能够适应复杂的网络环境。
P2P 架构和DID 认证让ANP更适合未来去中心化的Agent网络,但隐私和权限控制仍是挑战。
A2A(Agent2Agent)
随着AI技术的发展,不同来源的智能体需要相互协作。由于技术背景、开发框架和数据格式的差异,智能体之间的通信和协作面临着诸多挑战,A2A协议能够有效解决这一问题。
A2A(Agent2Agent,智能体对智能体协议)是一种开放协议,专注于智能体之间的交互与协作。它允许不同来源、不同技术的智能体相互沟通,安全地交换信息,并协同执行复杂任务。A2A的核心目标是打破系统孤岛,提升智能体的跨平台能力。
该协议由Google于2025年4月9日推出,旨在让不同框架和供应商的AI Agent能够相互通信和协作。A2A得到了Google以及超过50家技术合作伙伴的支持,包括Atlassian、Salesforce和SAP,其目标是解决企业级AI Agent的互操作性的问题。
设计目标
打破生态孤岛:解决多Agent协作的协议不兼容问题;
支持长时任务:处理耗时数小时至数天的复杂流程;
模态无关性:兼容文本、音频、视频等多模态交互。
技术架构
A2A基于HTTP、SSE(Server-Sent Events)和JSON-RPC构建,包含以下核心模块:
能力发现(Capability Discovery):通过Agent Card(JSON元数据)声明Agent能力;
任务管理(Task Management):以任务为单位管理多轮交互;
协作机制(Collaboration):支持Agent间消息传递与状态同步;
用户体验协商:根据终端设备动态调整内容呈现方式。
典型交互流程包括:
客户端Agent通过HTTP GET发现远程Agent能力;
通过SSE建立持久连接并发送任务请求;
远程Agent返回包含文本、表单、流媒体等内容的Message对象;
任务完成后生成Artifact(如文件、结构化数据)。
应用场景
**跨系统流程自动化:**如招聘场景中,协调简历解析、面试安排、背调等Agent;
**供应链管理优化:**连接库存管理、物流调度、需求预测等Agent。A2A可以协调不同企业的智能体,优化供应链流程。例如,一个物流智能体可以与一个仓储智能体协作,实时更新货物状态。
**客户关系管理:**语音助手、工单系统、知识库Agent的协同响应。在跨平台客户管理中,A2A可以实现数据共享和协作。例如一个电商平台的智能客服可以与一个社交媒体平台的智能客服协作,提供更全面的客户支持。
**医疗健康:**A2A可以协调不同医疗机构的智能体,实现医疗数据的共享和协作。
核心优势
**跨平台协作:**A2A支持不同技术背景的智能体之间的协作,打破了系统孤岛。
**灵活性:**A2A允许智能体在非结构化模式下协作,适应复杂任务需求。
**安全性:**A2A通过标准化的协议确保智能体之间的通信安全。
A2A行业支持广泛,适合企业级应用,但可能受限于其专注于互操作性,不如ANP灵活。
A2A的推出,也反映了行业对Agent互操作性的迫切需求。不仅限于技术层面,还涉及企业应用的商业价值。例如,A2A的合作伙伴包括众多企业服务提供商如Deloitte和PwC,这表明其可能在企业数字化转型中扮演重要角色,超出了单纯的技术协议的范畴。
MCP、ANP、A2A的联系与区别
联系
共同目标:MCP、ANP和A2A都致力于提升智能体的协作能力,使其能够更好地完成复杂任务。
互补关系:MCP侧重于AI助手与外部工具的交互,ANP提供去中心化的协作网络,而A2A专注于跨平台协作。三者可以相互补充,共同构建智能体协作生态。
区别
MCP、ANP和A2A的区别主要体现于核心理念、架构、身份认证、信息组织、应用场景和目标用户等维度,下面这个表格每种协议体现了三种协议的主要特点和适用场景,可以帮助大家理解并根据具体需求选择合适的协议。
协同应用模式
MCP+A2A:单个智能体通过MCP接入工具,再通过A2A与其他Agent协作。例如:
- 客服Agent(A2A节点)接收用户请求;
- 通过MCP调用知识库工具检索信息;
- 通过A2A协调工单系统Agent创建服务工单。
ANP+A2A:ANP提供底层身份与通信保障,A2A实现业务层协作。例如:
- 物流Agent通过ANP验证身份并协商通信协议;
- 使用A2A协议与仓储、运输Agent协调货物调度。
未来发展趋势
随着AI技术的不断进步,MCP、ANP和A2A等协议和框架将逐渐成为智能体协作的标准。它们的融合将推动AI助手从单一工具向协作网络的转变,为人类创造更加智能的未来。
例如,在未来的智能家居环境中,MCP可以连接智能助手与各种家电设备,ANP可以实现这些设备之间的去中心化协作,而A2A可以确保不同品牌设备之间的兼容性。通过这种多层次的协作,智能家居系统将变得更加智能和高效。
其共同发展趋势,可以体现为以下几点:
协议融合:MCP可能扩展为A2A的工具调用层,ANP或成为A2A的底层传输协议。
安全增强:零信任架构、同态加密等技术将被集成到协议栈中。
边缘计算支持:优化协议以适应物联网设备的低功耗、高延迟环境。
标准化进程:可能出现类似IETF的跨组织联盟推动协议标准化。
具体到三种协议各自在未来的发展,如下:
**MCP的未来:**MCP被视为过渡性协议,适合当前AI模型访问互联网资源的需求,但其CS架构可能限制其在去中心化环境中的应用。未来可能需要演进以支持更多Agent协作功能,否则可能被ANP或A2A取代。
ANP的未来:ANP的P2P架构和DID认证使其更适合未来 Agentic Web 的发展,随着Agent网络的普及,ANP可能成为去中心化协作的标准。Linked-Data的使用也可能推动语义理解和数据交换的标准化。
**A2A的未来:**A2A因Google和行业合作伙伴的支持,有望成为企业级Agent互操作性的主导标准,尤其在复杂工作流自动化中。其成功将取决于实际应用和行业采用率,可能在短期内快速普及。
整体而言,AI Agent的协作将越来越依赖标准化协议,MCPANP和A2A可能在不同层面发挥作用,最终可能出现一个或多个主导协议。去中心化和自治将成为未来发展的重点,ANP和A2A在这方面更具潜力。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。