2025年,人工智能领域迎来了关键转折点,我们正从生成式AI迈向Agentic AI,从回应需求的生成式AI,迈向自主规划、执行任务的智能体。谷歌云《2025年AI投资回报率报告》显示,目前使用生成式AI的企业中已有52%在生产环境中部署AI智能体,而早期采用者中88%已获得切实的投资回报。这一转变不仅是技术演进,更是人机协作关系的重构:AI正从被动工具转变为主动合作伙伴,开启自主智能的新纪元。(文末附相关报告下载)
一、Agentic AI的范式转变
普华永道将从Generative AI迈向Agentic AI的变革定义为基于信任的转型,未来人类与AI将共享认知负荷,而治理、伦理与可解释性则构成责任自主的支撑框架。这种转变下,AI智能体的成熟度被划分为三波浪潮:
• 第一波:Predictive AI,数据分析与机器学习;
• 第二波:Generative AI,内容创作与逻辑推理;
• 第三波:Agentic AI,自主编排与任务执行。
如果说Predictive AI是分析与决策的支持者,Generative AI是内容与推理的生产者,那么Agentic AI则是任务执行的指挥官,它融合推理、规划、工具调用三大能力,通过外部工具链实现了从意图到行动再到结果的完整闭环。
二、六大AI智能体分类
2025年智能体的生态已形成清晰的分类,它们正从技术原型走向产业落地:
- Agentic RAG(检索增强生成智能体)
Agentic RAG将记忆、规划能力与外部工具调用结合,实现复杂数据集的实时推理。其架构包含 Memory(记忆)、Planning(规划)模块。智能体通过 System Prompt 接收查询后,可调用 Perplexity、Glean 等知识工具,同时连接向量数据库获取实时数据。
- 应用场景:金融分析师跨源做尽职调查时,智能体自动整合SEC文件、行业研报与内部风控规则;医疗研究者合成基因组数据与临床试验结果,生成个性化治疗建议;合规专员对政策文本做“上下文理解+可解释性标注”,快速响应审计需求。
- 技术支撑:基于Lewis等人在NeurIPS 2020提出的RAG框架,2025年OpenDevin、LangGraph等工具链的成熟,让这类智能体从“概念验证”走向“生产级编排”。
- Voice Agent(语音智能体)
依托嵌入模型与语音转换技术(STT/TTS),语音智能体实现自然语言双向交互,包含STT(语音转文字)、TTS(文字转语音)、Agent 核心模块与向量数据库,可连接 Google Search 等工具,展现从“听见”到“行动”的闭环。
- 应用场景:银行业语音助手完成交易验证与客户服务;医疗助手引导患者术后流程;零售顾问用自然对话推荐产品。
- 技术支撑:STT 采用 Whisper v3、Google AudioPaLM 2;TTS 依赖 OpenVoice、Bark;同时融入情感识别管线增强交互体验。
3.智能体协议(A2A、MCP 等)
2025年智能体生态的关键突破在于协议标准化,相当于多智能体协作的 “TCP/IP”,让不同厂商、不同功能的 Agent 能跨系统通信。目前主流协议包括 A2A(Agent-to-Agent)、MCP(模型上下文协议),以及 Google ADK、LangGraph 等生态专属协议。
- 应用场景:企业跨部门自动化(财务↔HR↔IT);跨平台编排(法律AI请求合规AI的审计数据)、软件质量保障与风险评估中的多智能体协作。
- 技术支撑:2025年斯坦福HAI与MIT CSAIL联合发布的多智能体协作协议,正在定义分布式认知的行业规则;谷歌DeepMind“Society of Mind 2.0”框架则探索了多个智能体分工解决复杂问题的可能性。
- DeepResearch Agent(深度研究智能体)
受Perplexity DeepResearch与OpenAI o1-preview启发,这类智能体通过协调多个子智能体,结合 Memory 与 Bing API、LexisNexis 等工具生成证据支持的研究成果。
- 应用场景:投资机构自动化 ESG 与股权研究;律所起草多源引用的法律简报;政策机构生成实时监管摘要。
- 技术支撑:Aggregator Agent 负责拆解任务,Citation Agent(引用智能体)负责检索权威信源,Summariser Agent(总结智能体)负责提炼核心信息,Checker Agent(校验智能体)负责验证数据准确性,最终生成带标注的研究报告。
- Coding Agent(编码智能体)
以 Devin(Cognition Labs)、Cursor IDE智能体为代表,这类智能体可在沙箱环境中自主完成 “写代码→调试→测试” 全流程,甚至对接Docker/Kubernetes等运维工具。
- 应用场景:金融服务中合规代码的自动化生成;保险中定制承保逻辑和场景模拟器的创建;零售企业优化网页性能。
- 行业价值:构建、测试周期加速 10 倍;无缝集成 CI/CD 流水线;实现生产环境的自动修复监控。
- CUA(计算机交互智能体)
打破数字世界的人机鸿沟,通过“桌面沙箱+向量化观察模型”,模拟人类操作鼠标、键盘与软件界面(如ERP、 legacy系统)。图中“桌面沙箱、工具集、向量DB、内存、第三方工具(Stripe等)”的闭环,展示其拟人化交互能力,智能体像人类一样“打开Excel→填写报表→点击提交”,全程无需改造旧系统。
- 应用场景:金融后台自动录入 legacy系统数据(如“将纸质保单信息录入核心业务系统”);人力资源流程自动化(入职表单填写、凭证配置、薪资计算);网络安全日志扫描与补丁验证(如“检测到漏洞后,自动调用Patch工具修复”)。
- 技术支撑:AutoGPT 2024 年推出 CUA 插件,斯坦福 WebVoyager、DeepMind SIMA 则实现了跨应用的强化模仿学习,正推动跨应用学习从实验走向商用。
三、智能体的商业价值
Google Cloud 对 3466 位企业高管的调研显示,智能体已脱离 “试点阶段” ,成为企业降本增效的核心抓手。88%早期采用者实现正向ROI,39%企业部署超10个生产级智能体。投资回报率最高的五大领域是:
例如,Google Cloud SecOps AI 智能体通过替换传统工具,在三年内节省了 120 万美元。客户互动 AI 将通话效率提升了 207%,投资回报率高达 207%,每次通话节省了 120 秒。AI 编程智能体使开发人员的工作效率提高了 50%,最终用户的工作效率提高了 36%。
金融行业是智能体落地的先锋,核心场景包括:
- 风险智能体:自主分诊警报(如信用卡盗刷预警)、关联异常交易模式、生成事件处置报告;
- KYC/AML智能体:持续抓取客户公开信息(如社交媒体、新闻报道),自动化生成风险评估报告与监管申报;
- 投资智能体:整合宏观经济数据、ESG评级与客户风险偏好,生成动态资产配置建议;
- 私行RAG系统:让理财顾问实时对话企业级数据,提升服务深度。
行业案例包括德意志银行用内部多智能体框架监控合规与创新,实现政策更新自动触发流程改造;摩根大通LOXM 2.0整合推理智能体,优化股票交易的流动性预测;普华永道“AgentOS”在财富管理领域试点,对接LangGraph与MCP实现受控自治,既释放智能体创造力,又守住合规底线。
四、挑战与责任
尽管势头迅猛,数据隐私(37%)、系统集成(28%)、成本管控(27%)仍是主要障碍。企业需构建“责任自治框架”:
- 可解释性:关键决策保留HITL监督,如医疗智能体的诊疗建议需医生复核;
- 数据溯源验证:维护数据来源的完整性与可信度;
- 伦理嵌入:锚定《AI权利法案》《AI Verify》、ISO/IEC 42001等标准,禁止智能体生成歧视性内容或执行危险指令;
- 智能体安全平台:监测记忆泄漏(智能体私自存储敏感数据)、提示注入(恶意指令操控智能体)、自我修改(智能体擅自更新代码逻辑)等风险。
随着AI系统向自我修正的智能体社会演进,安全框架的重要性与智能体本身相当。普华永道建议企业建立智能体治理委员会,制定标准化性能指标(延迟、准确性、对齐度),并开发道德约束机制。
五、人机共生的 Agentic HX 时代
2025 年只是智能体发展的起点,未来 5 年将迎来三大变革:
- 智能体商店:类似 App Store 的智能体商店将出现,企业可按需购买财务智能体、营销智能体等,并通过协议快速组合;
- 个性化智能体:用户可定制专属智能体,比如个人健康智能体会整合体检数据、饮食记录,生成个性化健康建议;
- 智能体治理体系:企业将成立智能体治理委员会,负责制定智能体 的伦理规则、性能标准,确保人机协作的公平与安全。
正如 Geoffrey Hinton 所言:“我们不再编程智能,而是培育智能。”智能体不是替代人类,而是将人类从重复劳动中解放出来,这是人机共生的新社会契约,也是 Agentic HX(智能体化人机体验)的核心本质。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。