剪辑
文章深入分析AI Agent与Workflow架构差异:Workflow稳定高效但灵活性差,业务流程由人定义;Agent灵活多变但稳定性成本高,决策权交给模型。两者可混合使用,核心业务用Workflow保障稳定,非核心业务用Agent提升灵活性。随着模型能力提升,Agent未来可能实现动态工具创建。技术选择应基于实际业务需求,没有绝对的优劣之分。
一、Agent VS Workflow
其实两者差异很清晰的,决策权只要在模型,那么就是Agent,如图所示,Agent是一个标准的ReAct架构(思考→执行→观察 结构):
Workflow就是我们在代码中将所有分支都定死,模型的作用就是根据输入做输出;Agent属于将if/else判断的部分交给模型了。
进一步Workflow最大的特点是:稳定、成本低、效率高,但几乎没有灵活性,流程变一点就一定要人工上手做调整;
而Agent最大的特点是:灵活,可以兼容大部分场景。问题也很明显,黑盒太多,并且ReAct架构天生稳定性差、成本高、响应慢。
以同一个功能来区分Workflow和Agent:
上海天气怎么样?首先是Workflow,他需要做的是意图识别,要么用程序、要么用AI去判断这里是否有天气咨询的需求,如果有就用程序或模型取出参数,自己手动调用API;
而Agent的话,其实跟上述动作大同小异:
首先,两者API调用都是一套,工具代码没有任何不同;
其次,Workflow的意图识别是我们主动发起的,如果这里意图识别很多的话程序可能会很臃肿:
if 天气 需求意图,Workflow后续流程if 旅游 需求意图,Workflow后续流程if 机票 需求意图,Workflow后续流程......可以看到,Workflow的识别全部是显示的;
而在这里,Agent架构的差异性就出来了,他不需要要那么多if判断,取而代之的是工具定义:
[ { "tool_name": "weather", "tool_desc": "查询某地的天气", "tool_examples": ["上海天气怎么样", "北京天气怎么样"] }, { "tool_name": "travel", "tool_desc": "某地的游玩计划", "tool_examples": ["上海有哪些好玩的", "北京有哪些好玩的"] }]这里甚至可以说是模型给的一个语法糖,他并没有吃掉之前的if判断,只不过将判断逻辑写进了参数,核心是description、name…
其实为什么要这样做,乃至可以这样做的原因也很简单:模型语义能力大大的提升了产品的泛化能力。
这里结论是:之前Workflow的判断被模型的意图识别替换掉了,这里就大大增加了整天产品的灵活性,是模型泛化能力的体现。
谁来做工具调用的判断,也就是Workflow和Agent的核心差异了
二、如何选择
如上所述,Workflow里面。业务流程是人写死的,模型只是某几个节点里泛化能力(语义理解能力)更强的API;
而Agent是将业务的编排逻辑下放给了模型,他首先要负责想,其次要负责选,这里想和选的部分很依赖模型本身的能力,有些小领域几乎没法做出合理的规划,包括工具调用也是,因为工具调用的背后是意图识别:
所以,当模型能力不足或者各方面要求较高的时候,Workflow都不是首选了,是唯一选择。
更进一步的判断逻辑是:整个业务选型要从任务目的出发,如果稳定性、成本、响应速度要求太高,无脑Workflow就好。
只不过从我之前生产实践来说,Workflow和Agent两者之间并不是互斥的,我们往往都会用到,也就是:
- 最核心的业务,错了要赔钱的任务会用Workflow做基本保障;
- 跳出核心业务,用户对于错误感受不严重的,使用Agent架构;
关于为什么要使用这套混合架构的答案很简单:没办法,Workflow只能解决80%不到的需求!
进一步说:用户的意图是无穷的,我们根本做不到穷举他所有的需求,然后一一硬代码做稳定的实现,在这个时候Agent可以缓解产品完整性很大的压力;
换个问题:Agent如果表现得好就能100%解决用户需求了吗?
答案也是否定的。意图是无穷且天马行空的,但每个产品的边界却很清晰:
他首先受控于Tools各种组合可以完成的部分,比如如果Tools没有支付功能,那么Agent怎么都不会有;
其次Agent产品的能力也受控于领域知识的局限性,比如突然从一个医疗Agent跳到法律Agent,在真实世界的框架里是合理的;
比如出了医疗事故,必定会涉及法律部分的问题,但在Agent产品中未必可以这样做,因为不同国家、地区乃至医院体系,这里的处理逻辑会有所不同,所以在各个垂直领域Agent成熟并且对外释放接口前,这一切不会发生。
最后,上述的所有可能都是建立在假设模型基本能力很强,在意图识别上不会出问题的基础上,加之工具的集成还有一个阶段,所以通用Agent的出现还有很长的时间。
至此,我相信大家对Workflow和Agent的差异是什么,以及两者之间该如何选择已经十分清晰了,那么这里只留下最后一个问题了:
前面我们已经说了,Agent架构的核心是意图识别和工具调用,这里意图识别延展出来是**上下文工程和模型本身能力提升的问题,**这个话题太大我们不做讨论,但Agent所需工具也是千奇百怪,他该如何实现我们也许是值得探讨的问题:
三、AI 编程 和 Agent Tools
得益于模型能力的发展与历史海量的互联网工具的积累,Agent模式虽然在25年没解决太多问题,但已经崭露头角了,而这里工具的实现就很有意思了。
正常情况下,每个工具的调用是我们一个个做的,但是其实这里是否存在另一个可能,Agent依赖的工具是他自己动态添加(实时创造)的呢?
这是一种Agent做产品经理,模型做码农的模式,他理论上是可行的,他最终会指向一个可能性:Agent能否超越预先定义的能力边界,在运行时动态扩展其技能树?
而这已经发生了,之前我就做过一次,如视频所示:
这里我给Agent的指令是为我生成一个游戏,而他马上调用Claude Code做出来了,所以编程这个Agent拥有的工具,几乎理论上是万能的!
更进一步他可以干什么呢?答案是他可以自己创造数据、微调模型,因为这个是真的不难,他也属于标准AI 编程其中一环…
所以,未来的Agent可以很激进,当天在运行过程中发现现有 Tools 不够用,于是自己写一个、自己挂上去,这才是很多人口中的“真正智能体”。一个典型流程可能是这样的:
把这 10 万行日志做异常模式分析,再生成一个交互式可视化页面- Agent 发现任务没法仅靠现有工具完成;
- 他在一个受控的代码执行环境里,生成一段分析的代码;
- 执行、测试,通过之后,将他包装为Tools;
- …
如果再往前推一步,这个“代码执行环境”本身,也是一个 Tool,于是就形成了一个很有意思的闭环:
Tool 里的代码由模型生成,模型再调用这些 Tool 来完成更复杂的任务。
从架构视角看,你等于多了一层:
- 以前是:模型 → 工具集
- 现在变成:模型 → 工具工厂 → 新工具集 → 再被模型使用
当然,这一切还远,真的这样做就是在沙滩上建立沙滩碉堡,这种东西是经不起风雨的,但这个趋势已经出现了…
四、结语
最后总结一下:Agent融到了钱,Workflow解决了实际的问题。两者之间没有孰优孰劣,还是要看业务是什么、任务是什么、问题是什么。
Workflow 落不落后、Agent 到底多智能,纠结这些干嘛,谁更适合解决他们,就用什么,工具罢了!
在你的业务里,哪些必须交给 Workflow 保底,哪些可以放心交给 Agent 去冒险?这个边界划得越清楚,你的 AI 项目就越有机会既活得久,又跑得快。
五、如何系统的学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
01.大模型风口已至:月薪30K+的AI岗正在批量诞生
2025年大模型应用呈现爆发式增长,根据工信部最新数据:
国内大模型相关岗位缺口达47万
初级工程师平均薪资28K(数据来源:BOSS直聘报告)
70%企业存在"能用模型不会调优"的痛点
真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!
02.大模型 AI 学习和面试资料
1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工
📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。