Harness Engineering 的三个 Scaling 维度:统一框架下的技术架构深度解析

张开发
2026/4/7 0:54:02 15 分钟阅读

分享文章

Harness Engineering 的三个 Scaling 维度:统一框架下的技术架构深度解析
当我们谈论「Harness Engineering」时究竟在讨论什么这个看似简单的问题却揭示了当前AI agent领域最核心的架构挑战。术语混乱的根源同一个词三件完全不同的事2026年第一季度OpenAI、Cursor和Anthropic先后发布了各自在agent-first软件开发上的实践报告。三篇文章都被归入同一个术语harness engineering。但仔细读下来它们讲的几乎是三件完全不同的事。这种术语混叠的背后是三家公司在解决agent系统规模化时聚焦了三个正交的维度OpenAI的harness engineering讲的是环境设计 — — 文档体系、架构约束、可观测性基础设施让agent在被精心设计过的工作环境里可靠地生产代码Cursor的self-driving codebases和scaling agents讲的是协调架构 — — 几百个agent同时工作怎么分工、怎么并行、怎么收敛Anthropic的harness design for long-running apps讲的是运行时纠偏 — — 一个agent连续跑几个小时怎么在过程中保持方向和质量读者群高度重叠用的术语高度一致但各自回答的工程问题截然不同。这正是harness engineering这个词在当前讨论中造成混乱的根源人们用同一个词在讨论不同层面的问题。地基三家收敛到的四条共同判断在展开三个维度之前值得先看三家在哪些地方达成了一致。这些共识构成了harness engineering的地基。共识1人类的核心工作从写代码转向了设计agent的工作环境OpenAI把这表述为”设计环境、指定意图、构建反馈循环”Cursor的实验发现”架构和指令比harness本身更重要”Anthropic发现planner和evaluator的设计比prompt的措辞对产出质量影响更大。三家从不同方向得到了同一个结论人类的杠杆点在于创造让agent能可靠工作的条件代码本身由agent产出。共识2知识必须版本化、可发现、存在于repo中OpenAI最直白地说了这件事Codex看不到的等于不存在。Google Docs里的讨论、Slack上的对齐、团队成员脑子里的隐含知识对agent来说统统是空白。Cursor从另一个角度验证了同一点指令中的模糊措辞会被数百个agent同时放大后果比人类团队里的沟通模糊严重得多。解决方案都是把知识推入repo用markdown和结构化文档取代口头沟通。共识3约束比指令有效OpenAI用自定义linter强制执行分层架构lint错误信息本身就是给agent的修复指引。Cursor发现”no TODOs, no partial implementations”比”remember to finish implementations”有效得多。约束是可执行的、确定性的指令是可解释的、模糊的。在agent的工作方式里这个区别比在人类团队里更关键。共识4完美主义是吞吐量的敌人OpenAI采用最小阻塞合并等待比纠错更昂贵。Cursor发现要求每次commit 100%正确会导致系统停滞一个小错误让整个系统陷入修复循环。两者都接受了”纠错比等待便宜”的权衡。这个判断在人类工程团队里可能引发争议但在agent的产出速度远超人类注意力的场景下它是合理的工程决策。三个Scaling维度独立却相互依赖在上述共识的基础上三家各自在解决一个不同维度的scaling问题。3.1 时间Scalability让一个Agent连续跑几小时Anthropic要解决的问题是一个agent在被精心设计的环境里开始工作之后怎么在几个小时的连续运行中保持方向和质量。这个问题之所以独立于环境设计是因为长时间运行会引发两类环境设计本身无法预防的失败方向漂移随着上下文窗口逐渐变满模型的一致性开始衰减表现为偏离原定方向、遗忘早期约束、在细节中越走越深自评失真agent在工作过程中能发现自己产出里的缺陷但随后会说服自己这些缺陷可以接受给出通过判断Anthropic的解法是一个三角色架构Planner把一句话需求扩展成完整的product spec只做产品层面和高层技术方向的设计不进入实现细节Generator按spec实现功能Evaluator拿着事先协商好的sprint contract用Playwright操作真实运行的应用来验证产出是否达标关键创新在于Evaluator和Generator之间没有共享的内部状态 — — 这种独立性是它能纠偏的前提。每个harness组件都是对当前模型能力边界的一个假设这些假设有不同的过期速度。实证数据简化后的系统产出了一个数字音频工作站运行约4小时成本124美元其中generator第一轮连续运行了2小时7分钟。对比基线同样的prompt用单agent跑20分钟花9美元核心功能无法正常使用。3.2 空间Scalability让几百个Agent并行工作Cursor要解决的问题是能否通过投入10倍的计算来获得10倍的有意义吞吐量他们选择了从零构建一个web浏览器引擎作为基准任务用Rust编写数百个agent并行运行一周生成了超过一百万行代码。文章真正有价值的部分在于它坦诚记录了四次架构迭代的失败过程。失败经验教训第一次尝试所有agent地位平等通过共享状态文件协调 → agent持锁太久、忘记释放20个agent的吞吐量退化到1-3个的水平行为上变得回避风险只做安全的小改动第二次尝试分离了Planner、Executor、Worker、Judge四个角色 → 改善明显但被最慢的Worker瓶颈住第三次尝试把Planner合并进Executor → 角色过载导致病理行为随机休眠、停止生成任务、自己动手写代码最终方案递归Planner-Worker架构根Planner拥有整个项目范围当范围过大时生成子Planner递归进行Worker从Planner接收任务在自己的repo副本上独立工作完成后写一份handoff做了什么、发现了什么、有什么担忧提交给请求任务的PlannerWorker之间互不感知也不与其他Planner通信。信息严格向上流动线性扩展的三个关键点规划层面递归Planner让规划工作本身可以并行展开避免单一Planner成为瓶颈执行层面Worker完全隔离各自在独立的repo副本上工作消除了锁竞争质量层面移除了集中式的Integrator角色中央质量控制瓶颈接受一个小而稳定的错误率让错误被其他agent自然修复峰值吞吐量约1000 commits/hour。当他们把repo从monolith重构为多个独立crate后编译等待时间大幅缩短吞吐量成倍提升。3.3 交互Scalability让人用最少的介入steer大量Agent工作OpenAI要解决的问题从harness engineering文章延伸到了Symphony2026年3月开源当agent的产出速度远超人类的注意力时人应该通过什么界面来steer整个系统原始交互模式的瓶颈人还是要逐个写prompt、逐个触发任务。Symphony的解决方案一个用Elixir/BEAM构建的持久化守护进程把项目管理工具当前默认是Linear变成了agent的job scheduler。工程师把需求写成ticketticket移到Todo状态时Symphony自动为它创建独立工作空间fresh git clone 隔离的agent session派 Codex执行任务完成后产出Proof of WorkCI结果、walkthrough、有时甚至包括录屏并开PR如果agent中途失败BEAM的supervision tree处理重启和backoff其他agent继续运行系统可以管理数百个并发implementation run交互范式的转变从”写prompt并触发” → 到”写ticket并移动状态”上游写ticket和维护harness文档、测试、架构约束下游review Proof of Work和PR中间执行过程完全自主反馈循环的重心从纠正agent的具体产出转向改进harness本身更好的测试、更好的文档、更好的约束。这些改进在所有未来的agent run中复利。三个维度之间的关系理解依赖比理解每个维度更重要最关键的依赖空间scaling会放大时间scaling中的问题当你有一个agent在跑方向漂移和自评失真的后果局限在一个PR里。当你有几百个agent同时跑每个都在漂移、每个都在自我合理化错误会以并行度的倍数积累。Cursor在实践中确实遇到了这个问题他们发现agent在长时间运行中会丧失焦点需要定期scratchpad重写和contextsummarization。但他们的解法偏向接受一个稳定的错误率并让系统自然收敛而非引入独立的evaluator。这两种策略哪个更优目前还没有定论。反过来交互scaling依赖于时间和空间scaling的成熟度Symphony之所以能让人通过写ticket来steeragent前提是单个agent run足够可靠时间维度系统能同时管理大量run空间维度如果每个run都需要人中途干预ticket驱动的模式就退化成了手动触发的批处理。跨维度的共同发现模型选择对角色的适配比预期更重要Cursor发现GPT-5.2在长时间自主运行中表现优于Opus4.5后者倾向于提前停止和走捷径Anthropic记录了从Sonnet4.5到Opus4.6三代模型上harness组件的演化路径这意味着harness engineering的一部分工作是为不同角色匹配不同模型这个匹配会随着模型迭代持续变化。这个框架能帮你做什么看清harness engineering到底在讨论什么用这个框架去看当有人说harness engineering时先问它在解决哪个维度的scaling是让agent跑更久时间还是让更多agent一起跑空间还是让人更省力地steer交互三个维度的工程问题不同解法不同trade-off也不同。把它们混在一起讨论注定混乱。判断市面上二手讨论质量的工具如果一篇文章在讨论harness engineering但连这三个维度中的任何一个都没有触及它大概率是在讨论更基础的东西传统的multi-agent协作协议两年前流行的AI虚拟团队概念或者只是在用一个时髦的词包装已有的实践这些讨论有其价值但它们和OpenAI、Cursor、Anthropic正在做的事情处于不同的层面。互补的方向context infrastructure还有一个容易被忽略的维度。这三家讨论的scaling都在优化agent怎么工作工作更久、同时工作更多、人更省力地管理。但agent工作的质量上限很大程度上取决于它拿到了什么样的context。同样的模型、同样的工具、同样的prompt接入一套经过一年积累和分层精炼的认知框架后产出的性质会从”正确的废话”变成”有判断力的分析”。这个方向和harness engineering互补harness解决的是agent的工作方式和协调context infrastructure解决的是agent的认知密度应用边界不是所有场景都需要极致scaling最后值得指出一个边界。这三个维度的scaling解决的都是偏头部的需求极复杂的系统大型基础设施有实验性质的AI能力边界探索对更广大的普通开发者和企业来说他们的软件可能根本不需要几百个agent并行也不需要一个agent连续跑6小时。AI对软件的更深远影响可能在另一个方向让软件本身变得更简单、更一次性、更贴合具体使用者的需求。当交付物从成品软件变成支撑AI生成个性化应用的Generative Kernel时harness engineering解决的问题重要性会下降因为需要被harness的系统复杂度本身在降低。这两个方向并行存在服务于不同的场景。Harness engineering的讨论覆盖的是其中一端但读者值得知道它的适用边界在哪里。结语架构思维的升级Harness engineering不仅是一套技术实践更是一种架构思维的升级 — — 从关注”如何让AI写好代码”转向”如何设计让AI可靠工作的系统”。在这个过程中我们看到了角色专业化的力量Planner/Generator/Evaluator解耦带来的可扩展性递归架构反馈循环的转移从产出纠错到系统改进模型角色匹配的动态性约束胜于指令的范式转变真正的架构师不仅要解决当前的问题更要预见系统在不同规模下的行为变化。而harness engineering提供的这个三维框架正是理解和设计下一代AI-agent系统的钥匙。在AI时代我们不再只是构建软件我们是在构建能够构建软件的系统。而这个系统的设计才是真世的竞争优势所在。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多文章