Anthropic Harness工程入门基础教程(非常详细),收藏这一篇就够了!

张开发
2026/4/10 19:07:41 15 分钟阅读

分享文章

Anthropic Harness工程入门基础教程(非常详细),收藏这一篇就够了!
用 ChatGPT 和用 Claude Code是两种完全不同的体感。前者就是聊天后者是在聊天的基础上给用户干活。像 Claude Code 这样的 Coding Agent 打开终端需求丢进去它开始读文件、搜索代码、执行命令、跑测试、提 PR一气呵成中间出错了自己修修完接着跑。它有工具有记忆能跨会话保留状态能自主执行多步任务。对话 AI 的核心是「理解和生成」。Coding Agent 的核心是「感知、规划、执行、反馈」。前者靠一个好 prompt 就能撑起大部分场景后者要在真实环境里多步连续地把事情做对。Coding Agent 的代表产品Claude CodeAnthropic、CodexOpenAI、以及开源社区的 OpenClaw。它们的共同点是都有工具调用能力都有某种形式的记忆都能跑相对长时间的任务。但 Coding Agent 也有共同的痛点跑着跑着就出问题要么上下文撑不住要么任务到一半崩了要么调用错工具。这些问题就是 Harness 工程要解决的。Anthropic 今天刚发布了一篇新的工程实践文章讲他们怎么为长时运行的 Agent 设计 Harness。同时还发布了新产品**Claude Managed Agents。只要告诉 Anthropic 想要什么样的 AI 智能体它就帮你在云端跑起来。**相比于 claude code 给 C 端用户Managed Agents 跑在 Anthropic 的云主要给企业用。Anthropic 认为Agent 的基础设施将会越来越像微型操作系统Agent OS。他们不承诺具体的 harness 长什么样而是设计了一套 meta-harness只承诺几类长期稳定的接口具体实现随着模型能力迭代不断重写。就像 OS 从来不关心未来程序怎么写它只提供抽象接口。这篇文章从Anthropic新产品发布说起加上之前研究了几家大厂的 Harness 架构实践我想把这些东西整合起来系统讲一遍什么是 Harness大厂怎么做普通人该怎么理解和使用。01 从 Prompt 到 HarnessAI 工程化有一条清晰的演进线。2022-2024 年Prompt Engineering提示词工程核心问题是「表达」模型有没有听懂你在说什么这个阶段的工作是设计一个完整的输入框架告诉 AI 它是谁、面对什么情况、要完成什么任务、按什么格式输出。框架越完整输出质量越可控。同一个模型换一种说法结果可能差很多。这是那个时代最重要的发现。2025 年Context Engineering上下文工程Andrej Karpathy2025 年说“Context Engineering 比 Prompt Engineering 更重要。这是一门精微的艺术与科学用恰到好处的信息填充上下文窗口以服务于下一步操作。”核心问题变成了信息量模型有没有拿到足够且正确的信息Prompt 擅长澄清任务、约束输出、激发模型已有能力。但它不擅长凭空补齐缺失知识、管理大量动态信息、处理状态变化。Context Engineering 的出现是因为这个阶段模型有了工具调用和外部系统信息开始动态涌入RAG 检索结果、对话历史、工具执行结果这些都需要有人管。2026 年Harness Engineering驾驭工程核心问题变成了多步做对模型在真实执行里能持续做对吗Prompt Engineering 是表达问题Context Engineering 是信息量问题Harness Engineering 是执行问题。三者不是替代关系而是层层包含Prompt ⊂ Context ⊂ Harness。02 Harness 到底是什么Harness 原指马具缰绳、马鞍、马嚼子这一整套装备用于驾驭强大的烈马让它按照骑手意图安全前行。类比过来就是马 Model提供动力骑手 工程师提供方向马具 Harness提供控制没有 Harness 的 AI Agent就像一匹烈马在开阔草原上奔跑速度快、力量大但完全不知道要去哪里也无法完成任何实际任务。更直观的比喻Model 是发动机Harness 是整辆车。发动机决定马力上限但没有方向盘、刹车、仪表盘这辆车开不起来。Harness 的定义可以用一个公式表达Harness Agent - Model模型之外的一切就是 Harness。模型负责做决策Harness 负责提供执行环境。裸模型没有任何外部工程化有三大弊端上下文腐烂窗口填满工具输出和历史模型失去对原始指令的注意力幻觉工具调用无验证时Agent 用错误参数调用函数或引用不存在的 API状态丢失网络超时或服务器重启内存进度清零下一会话从零开始Harness 是解药通过上下文管理、验证护栏、状态持久化、失败恢复等机制把裸模型的不可靠性转化为可生产部署的确定性系统。03 Anthropic 最新实践Anthropic 今天发的这篇文章是目前看到的关于 Harness 架构最深度的一篇。他们早期的做法是把 harness、session、sandbox 全塞进一个容器里。结果遇到了一堆问题harness 崩了整个会话难恢复容器挂了状态可能丢失调试困难VPC 接入复杂。然后他们做了一个根本性的架构决定把三者彻底分离。Session / Harness / Sandbox各自独立各司其职。Session不是聊天记录是可恢复事件流文章里有一句话“The session is not Claude’s context window。”Session 不是上下文窗口的镜像。它是一个 append-only event log可查询、可回放、可恢复、可重组的真实执行历史。如果只把 session 当作喂给模型的 prompt就损失了可恢复性。从系统角度看Claude 的 context window 是执行现场session log 是证据仓库harness 是检索与重组器。Harness可替换的脑干不拥有状态、他们把 harness 从容器里拿出来变成一个调用工具的推理调度循环。现在的 Harness 不再拥有状态不再假设工具在哪里对外只暴露一个接口execute(name, input) - string。这样做的意思是AI 不需要知道它在哪台设备、哪个操作系统、手机还是电脑、容器还是虚拟机它只知道「我可以使用哪些手」。Sandbox某种具体的手文章里说将大脑与双手分离Claude harness 是 brainsandboxes / tools / MCP / custom infra 是 hands一旦 sandbox 只是 hand它们彼此独立可以来自不同基础设施可以共享和传递也不需要每个 session 都加载启动完整的 sandbox。这直接带来了性能提升先让 brain 起跑hand 只有在需要时才 provision。p50 TTFT 降约 60%p95 降超过 90%。原来的瓶颈并非模型推理本身而是把整个执行环境预耦合到了请求入口。这三者的分离也从架构上增强了安全性。文章里有个表述给模型一个「范围较小的 token」其实是在赌模型做不到某些攻击路径。而模型在持续变强这种「它应该不会想到吧」的安全假设会越来越脆弱。所以他们的做法是Git token 只在初始化 clone/push/pull 过程中以受控方式接入不让模型直接读到 token。模型通过 MCP proxy 间接调用proxy 拿 session token 去 vault 取真实凭证再执行。不把安全建立在模型能力不足上。文章结尾说的「Many brains, many hands」代表的是 Anthropic 未来想做的事Agent runtime substrate多脑协作多手编排跨环境执行。Agent 的本体不绑定某个执行壳而绑定一组可恢复状态与可调用能力。这套架构我最大的启发是三条会话是执行事实流而不是消息列表工具环境不要内化为 agent 自身上下文工程应该是可替换策略模型一旦变强换策略不产生技术债。04 Claude Managed AgentsHarness 层正在被大厂接管理解了 Anthropic 的架构思路再看他们发布 Claude Managed Agents 就不会觉得意外了——这个产品就是把上面那套 meta-harness 做成了托管服务。Anthropic 在 4 月 8 日正式发布了 Claude Managed Agents。核心是一套 API让开发者不再需要自己搭 Harness 的基础设施部分。原来需要几个月自己搭建的东西现在直接调用自动为每个 Agent 创建隔离容器销毁后不留痕迹Session 管理durable event log任务中断后从检查点继续状态不丢失错误恢复崩溃后自动重启接着跑工具编排决定哪些工具被调用处理工具间的依赖关系MCP 服务器接入开箱支持不需要自己处理认证和路由定价是**$0.08/小时**加上正常的 token 费用空闲时间不计费。一个 20 分钟的客服任务运行费大概 $0.027加上 token 费用也就 $0.1-0.5。Notion、Rakuten、Asana 都已经接入了。Anthropic 说原来从零搭建一套生产级 Agent 基础设施需要几个月现在用 Managed Agents 可以压缩到几天。这个产品对行业的冲击比它的功能列表看起来大得多。Harness 层本身也开始经历和模型层同样的事情基础能力逐渐标准化、商品化差异化往上移。当年大家都自己训练模型然后大厂开放 API自训模型的必要性下降了。现在大家都自己搭 harness 基础设施Managed Agents 出来了自建 session 管理、沙箱、状态持久化的必要性也开始下降。Harness 这一层实际上正在被切成两层基础设施 Harnesssession / sandbox / 状态 / 恢复大厂在接管应用层 Harness工作流设计、领域编排、上下文策略、业务约束真正的护城河越来越集中在对特定领域的理解和任务流的设计质量上而不是基础设施本身。05 大厂是怎么做 Harness 的Anthropic 不是唯一在认真想这件事的公司。研究了几家大厂的实践之后发现了一个惊人的相似性几乎所有人都收敛到了「生成-评估-分离」这个架构。AnthropicPlanner Generator EvaluatorPlanner 把一句话需求扩展成完整产品规格防止系统范围过小。Generator 按规格逐功能开发按 sprint 迭代。Evaluator 用 Playwright 做交互式验证低于阈值打回重做。当让模型评估自己的工作时它会倾向于自信地表扬自己的作品即使在人类看来质量明显平庸。工程化一个独立的严格评估器 Agent远比教会生成器 Agent 自我批评容易得多。他们还发现Sonnet 4.5 时代上下文增长到一定程度模型会变得不稳定就像快要下班的打工人开始疯狂敷衍。他们设计了上下文重置机制。到了 Opus 4.6模型能力增强这个机制直接被撤掉了。Harness 需要随模型更新和撤换。每个 Harness 组件都编码了一个假设假设模型无法独立完成某件事。模型变强了该撤就撤。Google DeepMindGenerator Reviser Verifier他们的 Aletheia Agent 在 IMO-Proof Bench Advanced 上达到 95.1% 准确率远超之前记录 65.7%。同样是三角架构Generator 提出候选解法Verifier 检查逻辑缺陷和幻觉Reviser 修正验证器发现的错误循环迭代直到通过。Manus5 次重写第 6 次才上线Manus 从 2025 年就开始做 Harness因为他们不是做模型的一开始就意识到 Harness 才是核心。经历了 5 次架构重写。他们学到的最重要教训凡是希望模型「一定」做到的事就不要靠提示词要靠代码层面的硬约束。工具超时、输出截断、危险操作确认步骤这些都应该是代码层面的强制规则。以及专业 Agent 通用 Agent。对于特定任务「狙击手 Agent」专注单一任务比通用 Agent 更可靠、更经济。OpenAI Codex工程师不写代码设计环境5 个月团队从 3 人扩到 7 人写了约 100 万行生成代码合并了约 1500 个 PR平均每个工程师每天合并 3.5 个 PR速度是人工开发的 10 倍。他们的核心做法是发现问题分析根因设计解决方案然后让 Codex 自我写代码来改进 Harness形成闭环。有一句话很值得记「If a PR requires significant human intervention, the agent is not the problem—the Harness is.」如果 PR 需要大量人工干预问题不在 Agent而在 Harness。06 成熟的 Harness 需要的 6 大模块把几家大厂的实践抽象出来一个成熟的 Harness 应该包含这 6 个模块。① 上下文工程核心动作有四个Write写入持久状态、Select决定检索什么、Compress减少 token 体积、Isolate卸载到子 Agent。关键原则上下文窗口是稀缺资源需要的时候再给。不是「装不装得下」而是「该不该装进去」。用子 Agent 作为上下文防火墙不同子任务在隔离的上下文窗口运行。② 记忆和状态管理Session 生命周期的设计开始时加载历史状态执行中实时记录进度关键节点创建 Git 检查点失败后从检查点继续。记忆和状态管理让 Agent 具备连续性不是每次从零开始而是基于历史持续进化。③ 工具和任务编排精选工具集Vercel 的教训工作流编排行动前先想清楚步骤成功率几乎翻倍沙箱隔离每个 Agent 在隔离环境中运行。核心原则先想后做。让 Agent 在执行前就有清晰计划而不是边做边想。④ 验证护栏确定性约束自定义 linter、架构规则校验机制单元测试、类型检查恢复机制自动重试、回滚到稳定状态评估机制多维度评分低于阈值打回重做。类比汽车刹车系统不是为了阻止前进而是为了让人能放心加速。⑤ 评估和观测执行追踪、输出验收、质量分级、异常检测、错误归因。没有观测就无法理解和改进。观测让 Harness 具备自我进化的能力通过观测发现问题通过评估量化改进形成持续优化的闭环。⑥ 人类接管关键时刻把控制权交还给人类。删数据库、扣费、修改生产配置、权限变更、敏感数据访问这些场景必须暂停等待确认。设计原则及时在操作执行前暂停、清晰说明为什么需要接管、可回退拒绝后 Agent 能继续其他任务。07 最后Anthropic 这篇文章真正代表的是一个产品哲学他们不相信今天的 Agent Harness 会是最终形态所以优先投资于稳定接口而不是一次性最优实现。这和 OS 的思路是一致的。CPU 性能提升了几百万倍但我们依然需要操作系统。底层能力越强上层系统越复杂越需要精心设计的架构。旧的 Harness 被淘汰新的 Harness 接管更复杂的任务。Agent 系统的未来在于一组长期稳定的系统抽象之上。现在Authoripic 发布的新产品说明了他们不止是在做模型还在接管通用 harness留给我们的是怎么在这套基础设施上把自己的业务逻辑跑顺。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多文章