2025年12月4日,Google发布了Context Engineering理念,将上下文从"字符串拼接"提升为"编译视图",基于Agent Development Kit (ADK)框架,通过分层存储、管道处理、作用域控制解决生产级Agent的核心瓶颈。
1 上下文管理:从边缘细节到核心瓶颈 ▸▸
Agent开发的范式正在快速演进,从单轮聊天机器人原型到部署复杂的自主Agent处理长时程任务——自动化工作流、深度研究、维护复杂代码库。2023年OpenAI营收10亿美元出头,2024年37亿,Google在ADK框架中发现,随着Agent运行时间增长,需要追踪的信息量呈指数爆炸:聊天历史、工具输出、外部文档、中间推理过程。主流解决方案依赖更大的上下文窗口,但简单地给Agent更多空间粘贴文本不可能是唯一的扩展策略。
问题出在哪?上下文管理从未被当作独立的系统来设计。早期Agent框架隐含假设单一窗口足够,将上下文当作可变字符串缓冲区处理。Google Tech Lead Hangfei Lin在12月4日的博客中提出,构建生产级Agent需要新的学科——Context Engineering,将上下文作为具有独立架构、生命周期和约束的一等公民系统。基于ADK在复杂单Agent和多Agent系统的扩展经验,Google设计并演化了完整的上下文栈来支撑这一理念。
2 三重压力下的范式转变 ▸▸
朴素的模式——将所有内容追加到一个巨大prompt中——在三重压力下崩溃。成本和延迟螺旋上升,模型成本和首token时间随上下文大小快速增长,将原始历史和冗长工具负载塞入窗口使Agent变得极慢且昂贵。信号退化现象严重,上下文窗口被无关日志、过时工具输出、废弃状态淹没,模型开始专注于过去的模式而非即时指令,ADK团队发现必须最大化相关信息密度才能确保稳健决策。物理限制终将显现,现实工作负载涉及完整RAG结果、中间产物、长对话轨迹,最终会溢出最大的固定窗口。
向问题投入更多token可以争取时间,但改变不了曲线形状。原本以为扩大窗口就能解决问题,深入后才发现需要改变上下文的表示和管理方式,而不只是增加容量。
ADK围绕不同命题构建:Context是对更丰富状态系统的编译视图。Session、Memory、Artifacts是源头——交互及其数据的完整结构化状态,Flow和Processor是编译管道——转换状态的有序过程序列,Working Context是编译视图——为这一次调用发送给LLM的内容。采用这种心智模型后,上下文工程不再是prompt体操,开始像系统工程,必须问标准系统问题:中间表示是什么?在哪里应用压缩?如何使转换可观测?
3 ADK的三大设计原则 ▸▸
ADK通过三条原则回答这些问题。
存储与呈现分离:区分持久状态(Session)和每次调用视图(Working Context),允许存储schema和prompt格式独立演化。Session作为决定性真相源保存为Event对象流,每个用户消息、Agent回复、工具调用、结果、控制信号、错误都被捕获为强类型记录,这种结构选择带来三重优势:模型无关性(可以更换底层模型而不重写历史,存储格式与prompt格式解耦),丰富操作(压缩、时间旅行调试、内存摄取等下游组件可以操作丰富的事件流而非解析不透明文本),可观测性(提供分析的自然表面,可以检查精确的状态转换和行为)。
显式转换:上下文通过命名的、有序的Processor构建,而非临时字符串拼接,使"编译"步骤可观测且可测试。每个基于LLM的Agent由LLM Flow支撑,维护有序的Processor列表,一个简化的SingleFlow可能包含basic → auth → confirmation → instructions → identity → contents → cache → planning → execution → output_schema这样的request processor链,以及planning → execution的response processor链。这些Flow是ADK编译上下文的机制,顺序很重要,每个processor建立在前序步骤输出之上,创建了自定义过滤、压缩策略、缓存、多Agent路由的自然插入点。你不再重写巨大的"prompt模板",只是添加或重新排序processor。
默认作用域限制:每个模型调用和子Agent只看到所需的最小上下文,Agent必须通过工具显式获取更多信息,而非默认被信息淹没。这种设计在多Agent场景尤为关键,单Agent系统会遭遇上下文膨胀,多Agent系统会放大它。根Agent将完整历史传递给子Agent,子Agent也这样做,就会触发上下文爆炸,token数量飙升,子Agent被无关对话历史困扰。
图2:上下文的四个层级——Write、Select、Compress、Isolate
4 分层架构:从存储到视图的编译 ▸▸
ADK将上下文组织成不同层级,每层有特定职责。Working Context是本次模型调用的即时prompt:系统指令、Agent身份、选定历史、工具输出、可选的memory结果、artifacts引用。对每次调用,ADK从底层状态重建Working Context,从指令和身份开始,拉取选定的Session事件,可选地附加memory结果。这个视图是短暂的(调用后丢弃),可配置的(可以改变格式而不迁移存储),模型无关的。这种灵活性是编译器视角的第一个胜利:你不再硬编码"prompt",而是将其作为可以迭代的派生表示。
Session是交互的持久日志,每个用户消息、Agent回复、工具调用、结果、控制信号、错误都捕获为结构化Event对象而非原始文本。Session和Working Context之间的桥梁是contentsprocessor,它执行三个关键步骤:选择(过滤事件流以丢弃无关事件、部分事件和不应到达模型的框架噪音),转换(将剩余事件展平为具有正确角色的Content对象,针对特定模型API),注入(将格式化的历史写入llm_request.contents,确保下游processor和模型本身接收到清晰、连贯的对话轨迹)。在这个架构中,Session是真相源,Working Context只是可以随时间优化的计算投影。
Memory是超越单个session的长期可搜索知识:用户偏好、过去决策、领域事实。MemoryService围绕两个原则设计:memory必须是可搜索的(而非永久固定),检索应由Agent指导。MemoryService将数据(通常来自已完成的Session)摄取到向量或关键词语料库中,Agent通过两种模式访问这些知识:反应式召回(Agent识别知识缺口,显式调用load_memory_tool搜索语料库),主动召回(系统使用预处理器基于最新用户输入运行相似性搜索,在模型调用前通过preload_memory_tool注入可能相关的片段)。这种方法用"基于记忆"的工作流替代了"上下文填充"反模式,Agent只召回当前步骤需要的片段,而非携带曾经拥有的每次对话的重量。
Artifacts处理大型二进制或文本数据:5MB的CSV、大量JSON API响应、完整PDF转录。早期Agent实现常陷入"上下文倾倒"陷阱,将大型负载直接放入聊天历史,对session造成永久税收,每个后续轮次都拖着那个负载,埋没关键指令并推高成本。ADK通过将大型数据作为Artifacts解决:由ArtifactService管理的命名、版本化的二进制或文本对象。大型数据存在artifact store,而非prompt中,默认情况下Agent只通过request processor看到轻量引用(名称和摘要),当且仅当Agent需要原始数据回答问题时,使用LoadArtifactsTool,这个动作临时将内容加载到Working Context。ADK支持短暂扩展,一旦模型调用或任务完成,artifact默认从working context卸载,将"每个prompt中5MB噪音"变成精确的按需资源,数据可以很大,但上下文窗口保持精简。
5 上下文优化:压缩、缓存与过滤 ▸▸
无限追加原始事件会导致延迟和token使用不可避免地螺旋失控。ADK的Context Compaction在Session层攻击这个问题,当达到可配置阈值(如调用次数)时,ADK触发异步过程,使用LLM在滑动窗口上总结旧事件——由压缩间隔和重叠大小定义,将生成的摘要作为带有"compaction"动作的新事件写回Session。关键是这允许系统修剪或降低被总结的原始事件优先级。因为压缩操作在Event流本身,好处向下级联:可扩展性(Session即使对极长对话也保持物理可管理),清晰视图(contentsprocessor自动工作在已压缩的历史上,查询时不需要复杂逻辑),解耦(可以调整压缩prompt和策略而不触及单行agent代码或模板逻辑)。
现代模型支持上下文缓存(prefix caching),允许推理引擎跨调用重用注意力计算。ADK的"Session"(存储)和"Working Context"(视图)分离为这种优化提供了自然基础,架构有效地将上下文窗口划分为两个区域:稳定前缀(系统指令、Agent身份、长期摘要)和可变后缀(最新用户轮次、新工具输出、小型增量更新)。因为ADK的Flow和Processor是显式的,可以将缓存友好性作为硬设计约束,可以排序管道以保持频繁重用的片段在上下文窗口前端稳定,同时将高度动态的内容推向末尾。为了强制这种严格,Google引入了static instruction原语,保证系统prompt的不可变性,确保缓存前缀在调用间保持有效。这是上下文工程作为跨全栈系统工作的典型例子:不仅决定模型看到什么,还优化硬件必须多频繁地重新计算底层张量操作。
对于严格的基于规则的减少,ADK提供姊妹操作——Filtering,预构建插件可以在到达模型前基于确定性规则全局丢弃或修剪上下文。
图3:多Agent系统中的上下文隔离与并行化
6 多Agent上下文:谁在何时看到什么 ▸▸
ADK将多Agent交互映射为两种架构模式。Agents as Tools模式中,根Agent将专业Agent严格当作函数:用聚焦的prompt调用它,获得结果,继续前进,被调用者只看到特定指令和必要artifacts——没有历史。Agent Transfer(层次)模式中,控制完全交给子Agent继续对话,子Agent继承Session视图,可以驱动工作流,调用自己的工具或进一步向链下转移控制。
交接行为由被调用者的include_contents之类的旋钮控制,决定从根Agent流向子Agent的上下文量。默认模式中,ADK传递调用者working context的完整contents——当子Agent真正受益于整个历史时有用。none模式中,子Agent看不到先前历史,只接收你为它构造的新prompt(例如最新用户轮次加几个工具调用和响应)。专业Agent获得需要的最小上下文,而非默认继承巨大转录。
基础模型操作固定角色schema:system、user、assistant,它们不原生理解"Assistant A" vs. “Assistant B”。当ADK转移控制时,常常必须重构现有对话,使新Agent看到连贯的working context。如果新Agent简单地看到来自前一个Agent的"Assistant"消息流,会产生幻觉认为是自己执行了那些动作。为防止这种情况,ADK在交接期间执行主动翻译:叙事重铸(先前的"Assistant"消息可能被重铸为叙事上下文,修改角色或注入标签如[For context]: Agent B said...,而非作为新Agent自己的输出出现),动作归因(来自其他Agent的工具调用被标记或总结,使新Agent基于结果行动而不混淆执行与自己的能力)。ADK从子Agent视角构建新的Working Context,同时在Session中保留事实历史,这确保了正确性,允许每个Agent承担"Assistant"角色而不将更广泛系统的历史错误归因于自己。
写在最后 ▸▸
当我们推动Agent处理更长时程任务时,“上下文管理"不能再意味着"字符串操作”,必须作为架构关切与存储和计算并列对待。ADK的上下文架构——分层存储、编译视图、管道处理、严格作用域——是Google对这一挑战的答案,封装了将Agent从有趣原型移向可扩展、可靠生产系统所需的严格系统工程。
Google、Facebook从100亿营收长到1000亿都用了8年,OpenAI给自己定的时间是3年。在Agent扩展竞赛中,上下文工程可能成为区分demo和生产级系统的关键。ADK将上下文视为"编译视图"的设计哲学,与LangChain、CrewAI等框架的字符串拼接模式形成鲜明对比,代表了Agent架构设计的新范式。
最后
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。
我整理出这套 AI 大模型突围资料包:
- ✅AI大模型学习路线图
- ✅Agent行业报告
- ✅100集大模型视频教程
- ✅大模型书籍PDF
- ✅DeepSeek教程
- ✅AI产品经理入门资料
完整的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
为什么说现在普通人就业/升职加薪的首选是AI大模型?
人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。
智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200%,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。
AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。
资料包有什么?
①从入门到精通的全套视频教程⑤⑥
包含提示词工程、RAG、Agent等技术点
② AI大模型学习路线图(还有视频解说)
全过程AI大模型学习路线
③学习电子书籍和技术文档
市面上的大模型书籍确实太多了,这些是我精选出来的
④各大厂大模型面试题目详解
⑤ 这些资料真的有用吗?
这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。
所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势,构建起"前沿课程+智能实训+精准就业"的高效培养体系。
课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能 突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓**