Google ADK通过"上下文即汇编视图"设计理念,将上下文组织为分层模型(工作上下文、会话、记忆和工件),采用流与处理器管道进行结构化转换。该架构通过存储与呈现分离、显式转换和默认范围限定三大原则,解决了多智能体系统的上下文爆炸问题。ADK提供上下文压缩、过滤、缓存等功能,并结合工件管理和记忆检索机制,实现了智能体间的高效交接和精准信息传递,为构建生产级多智能体系统提供了可靠的技术方案。
0 引言
我们上文聊的双代理架构,是一种通过外挂文档+提前构建传递的上下文,来进行工作交接的方案。
我们今天解读一篇来自Google Developers Blog的技术文章,详细介绍了Google Agent Development Kit (ADK)中用于构建高效、可靠的生产级多智能体系统的上下文架构。
通过工程化管理上下文的方式,而不是各种技巧性操作,不论对于Agent开发还是vibe coding都有很好的参考意义。
1 TL;DR
原文:https://developers.googleblog.com/en/architecting-efficient-context-aware-multi-agent-framework-for-production/
翻译和总结信息有压缩(上下文管理压缩的通病),建议查看原文。
上下文管理本质就是ETL,数据源->转换->加载。通过结构化数据源管理,信息加工处理,精确加载数据来交付完成Agent的数据传递。
2 规模化瓶颈
现代AI智能体的目标是处理长时程任务,这导致其需要追踪的信息量(聊天记录、工具输出、中间推理等)呈爆炸式增长。单纯依赖更大的模型上下文窗口作为扩展策略,在实践中会因三大压力而失效:
•成本与延迟螺旋上升:模型成本和首个令牌生成时间会随上下文规模迅速增加。“铲入”原始历史和冗长的工具负载会使智能体变得极其缓慢和昂贵。
•信号降级(“迷失在中间”):当上下文窗口被不相关的日志、过时的工具输出或已弃用的状态淹没时,会分散模型的注意力,导致其固守旧有模式而非关注当前指令。为了保证决策的稳健性,必须最大化相关信息的密度。
•物理限制:现实世界的工作负载,如完整的RAG结果、中间工件和长对话记录,最终会超出即使是最大的固定窗口的容量。
因此,为了实现真正的扩展,必须改变上下文的表示和管理方式,而不仅仅是增加其容量。
3 设计理念:上下文即汇编视图
与将上下文视为可变字符串缓冲区的传统框架不同,ADK建立在一个截然不同的论点之上:上下文是一个基于更丰富的状态系统的编译视图。在这个模型中:
•源 (Sources):会话 (Sessions)、记忆 (Memory) 和工件 (Artifacts) 构成了交互及其数据的完整、结构化状态。
•编译管道 (Compiler Pipeline):流 (Flows) 和处理器 (Processors) 是转换该状态的一系列有序步骤。
•编译视图 (Compiled View):工作上下文 (Working Context) 是为单次LLM调用而生成的最终产物。
这种思维模式将情境工程从“提示词技巧”转变为系统工程。ADK的架构通过以下三大设计原则来实践这一论点:
存储与呈现分离:区分持久状态(会话)和每次调用的视图(工作上下文)。
显式转换:通过命名且有序的处理器来构建上下文,而非临时的字符串拼接,使“编译”步骤可观察和可测试。
默认范围限定:默认情况下,每个模型调用和子智能体只看到所需的最小上下文。
4 ADK 设计原则
4.1 结构:分层上下文模型
ADK将上下文组织成具有特定职责的独立层级,彻底分离了存储与呈现。
| 层级 | 描述 |
|---|---|
| 工作上下文 (Working Context) | 为单次模型调用生成的即时提示。它包含系统指令、智能体身份、选定的历史记录、工具输出以及对记忆和工件的引用。它是临时的、可配置的且模型无关的。 |
| 会话 (Session) | 交互的持久日志。它以结构化的Event对象形式,按时间顺序捕获每一个用户消息、智能体回复、工具调用/结果、控制信号和错误。会话是系统的事实基础。 |
| 记忆 (Memory) | 超越单次会话的、可搜索的长时知识,如用户偏好和过往对话。 |
| 工件 (Artifacts) | 与会话或用户关联的大型二进制或文本数据(文件、日志)。它们通过名称和版本进行寻址,而非直接粘贴到提示中。 |
4.1.1. 流与处理器:作为管道的上下文处理
ADK中使用LLM流 (LLM Flow)来维护有序的处理器列表,这些处理器负责将持久状态(如会话)“编译”成工作上下文。这个管道化的处理流程为自定义过滤、压缩策略、缓存和多智能体路由提供了自然的插入点。开发者不再是重写巨大的“提示模板”,而只是添加或重排处理器。
4.1.2. 会话与事件:结构化、语言无关的历史
ADK将会话中的每一次交互都记录为强类型的Event记录,而非原始字符串。这种结构化方法带来了三大优势:
•模型无关性:由于存储格式与提示格式解耦,可以更换底层模型而无需重写历史记录。
•丰富的操作:压缩、时间旅行调试等下游组件可以操作丰富的事件流,而不是解析不透明的文本。
•可观察性:为分析提供了天然的接口,允许精确检查状态转换和行为。
contents处理器是连接会话和工作情境的桥梁,它通过选择、转换和注入三个步骤,将事件流格式化为模型所需的干净、连贯的对话历史。
4.1.3. 上下文压缩与过滤
为防止上下文无限增长,ADK在会话层提供了上下文压缩 (Context Compaction)功能。当达到可配置的阈值时,一个异步进程会启动,使用LLM来总结滑动窗口内的旧事件,并将摘要作为新的“压缩”事件写回会话中。这使得系统可以裁剪或降低原始事件的优先级,从而在源头上保持会话的可管理性。
此外,ADK还提供过滤 (Filtering)功能,允许预构建的插件根据确定性规则全局丢弃或修剪情境。
4.1.4. 上下文缓存
ADK的架构天然支持模型的上下文缓存 (Prefix Caching)。它将工作上下文划分为两个区域:
•稳定前缀:系统指令、智能体身份和长时摘要。
•可变后缀:最新的用户轮次、新的工具输出等。
通过有序的处理器管道,ADK可以将频繁重用的内容稳定地放在上下文窗口的前部,从而最大化缓存命中率。static instruction原语可以保证系统提示的不可变性,进一步增强了缓存的有效性。
4.2 相关性:智能体对上下文的管理
结构化之后的核心挑战是相关性:当前哪些特定信息应该被放入模型的工作窗口中?ADK的答案是人类领域知识与智能体决策的结合。
4.1. 工件:外部化大型状态
为避免“上下文倾倒”(将大型文件直接放入聊天历史),ADK将大型数据视为工件 (Artifacts),并采用句柄模式 (handle pattern)进行管理。
• 大型数据存储在ArtifactService中,而非提示中。
• 默认情况下,智能体只看到一个轻量级引用(名称和摘要)。
• 当且仅当需要原始数据时,智能体使用LoadArtifactsTool工具将其临时加载到工作上下文中。
• 任务完成后,该工件会默认从工作上下文中卸载(临时性扩展),从而保持上下文窗口的精简。
4.2. 记忆:按需检索的长期知识
ADK的记忆 (Memory)层管理着跨会话的、可搜索的语义知识。记忆的检索是由智能体主导的,遵循两种模式:
•反应式回忆 (Reactive Recall):智能体识别到知识缺口,并显式调用load_memory_tool来搜索知识库。
•主动式回忆 (Proactive Recall):系统在调用模型前,使用预处理器根据最新用户输入运行相似性搜索,并将可能相关的片段注入工作上下文。
4.3 多智能体上下文:范围界定
在多智能体系统中,如果不加控制地传递历史记录,会导致上下文爆炸。ADK通过在智能体调用另一个智能体时,显式地限定被调用者所能看到的上下文来解决这个问题。
4.3.1. 两种多智能体交互模式
ADK将多智能体交互映射为两种架构模式:
- 智能体即工具 (Agents as Tools):根智能体将专业智能体视为一个函数,用一个专注的提示调用它,获取结果。被调用者只看到特定指令和必要的工件,没有历史记录。
- 智能体交接(层级式)(Agent Transfer - Hierarchy):控制权完全移交给子智能体。子智能体继承一个对会话的视图,并可以继续驱动工作流。
4.3.2. 范围界定的交接
通过include_contents等参数,可以精确控制从调用者向被调用者传递的上下文量。在none模式下,子智能体看不到任何先前的历史记录,只接收为其构建的新提示。
4.3.3. 为智能体交接翻译对话
基础模型不原生理解“智能体A”与“智能体B”的区别。当控制权交接时,如果新的智能体看到一连串来自前一个智能体的“助手”消息,它会误认为这些行动是自己完成的。
为防止这种情况,ADK在交接期间会进行主动翻译:
•叙事角色转换 (Narrative Casting):将先前的“助手”消息重新塑造为叙事性上下文(例如,注入[供参考]: 智能体B说...这样的标签),而不是作为新智能体自己的输出。
•行为归属 (Action Attribution):标记或总结来自其他智能体的工具调用,使新智能体能够基于结果行动,而不会将执行过程与自身能力混淆。
通过这种方式,ADK为子智能体构建了一个全新的、以其自身视角为准的工作情境,同时在会话中保留了事实历史的完整性。
AI时代,未来的就业机会在哪里?
答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具,到自然语言处理、计算机视觉、多模态等核心领域,技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。
掌握大模型技能,就是把握高薪未来。
那么,普通人如何抓住大模型风口?
AI技术的普及对个人能力提出了新的要求,在AI时代,持续学习和适应新技术变得尤为重要。无论是企业还是个人,都需要不断更新知识体系,提升与AI协作的能力,以适应不断变化的工作环境。
因此,这里给大家整理了一份《2026最新大模型全套学习资源》,包括2026最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题等,带你从零基础入门到精通,快速掌握大模型技术!
由于篇幅有限,有需要的小伙伴可以扫码获取!
1. 成长路线图&学习规划
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。
2. 大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)
3. 大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。
4. 大模型项目实战
学以致用,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。
5. 大模型行业报告
行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
6. 大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
为什么大家都在学AI大模型?
随着AI技术的发展,企业对人才的需求从“单一技术”转向 “AI+行业”双背景。企业对人才的需求从“单一技术”转向 “AI+行业”双背景。金融+AI、制造+AI、医疗+AI等跨界岗位薪资涨幅达30%-50%。
同时很多人面临优化裁员,近期科技巨头英特尔裁员2万人,传统岗位不断缩减,因此转行AI势在必行!
这些资料有用吗?
这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
大模型全套学习资料已整理打包,有需要的小伙伴可以
微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费】