大理白族自治州网站建设_网站建设公司_Linux_seo优化
2026/1/8 21:49:58 网站建设 项目流程

本文详解AI Agent的记忆系统,分短期记忆与长期记忆两部分。短期记忆介绍3种优化策略(缩减法、卸载法、隔离法)及框架代码实现;长期记忆解析信息提取、向量存储、关系推理等技术,并提供Mem0/ReMe集成代码。展望记忆即服务、精细化管理、多模态三大未来趋势,帮助开发者解决AI"失忆"问题,构建更智能的Agent记忆系统。


你有没有遇到过这种情况?

早上跟智能助手说“帮我订明天去上海的机票”,下午再问“刚才选的航班时间能改吗”,它却一脸茫然:“您之前说过这句话吗?”

这不是AI故意“装傻”——LLM的上下文窗口限制、不断增长的对话成本、跨会话记忆缺失,才是背后的“罪魁祸首”。而解决这些问题的关键,就在于AI Agent的“记忆系统”。

今天我们就来拆解:AI的“记忆”是怎么工作的?短期记忆如何“省空间”?长期记忆如何“越用越聪明”?未来它还能怎么进化?文末附实战代码,手把手教你集成记忆系统!

一、AI的“记忆”和人类一样吗?分两种!

对人类来说,“记忆”是本能——前一秒说的话,后一秒可能就忘(短期记忆);但小时候学的骑车、爱吃的菜,却能记一辈子(长期记忆)。AI的“记忆”也类似,但划分更明确:

  1. 短期记忆:聊天的“草稿纸”

定义:单次对话中,你和AI一来一回的所有交互(比如你问“今天天气如何”,AI答“晴,25℃”)。

特点:直接参与当前对话,像写在草稿纸上的临时笔记,但受限于LLM的“上下文窗口”(比如GPT-4的8k/32k token限制),聊多了就会“写不下”。

  1. 长期记忆:专属你的“记忆库”

定义:跨多次对话积累的“有用信息”(比如你常订早班机、爱吃辣、上周刚问过法律条款)。

特点:像你的私人笔记本,能从短期记忆里“提炼”关键信息存起来,下次对话时“翻出来”用,让AI越来越懂你。

举个例子:

你第一次说“帮我找上海的法餐,要安静的”,AI记下了“偏好法餐+安静”;第二次说“上次那家法餐太贵了”,AI会从长期记忆里调出“法餐”相关信息,结合新问题推荐性价比更高的——这就是长期记忆的作用。

二、AI的“记忆系统”如何工作?记住这4步!

不管是短期还是长期记忆,AI的“记忆系统”都有一套通用逻辑,就像你整理房间:先翻旧物(加载记忆),挑有用的摆桌上(注入上下文),用完再收进柜子(更新记忆),脏东西及时扔(清理冗余)。具体来说:

  1. 推理前加载:先“翻旧账”

用户提问时,先从长期记忆里“搜刮”相关信息(比如用户的偏好、历史问题),准备“辅助材料”。

  1. 上下文注入:把“旧账”摆上台面

把长期记忆里找到的信息,和当前问题一起“喂”给LLM,让它结合新旧信息生成回答。

  1. 记忆更新:用完的“草稿”收进柜子

对话结束后,把这次的短期记忆(比如用户的新需求、AI的回复)“提炼”出有用信息(比如“用户最近常出差”),存进长期记忆。

  1. 信息处理:给记忆“分类归档”

长期记忆不是乱存的——它会用向量化模型(把文字转成数字向量)、图数据库(存实体关系)等技术,给信息打标签、建索引,方便下次快速查找。

三、短期记忆不够用?3招“省空间”+ 代码实战!

短期记忆最大的痛点是“容量有限”——聊10轮可能就超token限制了,怎么办?工程师们想出了3个“偷空间”的妙招,附框架代码实现:

  1. 缩减法:挑重点,删废话

比如你说“帮我写一篇关于AI的文章,要包括技术原理、应用场景、未来趋势”,AI可能只保留“主题:AI文章;要求:技术原理、应用场景、未来趋势”,去掉重复的描述。

  1. 卸载法:把“大文件”存外置硬盘

如果对话里有大段内容(比如一篇5000字的报告),AI会把完整内容存到外部数据库,只在对话里留个“文件链接”(比如“[报告链接]”)。需要时用链接调取,既省空间又不丢信息。

  1. 隔离法:拆分成“小任务”

把复杂任务拆成多个小任务,每个子任务单独对话。比如你要策划一场活动,主AI负责分配任务(“子AI1查场地,子AI2定嘉宾”),子AI完成任务后只返回结果,主AI不用管中间过程——相当于每个子任务只用“一张小草稿纸”。

不同框架的“省空间”代码实现:

▶ Google ADK:每3轮自动压缩

from google.adk.apps.app import App, EventsCompactionConfig app = App( name='my-agent', root_agent=root_agent, events_compaction_config=EventsCompactionConfig( compaction_interval=3, 每3次新调用触发压缩 overlap_size=1 # 包含前一个窗口的最后1条消息(防断档) ),)

▶ LangChain:超4000token自动摘要

from langchain.agents import create_agent from langchain.agents.middleware import SummarizationMiddleware agent = create_agent( model="gpt-4o", tools=[...], middleware=[ SummarizationMiddleware( model="gpt-4o-mini", 用轻量模型做摘要 max_tokens_before_summary=4000, # 4000token触发摘要 messages_to_keep=20, # 摘要后保留最后20条消息 ), ],)

▶ AgentScope:6种渐进式压缩策略(更智能!)

// 初始化智能上下文记忆(支持6种压缩策略) AutoContextMemory memory = new AutoContextMemory( AutoContextConfig.builder() .msgThreshold(100) // 消息数超100触发压缩 .maxToken(128 * 1024) // 最大token限制(128k) .tokenRatio(0.75) // 保留75%核心信息 .build(), model // 传入LLM模型 ); // 集成到Agent ReActAgent agent = ReActAgent.builder() .name("Assistant") .model(model) .memory(memory) // 短期记忆用AutoContextMemory .build();

优势:能追溯所有压缩记录,按消息类型(用户输入/工具结果)自动选策略,比ADK/LangChain更精细。

四、长期记忆如何“越用越聪明”?关键技术+代码集成!

长期记忆的核心是“记对人、记对事”,背后靠信息提取→向量存储→关系推理→重排序四步,附Mem0/ReMe集成代码:

  1. 核心技术栈

LLM:从短期记忆提取“用户偏好”“历史问题”等有效信息(如“用户下周某天去北京出差”);

Embedder:把信息转成向量(如“北京+出差”对应一组数字),存进VectorStore(向量数据库);

GraphStore:存实体关系(如“用户-喜欢-猫-名字-小白”);

Reranker:对检索结果重排序,只留最相关的3条。

  1. 框架集成:2行代码接入长期记忆

▶ 集成Mem0(开源记忆框架,社区最火)

// 1. 初始化Mem0长期记忆 Mem0LongTermMemory mem0Memory = new Mem0LongTermMemory( Mem0Config.builder() .apiKey("your-mem0-api-key") // 从Mem0官网申请 .build() ); // 2. 绑定到Agent(短期记忆+长期记忆双开) ReActAgent agent = ReActAgent.builder() .name("Assistant") .model(model) .memory(memory) // 短期记忆(如AutoContextMemory) .longTermMemory(mem0Memory) // 长期记忆(Mem0) .build();

▶ 集成ReMe(AgentScope官方长期记忆,深度适配)

// 1. 初始化ReMe(需先启动ReMe服务:http://localhost:8002) ReMeLongTermMemory remeMemory = ReMeLongTermMemory.builder() .userId("user123") // 用户ID(隔离不同用户记忆) .apiBaseUrl("http://localhost:8002") .build(); // 2. 绑定到Agent(支持“只记/只读/读写”模式) ReActAgent agent = ReActAgent.builder() .name("Assistant") .model(model) .memory(memory) .longTermMemory(remeMemory) .longTermMemoryMode(LongTermMemoryMode.BOTH) // 读写模式 .build();

五、未来AI的“记忆”会更像人吗?3个趋势!

现在的AI记忆系统还在“小学生”阶段,但未来的进化方向已经很清晰:

  1. 记忆即服务(MaaS):像用水用电一样用记忆

以后可能不需要自己搭记忆系统,直接用云服务商提供的“记忆API”——就像现在用阿里云存数据一样,开发者调用接口就能让AI记住用户信息。

  1. 精细化记忆管理:像大脑一样“取舍”

借鉴人脑的“记忆巩固”机制:重要的信息(比如用户的核心偏好)反复强化,不重要的(比如某次闲聊的细节)慢慢遗忘;还能通过强化学习,让AI自己“判断”哪些信息值得记。

  1. 多模态记忆:能“看”能“听”的全能记忆

现在的记忆主要是文本,但未来AI可能记住你的语音(比如你说“这个声音很好听”)、图片(比如你分享的风景照),甚至视频——比如你教AI做菜的视频,它能记住步骤,下次直接指导你。

结语:记忆系统,AI的“成长必修课”

从“记不住话”到“越用越懂你”,AI的记忆系统正在从“能用”走向“好用”。它不仅解决了token成本和上下文限制的痛点,更重要的是让AI有了“个性”——就像你的朋友,记得你的喜好,懂你的潜台词。

未来,随着记忆技术的进化,AI可能会成为真正的“数字伙伴”:它能记住你从小到大的故事,帮你规划人生目标,甚至在你需要时,递上一杯温度刚好的茶(如果你告诉过它你喜欢的温度)。

如何系统的学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K(数据来源:BOSS直聘报告)

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

02.大模型 AI 学习和面试资料

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)





第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询