本文介绍了AI智能体的架构核心在于记忆系统,详细解析了Lilian Weng的智能体架构模型,并推荐了MemMachine开源记忆库。MemMachine支持工作、持久和个性化内存类型,通过关系型数据库和图数据库构建记忆层,使AI能够学习、记忆并延续上下文,实现跨会话的用户档案构建。文章提供了API和MCP两种接入方式的详细指南,帮助开发者轻松集成记忆系统,将普通聊天机器人升级为能理解用户、共同成长的个性化AI助手。
如何让你开发的AI智能体越用越聪明?需要解答这个问题,就需要先来了解Agent的架构。Lilian Weng的智能体架构以大语言模型(LLM)为核心作为智能体的“大脑”。
智能体**(AI Agent)=大模型(LLM)+记忆(Memory)+规划(Planning)+工具使用(Tool Use)**
- 规划(Planning)包括子目标分解(将大任务分解为小任务)和自我反思与完善(从错误中学习并改进)。
- 记忆(Memory)包含短期记忆(上下文学习)和长期记忆(通过外部向量存储进行信息检索)。
- 工具使用(Tool Use)赋予智能体调用外部API的能力,以获取额外信息或执行模型本身不具备的功能。
以上的三大模块组成了Agent,其中记忆就是让Agent越用越聪明的关键点,在这里我给大家推荐一个AI Memory 开源库:MemMachine。
链接:https://github.com/memmachine
官网:https://memmachine.ai/
项目介绍
MemMachine 是为AI智能体打造的通用记忆层。它让AI应用能够学习、记忆并在不同会话间延续上下文,从而构建持续进化的用户档案。简单来说,它将普通的聊天机器人,升级为能真正理解你、与你共同成长的个性化助手。
它有什么特性?
- 多种内存类型:MemMachine 支持工作(短期)、持久(长期)和个性化(档案)内存类型。
- 开发者友好型 API:Python SDK、RESTful 和 MCP 接口及端点,集成起来非常简单。
技术架构如下:
MemMachine 就像是给 AI 装了一个内存条,让它能像人一样记住过去、理解现在、预测未来。
- 记忆层:情景记忆(短期 + 长期)、个性化记忆(记住你的喜好习惯)
- 存储层:数据安全存放在两种数据库里,长期记忆使用的图数据库+个人信息记忆使用的关系型数据库
数据存储设计:
关系型数据库像一个电子档案柜,把数据存在一个个整齐的表格里。它擅长存储简单明了的信息,比如你的姓名、年龄、地址这些基本资料。就像你不会把所有东西都堆在桌子上一样,关系型数据库把不同类型的信息分类放在不同的表格里,查找起来既快又准,而且能保证信息不会出错。
图数据库像一张社交网络图,用 “节点” 代表人和事物,用 “边” 代表它们之间的关系。它特别擅长处理复杂的关系网络,比如谁是你的朋友、朋友的朋友喜欢什么、谁和谁有共同兴趣。就像你在社交软件上看到的好友关系图一样,图数据库能轻松发现隐藏的联系,帮你找到 “你可能认识的人” 或者 “你可能喜欢的东西”。
一起用的效果:
这两种数据库就像你的左脑和右脑,关系型数据库负责精确的事实记忆,图数据库负责智能的关系理解,在一起使用时能提供既准确又智能的服务。
使用指南
接下来介绍两种最通用接入方式:API接入、MCP接入。
API接入
前提条件:确保你的 FastAPI 应用程序正在运行。打开终端,导航到包含您的app.py文件的目录,并运行以下命令。输出应确认服务器正在监听请求。
uvicorn app:app --reload- 获取所有会话
最简单的方式是检查现有会话。这个GET请求不需要任何数据。由于还没有创建任何会话,你可能会看到一个空列表。
curl http://127.0.0.1:8080/v1/sessions- 创建记忆片段
POST /v1/memories:需要一个包含会话详情、生产者、接收者和记忆内容的 JSON 主体。
curl -X POST "http://127.0.0.1:8080/v1/memories" \ -H "Content-Type: application/json" \ -d '{ "session": { "group_id": "test_group", "agent_id": ["test_agent"], "user_id": ["test_user"], "session_id": "session_123" }, "producer": "test_user", "produced_for": "test_agent", "episode_content": "This is a simple test memory.", "episode_type": "message", "metadata": {} }'正确输出:收到一个空的200 OK响应,确认已成功添加。
- 搜索内存
POST /v1/memories/search:需要一个 JSON 正文来指定搜索查询和会话。
curl -X POST "http://127.0.0.1:8080/v1/memories/search" \ -H "Content-Type: application/json" \ -d '{ "session": { "group_id": "test_group", "agent_id": ["test_agent"], "user_id": ["test_user"], "session_id": "session_123" }, "query": "simple test memory", "filter": {}, "limit": 5 }'正确输出:看到一个200 OK响应,其中包含搜索结果,包括你刚刚添加的记忆片段。输出将以 JSON 对象的格式显示,确认你的记忆已被成功找到。
- 删除会话数据
DELETE /v1/memories:需要 JSON 主体来指定要删除哪个会话的数据。
curl -X DELETE "http://127.0.0.1:8080/v1/memories" \ -H "Content-Type: application/json" \ -d '{ "session": { "group_id": "test_group", "agent_id": ["test_agent"], "user_id": ["test_user"], "session_id": "session_123" } }'MCP接入
前提条件:确保你的独立 MCP 服务器已启动并运行,可以使用以下示例命令来启动它:
MEMORY_CONFIG=config.yml uv run memmachine-mcp-http --host localhost --port 8080其中config.yml是你的 MemMachine 配置文件。localhost和8080是 MCP 服务器将监听请求的主机名和端口。
如果您想检查服务器是否运行正常,您可以使用curl命令,按照以下步骤查询服务器上可用的工具。
- 建立 SSE 连接并获取会话 ID
我们需要会话 ID 来与 MCP 服务器进行交互。可以通过建立 Server-Sent Events (SSE)连接来获取会话 ID。
curl -v -N http://localhost:8080/mcp/ -H "Accept: text/event-stream"示例响应:
* Host localhost:8080 was resolved. * IPv6: ::1 * IPv4: 127.0.0.1 * Trying [::1]:8080... * connect to ::1 port 8080 from ::1 port 62212 failed: Connection refused * Trying 127.0.0.1:8080... * Connected to localhost (127.0.0.1) port 8080 > GET /mcp/ HTTP/1.1 > Host: localhost:8080 > User-Agent: curl/8.7.1 > Accept: text/event-stream > * Request completely sent off < HTTP/1.1 400 Bad Request < date: Fri, 31 Oct 2025 21:58:56 GMT < server: uvicorn < content-type: application/json < mcp-session-id: 8f82399b29ba42d495ff44d5a9cf7862 < content-length: 105 < {"jsonrpc":"2.0","id":"server-error","error":{"code":-32600,"message":"Bad Request: Missing session ID"}}在这个输出中查找mcp-session-id头部,可以看到会话 ID 是8f82399b29ba42d495ff44d5a9cf7862。
- 初始化会话
现在我们已经有了会话 ID,可以通过向 MCP 服务器发送initialize请求来初始化会话。
curl http://localhost:8080/mcp/ \ -H "Content-Type: application/json" \ -H "Accept: application/json, text/event-stream" \ -H "mcp-session-id: 8f82399b29ba42d495ff44d5a9cf7862" \ -d '{ "jsonrpc": "2.0", "id": 1, "method": "initialize", "params": { "protocolVersion": "2024-11-05", "capabilities": {}, "clientInfo": { "name": "curl-client", "version": "1.0.0" } } }'示例响应:
event: message data: { "jsonrpc": "2.0", "id": 1, "result": { "protocolVersion": "2024-11-05", "capabilities": { "experimental": {}, "prompts": { "listChanged": true }, "resources": { "subscribe": false, "listChanged": true }, "tools": { "listChanged": true } }, "serverInfo": { "name": "MemMachine", "version": "1.16.0" } } }- 发送初始化通知
初始化会话后,我们需要向 MCP 服务器发送initialized通知。
curl http://localhost:8080/mcp/ \ -H "Content-Type: application/json" \ -H "Accept: application/json, text/event-stream" \ -H "mcp-session-id: 8f82399b29ba42d495ff44d5a9cf7862" \ -d '{ "jsonrpc": "2.0", "method": "notifications/initialized" }'请求应成功且无任何错误。
- 列出可用工具
现在我们可以通过向 MCP 服务器发送tools/list请求来列出可用工具。
curl http://localhost:8080/mcp/ \ -H "Content-Type: application/json" \ -H "Accept: application/json, text/event-stream" \ -H "mcp-session-id: 8f82399b29ba42d495ff44d5a9cf7862" -d '{ "jsonrpc": "2.0", "id": 2, "method": "tools/list", "params": {} }'示例响应:
event: message data: { "jsonrpc": "2.0", "id": 2, "result": { "tools": [ { "name": "add_memory", "description": "Store important new information about the user or conversation into memory. Use this automatically whenever the user shares new facts, preferences, plans, emotions, or other details that could be useful for future context. Include the **full conversation context** in the `content` field — not just a snippet. This tool writes to both short-term (episodic) and long-term (profile) memory, so that future interactions can recall relevant background knowledge even across different sessions.", "inputSchema": { "$defs": { "AddMemoryParam": { "description": "Parameters for adding memory.\n\nThis model is used by chatbots or agents to store important information\ninto memory for a specific user. The content should contain the **full\nconversational or contextual summary**, not just a short fragment.\n\nChatbots should call this when they learn new facts about the user,\nobserve recurring behaviors, or summarize recent discussions.", ... }总结
让AI智能体越用越聪明就是为它安装一个强大的记忆系统。通过集成 MemMachine 专业记忆层,Anget就能瞬间赋予长期记忆和个性化学习能力,将普通 Agent 升级为能真正理解用户并与之共同成长的AI智能体伙伴。
如何系统的学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
01.大模型风口已至:月薪30K+的AI岗正在批量诞生
2025年大模型应用呈现爆发式增长,根据工信部最新数据:
国内大模型相关岗位缺口达47万
初级工程师平均薪资28K(数据来源:BOSS直聘报告)
70%企业存在"能用模型不会调优"的痛点
真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!
02.大模型 AI 学习和面试资料
1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工
📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。