泸州市网站建设_网站建设公司_外包开发_seo优化
2026/1/10 17:50:35 网站建设 项目流程

RAG 从来都不是终点。

AI 智能体的核心终局,在于 “记忆能力”。

下面用最通俗的方式,拆解这场技术进化:

一、三代技术演进:从 “只会检索” 到 “能学能记”

1. RAG(2020-2023 年):一次性检索,用完即弃

  • 核心逻辑:检索一次信息,直接生成回答
  • 特点:没有决策能力,只做 “查找 + 回复” 的机械动作
  • 问题:经常检索到无关信息,比如你问 “北京周末小众景点”,它却返回一堆热门景区攻略

2. 智能体行动型 RAG(Agentic RAG):会判断的检索

  • 核心逻辑:智能体先做 3 个关键决策,是否需要检索、该查哪个数据源、结果有没有用
  • 特点:比传统 RAG 更 “聪明”,能过滤无效信息,但本质还是 “只读” 模式
  • 问题:只能从外部拿信息,没法从和用户的互动中学习,比如记不住你上次说过 “不喜欢爬山”

3. AI 记忆(AI Memory):能读能写,会积累经验

  • 核心逻辑:既能读取外部知识,也能把互动中的信息 “写” 进自己的知识库
  • 特点:记住用户偏好、过往对话、重要细节,实现真正的个性化
  • 关键突破:不用重新训练模型,就能通过每次互动积累知识,越用越懂你

一句话总结三代差异:

  • RAG:只读,一次性使用
  • 智能体驱动型 RAG:通过工具实现 “有判断的只读”
  • AI 记忆:通过工具实现 “能读能写”

二、AI 记忆的核心威力:让 AI 从 “静态工具” 变 “自适应伙伴”

AI 记忆最厉害的地方,在于让智能体拥有了 “长期记忆”,例如:记住你的饮食禁忌、工作习惯、重要日期,这些信息会存起来,下次互动直接调用。这还解锁了一个关键能力:持续学习。以前的模型,训练完就 “定型” 了;现在的智能体,能从每一次对话、每一次任务中积累经验,不用重训就能持续进步。可以说,记忆是连接 “死板模型” 和 “灵活 AI 系统” 的桥梁。

但这也不是没挑战:比如记忆会 “出错污染”(记混信息)、不知道该 “忘记” 没用的内容、还要区分不同类型的记忆(比如做事步骤、过往经历、专业知识)。如果想快速给智能体加 “类人记忆”,可以试试开源框架 Graphiti(实时知识图谱工具),GitHub 地址在这→ https://github.com/getzep/graphiti

三、AI 工程师必备的 8 项核心技能:不止会写提示词

玩转 LLM(大语言模型),绝不是 “写好提示词” 就行。生产级别的 LLM 系统,需要掌握以下 8 大核心技能(通俗拆解 + 关键要点):

1. 提示词工程(Prompt Engineering)

  • 通俗理解:给 AI 写 “清晰说明书”,减少歧义,让输出更稳定
  • 关键动作:快速迭代提示词版本、用 “思维链”(一步步推理)、加 “少样本示例”(给几个正确案例),把提示词设计当成 “可重复的工程活”,而不是瞎试

2. 上下文工程(Context Engineering)

  • 通俗理解:给 AI “精准喂料”—— 动态注入数据库、记忆、工具结果等外部信息
  • 关键动作:平衡 “信息完整” 和 “不浪费令牌”、处理检索到的噪音、避免长文本导致的 “上下文失效”

3. 模型微调(Fine-tuning)

  • 通俗理解:给基础模型 “做专项培训”,让它适配特定场景(比如医疗、法律)
  • 关键动作:用 LoRA/QLoRA 等轻量方法(省钱省算力)、整理高质量数据(去重、格式统一)、防止 “学太死”(过拟合)或 “学不会”(泛化差)

4. RAG 系统搭建(RAG Systems)

  • 通俗理解:给 AI “装外置大脑”,通过向量数据库 + 嵌入技术,减少胡说八道(幻觉)
  • 关键动作:优化检索流程(索引、文本拆分、改写查询)、把检索到的信息和用户问题结构化融合

5. 智能体开发(Agents)

  • 通俗理解:让 AI “自己做事”,规划多步骤任务、调用工具、处理突发情况
  • 关键动作:管理任务状态、处理工具调用失败、设计 “fallback 方案”(例如:API 报错了该怎么办)

6. LLM 部署(LLM Deployment)

  • 通俗理解:把做好的 LLM 应用 “上线能用”,打包成稳定的 API
  • 关键动作:控制延迟和并发(多人同时用不卡)、自动扩缩容、加安全防护(防止滥用)、监控每一次请求的成本

7. LLM 优化(LLM Optimization)

  • 通俗理解:给 AI “瘦身提速”,降低成本
  • 关键动作:用量化、剪枝、蒸馏等技术(减少内存占用)、平衡速度、准确率和硬件成本(例如:用 CPU 还是 GPU)

8. LLM 可观测性(LLM Observability)

  • 通俗理解:给 AI “装监控”,知道它在干嘛、哪里出错了
  • 关键动作:跟踪令牌使用量、延迟高峰、提示词漂移(慢慢偏离原本目标),把监控数据用来持续优化

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询