一、你能获得什么
用8周,打造从原型到生产的完整工程能力
✅8周系统课程:从 LangChain 基础到生产级 Agent 系统架构
✅每周代码实战:手撕 RAG、Agent、多智能体,将想法变为高可用服务
✅2个工业级项目:完成从需求分析、技术选型、开发部署到监控优化的全流程
✅生产级技术栈:掌握 FastAPI, Docker, Redis, Prometheus 等后端必备技能
✅顶级面试能力:搞定系统设计、性能优化、故障排查等高频面试题
二、开发岗核心要求
你需要具备的能力
| 系统设计* 高可用、高并发架构 * 性能与成本优化 * 监控、告警与日志 * 故障排查与容错 | 工程实现* 熟练使用 Agent 框架 * 高质量、可维护的代码 * 快速开发与迭代能力 * 强大的调试与问题定位 | 业务理解* 用户需求转化为技术方案 * 场景适配与方案选型 * 数据驱动的系统优化 * 评估技术方案的 ROI |
开发岗简历必备
✅至少2个完整系统项目:端到端可运行,有线上部署经验
✅量化的业务指标提升:如 QPS+100%、P99延迟-80%、成本-50% 等数据
✅丰富的生产级技术栈:LangChain + FastAPI + Milvus + Redis + Docker + Prometheus
✅生产化经验:有部署、监控、性能优化、异常处理的实战经历
三、推荐学习资源与工具
📚 核心课程与书籍
- 课程: 吴恩达: Generative AI for Everyone
- 课程: 微软: Generative AI for Beginners
- 课程: HuggingFace NLP Course
- 教程: 《动手学大模型应用开发》 - Datawhale开源教程
- 教程: 《面向开发者的 LLM 入门教程》 - 吴恩达课程中文版
- 教程: 《开源大模型食用指南》 - 快速微调与部署教程
- 教程: 《AI-Guide-and-Demos》 - API到本地部署微调指南
- 书籍: 《Build a Large Language Model (From Scratch)》
🛠️ 开发框架与工具
- LLM框架: LangChain, LlamaIndex, Dify
- Agent框架: AutoGen, CrewAI, AgentScope
- 向量数据库: Milvus, Qdrant, Chroma
- 推理引擎: vLLM, SGLang, Ollama
- 评估工具: RAGAs, DeepEval, LangSmith
🌐 学习社区与资源
- 社区: HuggingFace, ModelScope, 魔乐社区
- 博客: Lil’Log (OpenAI), 科学空间(苏剑林), Chip Huyen
- 资源库: Awesome LLM Resources
- 可视化: 100+ LLM/RL 算法原理图 - 通过图解理解算法原理
- 可视化: Interactive Transformer Explainer - 交互式理解Transformer
四、8周详细学习计划
第 1 周:大模型应用开发基础 + 手撕 Naive RAG
学习内容:
- 后端基础: FastAPI 路由、异步 I/O、Pydantic 数据校验
- LangChain 核心: LLM, Prompt Templates, Output Parsers, LCEL
- Naive RAG 流程: Document Loaders, Text Splitters, Embeddings, Vector Stores
- 向量数据库: FAISS/ChromaDB 本地化使用
手撕系列:
- FastAPI 搭建 “Hello, World” API 服务
- LangChain LCEL 编写第一个 LLM Chain
- 30分钟手撕一个完整的 Naive RAG 应用
解锁技能:
- 熟练使用 FastAPI 搭建 API
- 掌握 LangChain 核心组件与 LCEL 表达式语言
- 能够从零开始,快速构建一个基于文档问答的 RAG Demo
🌟 每日学习计划
| 天数 | 学习主题 | 资源链接 | 目标 |
|---|---|---|---|
| 1 | FastAPI 快速入门 | 教程: FastAPI Official Tutorial | 掌握 FastAPI 基础,能够创建路由、处理请求 |
| 2 | LangChain 核心概念 | 文档: LangChain Quickstart 课程: 吴恩达: LangChain for LLM Application Development 课程: Building Systems with the ChatGPT API | 理解 LangChain 六大核心模块,熟练使用 LCEL |
| 3 | RAG Part 1: 加载与分割 | 文档: LlamaIndex Loaders 工具: Unstructured.io, MinerU, Docling | 掌握不同格式文档 (PDF, MD) 的加载和文本分块策略 |
| 4 | RAG Part 2: 向量化与存储 | 教程: FAISS Intro 教程: Sentence Transformers | 理解 Embedding 原理,使用 FAISS/Chroma 构建本地向量索引 |
| 5-6 | 手撕 Naive RAG 系统 | 教程: RAG from Scratch 概念: LLM Powered Autonomous Agents 教程: 动手学大模型应用开发 参考: 面向开发者的LLM入门教程 | 整合 FastAPI + LangChain,完成一个端到端的文档问答 API |
| 7 | 周度总结与项目部署 | 将本周的 RAG 项目用 Docker 打包,并成功运行 |
第 2 周:Advanced RAG 与生产级向量数据库
学习内容:
- Advanced RAG 技术: Query Transformation, Re-ranking, Hybrid Search
- RAG 评估: 使用 RAGAs, TruLens 进行自动化评估
- 生产级向量数据库: Milvus/Zilliz Cloud 部署与使用
- 数据处理: Unstructured.io 解析复杂文档
手撕系列:
- 实现 BM25 + 向量的混合检索
- 引入 Cohere Rerank 模型提升检索精度
- 使用 RAGAs 评估 RAG 系统的 Faithfulness 和 Answer Relevancy
- Docker 部署 Milvus 并进行增删改查操作
解锁技能:
- 掌握 10+ 种 RAG 优化策略
- 能够建立 RAG 系统的自动化评估流水线
- 熟练使用生产级的分布式向量数据库 Milvus
- 具备处理复杂、非结构化文档的能力
🌟 每日学习计划
| 天数 | 学习主题 | 资源链接 | 目标 |
|---|---|---|---|
| 8 | Query Transformation | 教程: LlamaIndex Query Transforms | 实现 HyDE, Multi-Query 等查询改写策略 |
| 9 | 混合检索与重排 (Rerank) | 教程: LlamaIndex Reranking 论文: Modular RAG | 实现 BM25 + Embedding 混合检索,并集成 Reranker |
| 10-11 | RAG 评估体系 | 文档: RAGAs 评估框架 工具: FlashRAG, DeepEval, Lighteval | 学习 RAG 核心评估指标,并用 RAGAs 评估优化前后的系统性能 |
| 12 | 生产级向量数据库 (Milvus) | 文档: Milvus Quick Start 替代: Infinity, Qdrant | 使用 Docker 部署 Milvus,并掌握其 Python SDK |
| 13 | 高级数据处理 | 文档: Unstructured.io 工具: MinerU, PDF-Extract-Kit, Docling, GOT-OCR2.0 | 使用 Unstructured/MinerU 解析包含表格、图片的复杂 PDF |
| 14 | 周度总结与系统升级 | 将第一周的 RAG 系统升级,集成混合检索、Reranker 和 Milvus |
第 3 周:Agent 开发与 Tool Calling
学习内容:
- Agent 核心: ReAct 框架, Planning, Tool Use, Memory
- Tool Calling: OpenAI Function Calling, Tool Schema 定义
- 工具开发: 如何将 API, 数据库查询等封装为 Agent 可用的工具
- 错误处理: 工具调用失败的重试、降级策略
手撕系列:
- 实现 3个 自定义工具 (天气查询, SQL数据库查询, API调用)
- 基于 LangChain 构建一个可以链式调用工具的 Agent
- 使用 OpenAI Function Calling 实现结构化数据提取
解锁技能:
- 深刻理解 Agent 的"思考-行动"工作流
- 能够开发、测试、维护自定义工具集
- 掌握 Function Calling 的原理与应用
- 具备构建能处理真实世界任务的 Agent 的能力
🌟 每日学习计划
| 天数 | 学习主题 | 资源链接 | 目标 |
|---|---|---|---|
| 15 | Agent 核心概念 | 博客: LLM Powered Autonomous Agents 文档: LangChain Agents 论文: ReAct | 理解 ReAct 框架,并运行一个 LangChain 官方的 Agent 示例 |
| 16 | 自定义工具开发 | 教程: LangChain Custom Tools 参考: MCP协议, MCP教程 | 编写一个查询天气的自定义工具,并集成到 Agent 中 |
| 17 | SQL & 数据库工具 | 教程: LangChain SQL Agent | 构建一个能根据自然语言查询数据库的 SQL Agent |
| 18 | Function Calling 实战 | 文档: OpenAI Function Calling 指南: GPT Best Practices | 使用 OpenAI API 实现一个能根据用户问题调用函数的 Agent |
| 19 | Agent Memory | 文档: LangChain Memory 工具: Mem0, MemoryScope | 为 Agent 添加对话历史记忆 (ConversationBufferMemory) |
| 20 | Agent 错误处理 | 教程: Error Handling in Agents | 为工具调用添加重试机制 (tenacity库) 和降级策略 |
| 21 | 周度总结与项目构建 | 构建一个集成 RAG 和 Web 搜索工具的 “研究助手” Agent |
第 4 周:系统性能优化
学习内容:
- 缓存策略: Redis 缓存 LLM 响应和 Embedding 结果
- 异步处理:
asyncio,aiohttp实现高并发- 批处理优化: Embedding 和 LLM 调用的批处理
- 推理加速: vLLM, TensorRT-LLM 部署与使用
手撕系列:
- 为 RAG 系统引入 Redis 缓存,对比优化前后性能
- 将 FastAPI 的同步接口改造为异步接口
- 部署 vLLM 并通过 API 进行推理
解锁技能:
- 掌握 LLM 应用的核心性能优化手段
- 能够将系统的 QPS 提升 10 倍以上
- 熟练使用 Redis 进行缓存设计
- 具备部署和使用高性能推理引擎的能力
🌟 每日学习计划
| 天数 | 学习主题 | 资源链接 | 目标 |
|---|---|---|---|
| 22 | 性能瓶颈分析 | 工具: py-spy, Scalene | 学习使用cProfile,py-spy等工具分析现有 Agent 系统的性能瓶颈 |
| 23 | 缓存优化 (Redis) | 教程: FastAPI with Redis 工具: LiteLLM Caching | 为 Agent 系统添加 Redis 缓存,缓存 LLM 响应 |
| 24-25 | 异步处理 (Async) | 教程: FastAPI Async 示例: LangChain Async | 将系统中 I/O 密集型操作 (如 API 调用) 改造为异步 |
| 26 | 批处理优化 (Batching) | 教程: Batch Processing | 实现 Embedding 和 Reranker 的批处理,提升吞吐量 |
| 27 | 高性能推理 (vLLM) | 文档: vLLM Quickstart 替代: SGLang, TensorRT-LLM, LMDeploy 概览: Awesome Inference | 使用 vLLM 部署一个开源模型 (如 Llama 3),并测试其吞吐量 |
| 28 | 周度总结与性能压测 | 使用locust或jmeter对优化前后的系统进行压测,并记录 QPS, P99 等指标 |
第 5 周:监控、可观测性与部署
学习内容:
- Agent 链路追踪: LangSmith, OpenTelemetry
- 指标监控: Prometheus 监控业务和系统指标
- 可视化: Grafana 创建监控大盘
- 日志系统: ELK Stack (Elasticsearch, Logstash, Kibana)
- 容器化部署: Docker, Docker Compose
手撕系列:
- 为 Agent 应用集成 LangSmith,追踪每一步的调用和延迟
- 使用 Prometheus 暴露自定义指标 (如 Token 消耗, 缓存命中率)
- 使用 Docker Compose 将 FastAPI + Milvus + Redis 整套系统一键部署
解锁技能:
- 具备构建完整 LLM 应用可观测性体系的能力
- 能够快速定位和诊断线上问题
- 掌握基于 Docker 的容器化部署和编排
- 拥有完整的 DevOps for LLM Apps 经验
🌟 每日学习计划
| 天数 | 学习主题 | 资源链接 | 目标 |
|---|---|---|---|
| 29 | 链路追踪 (LangSmith) | 文档: LangSmith 替代: OpenTelemetry, LangFuse | 将 LangSmith 集成到现有 Agent 应用中,分析调用链路 |
| 30 | 指标监控 (Prometheus) | 教程: Prometheus Python Client 集成: FastAPI Instrumentator | 暴露 API 的 QPS, 延迟, 错误率等核心指标 |
| 31 | 可视化 (Grafana) | 教程: Grafana Dashboard | 安装 Grafana,并创建一个简单的监控大盘来展示 Prometheus 指标 |
| 32 | 容器化 (Docker) | 教程: Docker for FastAPI 最佳实践: Docker Best Practices | 为 FastAPI 应用编写 Dockerfile 并成功构建镜像 |
| 33 | 服务编排 (Docker Compose) | 教程: Docker Compose 示例: Full Stack FastAPI | 编写docker-compose.yml文件,一键启动整个应用栈 |
| 34 | 日志系统 | 教程: Python Logging 工具: Loguru, structlog | 配置应用将日志输出为 JSON 格式,为接入 ELK 做准备 |
| 35 | 周度总结与生产环境模拟 | 模拟一次线上故障,并使用本周学习的工具链进行问题定位 |
那么,如何系统的去学习大模型LLM?
作为一名深耕行业的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。
所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。
由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
👉大模型学习指南+路线汇总👈
我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
👉①.基础篇👈
基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
👉②.进阶篇👈
接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
👉③.实战篇👈
实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
👉④.福利篇👈
最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!