一、RAG是什么?
RAG(Retrieval-Augmented Generation,检索增强生成), 一种AI框架,将传统的信息检索系统(例如数据库)的优势与生成式大语言模型(LLM)的功能结合在一起。不再依赖LLM训练时的固有知识,而是在回答问题前,先从外部资料库中"翻书"找资料,基于这些资料生成更准确的答案。
RAG技术核心缓解大模型落地应用的几个关键问题:
▪知识新鲜度:大模型突破模型训练数据的时间限制
▪幻觉问题:降低生成答案的虚构概率,提供参照来源
▪信息安全:通过外挂知识库而不是内部训练数据,减少隐私泄露
▪垂直领域知识:无需训练直接整合垂直领域知识
二、RAG核心流程
2.1 知识准备阶段
1、数据预处理
1、文档解析
▪输入:原始文档(如Markdown/PDF/HTML)
▪操作:
▪提取纯文本(如解析Markdown标题、段落)
▪处理特殊格式(如代码块、表格、图片、视频等)
例如:
[标题] 什么是 ROMA? [段落] ROMA 是一个全自主研发的前端开发基于自定义DSL(Jue语言),一份代码,可在iOS、Android、Harmony、Web四端运行的跨平台解决方案。 [段落] ROMA 框架的中文名为罗码。 [标题] 今天天气 [列表项] 今天的室外温度为35°C,天气晴朗。文档的解析过程需要考虑不同文档内容例如文本、图片、表格等场景,以及文档的语言,布局情况,可以考虑使用一些优秀的三方工具或者一些视觉模型,布局分析模型,语义理解模型来辅助解析。
2、数据清洗与标准化处理
提升文本质量和一致性,使向量表示更准确,从而增强检索相关性和LLM回答质量;同时消除噪声和不规则格式,确保系统能正确理解和处理文档内容。
包括:
▪去除特殊字符、标签、乱码、重复内容。
▪文本标准化,例如 时间、单位标准化(如“今天” → “2025-07-17”)。
▪其他处理
数据的清洗和标准化过程可以使用一些工具或NLTK、spaCy等NLP工具进行处理。
例如:
<p>ROMA框架</p> 处理: "ROMA框架" 今天的室外温度为35°C,天气晴朗。 处理: "2025-07-17 的室外温度为35°C,天气晴朗"3、元数据提取
关于数据的数据,用于描述和提供有关数据的附加信息。
▪文档来源:文档的出处,例如URL、文件名、数据库记录等。
▪创建时间:文档的创建或更新时间。
▪作者信息:文档的作者或编辑者。
▪文档类型:文档的类型,如新闻文章、学术论文、博客等。
▪...
元数据在RAG中也非常重要,不仅提供了额外的上下文信息,还能提升检索质量:
1.检索增强
▪精准过滤:按时间、作者、主题等缩小搜索范围
▪相关性提升:结合向量相似度和元数据特征提高检索准确性
2.上下文丰富
▪来源标注:提供文档来源、作者、发布日期等信息
▪文档关系:展示文档间的层级或引用关系
常见的元数据提取方式:
▪正则/HTML/... 等解析工具,提取标题、作者、日期等
▪自然语言处理: 使用NLP技术(如命名实体识别、关键词提取)从文档内容中提取元数据,如人名、地名、组织名、关键词等
▪机器学习模型: 训练机器学习模型来自动提取元数据
▪通过调用外部API(如Google Scholar API、Wikipedia API)获取文档的元数据
▪...
例如:
complete_metadata_chunk1 = { 'file_path': '/mydocs/roma_intro.md', 'file_name': 'roma_intro.md', 'chunk_id': 0, 'section_title': '# 什么是 ROMA?', 'subsection_title': '', 'section_type': 'section', 'chunking_strategy': 3, 'content_type': 'product_description', 'main_entity': 'ROMA', 'language': 'zh-CN', 'creation_date': '2025-07-02', # 从文件系统获取 'word_count': 42 # 计算得出, 'topics': ['ROMA', '前端框架', '跨平台开发'], 'entities': { 'products': ['ROMA', 'Jue语言'], # 实体识别 'platforms': ['iOS', 'Android', 'Web'] }, }2、内容分块(Chunking)
在RAG架构中,分块既是核心,也是挑战,它直接影响检索精度、生成质量,需要在检索精度、语境完整性和计算性能之间取得平衡。
内容分块将长文档切分成小块,可以解决向量模型的token长度限制,使RAG更精确定位相关信息,提升检索精度和计算效率。
autobots 功能分块:
实际RAG框架中按照文档的特性选择合适的分块策略进行分块.
常见的分块策略
1. 按大小分块
按固定字符数进行分块,实现简单但可能切断语义单元。
优点:实现简单且计算开销小,块大小均匀便于管理。
缺点:可能切断语义单元,如句子或段落被分到不同块中。
例如:
第一段:# ROMA框架介绍ROMA是一个全自主研发的前端开发框架,基于自定义DSL(Jue语言)。 一份代码,可在iOS、Android、Harmony 第二段:、Web三端运行的跨平台解决方案。ROMA框架的中文名为罗码。句子被截断,"一份代码,可在iOS、Android、Harmony" 和 "、Web三端运行的跨平台解决方案" 被分到不同块,影响理解。
2. 按段落分块
以段落为基本单位进行分块,保持段落完整性,但段落长度可能差异很大。
优点:尊重文档自然结构,保留完整语义单元。
缺点:段落长度差异大,可能导致块大小不均衡。
例如:
第一段:# ROMA框架介绍ROMA是一个全自主研发的前端开发框架,基于自定义DSL(Jue语言)。 一份代码,可在iOS、Android、Harmony、Web三端运行的跨平台解决方案。ROMA框架的中文名为罗码。 第二段:# 核心特性1. 跨平台:一套代码运行于多端2. 高性能:接近原生的性能表现3. 可扩展:丰富的插件系统第一段包含标题和多行内容,而其他段落相对较短,可能导致检索不均衡。
3. 按语义分块
基于文本语义相似度进行动态分块,保持语义连贯性,但计算开销大。
说明:基于文本语义相似度动态调整分块边界。
优点:保持语义连贯性,能识别内容主题边界。
示例:
第一段:# ROMA框架介绍ROMA是一个全自主研发的前端开发框架,基于自定义DSL(Jue语言)。 一份代码,可在iOS、Android、Harmony、Web四端运行的跨平台解决方案。 第二段:ROMA框架的中文名为罗码。 ## 核心特性1. 跨平台:一套代码运行于多端使用依赖模型质量,相同文本在不同运行中可能产生不同分块结果。
分块策略总结:
优化方式
▪混合分块策略
结合多种分块方法的优点,如先按段落分块,再根据块大小调整,做到既保持语义完整性,又能控制块大小均匀
▪优化重叠区域
根据内容特性动态调整块之间的重叠区域大小,关键信息出现在多个块中,提高检索召回率
常用的分块工具
▪LangChain框架:提供多种分块策略,包括RecursiveCharacterTextSplitter、MarkdownTextSplitter等
▪NLTK:用于基于自然语言句子的分块
▪spaCy:提供语言学感知的文本分割
3、向量化(Embedding)
将高维文本数据压缩到低维空间,便于处理和存储。将文本转换为计算机可以理解的数值,使得计算机能够理解和处理语义信息,从而在海量数据文本中实现快速、高效的相似度计算和检索。
简单理解:通过一组数字来代表文本内容的“本质”。
例如,"ROMA是一个跨平台解决方案..."这句话可能被转换为一个384维的向量:
[块1] 什么是ROMA? ROMA是一个全自主研发的前端开发框架,基于自定义DSL(Jue语言)... [ { "chunk_id": "doc1_chunk1", "text": "# 什么是 ROMA?\nROMA 是一个全自主研发的前端开发基于自定义DSL(Jue语言),一份代码,可在iOS、Android、Harmony、Web端运行的跨平台解决方案。", "vector": [0.041, -0.018, 0.063, ..., 0.027], "metadata": { "source": "roma_introduction.md", "position": 0, "title": "ROMA框架介绍" } }, // 更多文档块... ]常用的Embedding模型
| 模型名称 | 开发者 | 维度 | 特点 |
| all-minilm-l6-v2 | Hugging Face | 384 | 高效推理,多任务支持,易于部署,适合资源受限环境 |
| Text-embedding-ada-002 | OpenAI | 1536 | 性能优秀,但可能在国内使用不太方便。 |
| BERT embedding | 768 (base) 1024 (large) | 广泛用于各种自然语言处理任务。 | |
| BGE (Baidu’s General Embedding) | 百度 | 768 | 在HuggingFace的MTEB上排名前2,表现非常出色。 |
4、向量数据库入库
将生成的向量数据和元数据进行存储,同时创建索引结构来支持快速相似性搜索。
常用的向量数据库包括:
| 数据库 | 复杂度 | 核心优势 | 主要局限 | 适用场景 |
| ChromaDB | 低 | 轻量易用, Python集成 | 仅支持小规模数据 | 原型开发、小型项目 |
| FAISS | 中 | 十亿级向量检索, 高性能 | 需自行实现特殊化 | 学术研究、大规模检索 |
| Milvus | 高 | 分布式扩展, 多数据类型支持 | 部署复杂, 资源消耗大 | 企业级生产环境 |
| Pinecone | 低 | 全托管, 自动扩缩容 | 成本高, 数据在第三方云 | 无运维团队/SaaS应用 |
| Elasticsearch | 高 | 全文搜索强大,生态系统丰富 | 向量搜索为后加功能,性能较专用解决方案差 | 日志分析、全文搜索、通用数据存储 |
2.2 问答阶段
1、查询预处理
`意图识别:使用分类模型区分问题类型(事实查询、建议、闲聊等)。
问题预处理:问题内容清洗和标准化,过程与前面数据预处理类似。
查询增强:使用知识库或LLM生成同义词(如“动态化” → “Roma”),上下文补全可以结合历史会话总结(例如用户之前问过“Roma是什么”)。
2、数据检索(召回)
1、向量化
使用与入库前数据向量化相同的模型,将处理后的问题内容向量化。
例子:
问题: "ROMA是什么?" 处理后 { "vector": [0.052, -0.021, 0.075, ..., 0.033], "top_k": 3, "score_threshold": 0.8, "filter": {"doc_type": "技术文档"} }2、检索
相似度检索:查询向量与所存储的向量最相似(通过余弦相似度匹配)的前 top_k 个文档块。
关键词检索:倒排索引的传统方法,检索包含"Roma"、"优势"等精确关键词的文档。
混合检索: 合并上面多种检索结果,效果最优。
例如:检索"ROMA是什么?"
3、重排序(Reranking)
初步检索在精度和语义理解上的不足,通过更精细的上下文分析提升结果相关性。它能更好处理同义词替换、一词多义等语义细微差异,使最终结果准确。
原理:使用模型对每个检索结果计算相关性分数。
归一化:重排序模型原始输出分数没有固定的范围,它可能是任意实数,将结果归一化处理,将分数映射到 [0, 1] 范围内,使其更容易与向量相似度分数进行比较。
例如:
常用的重排序模型:
3、信息整合
格式化检索的结果,构建提示词模板,同时将搜索的内容截断或摘要长文本以适应LLM上下文窗口token。
提示词优化:
1. 限定回答范围
2. 要求标注来源
3. 设置拒绝回答规则
4. ...
例如:
prompt 模板: 你是一名ROMA框架专家,请基于以下上下文回答: 参考信息: [文档1] 什么是 ROMA? ROMA 是一个全自主研发的前端开发基于自定义DSL(Jue语言),一份代码,可在iOS、Android、Harmony、Web四端运行的跨平台解决方案。 ROMA 框架的中文名为罗码。 [文档2] Roma介绍? [Roma介绍](docs/guide/guide/introduction.md) 文档地址: https://roma-design.jd.com/docs/guide/guide/introduction.html 要求: 1. 分步骤说明,含代码示例 2. 标注来源文档版本 3. 如果参考信息中没有相关内容,请直接说明无法回答,不要编造信息 请基于以下参考信息回答用户的问题。如果参考信息中没有相关内容,请直接说明无法回答,不要编造信息。 用户问题: ROMA是什么? 回答: {answer}4、LLM生成
向LLM(如GPT-4、Claude)发送提示,获取生成结果。
autobots示例:
以上,实现了最简单的RAG流程。实际的RAG过程会比上述麻烦更多,包括图片、表格等多模态内容的处理,更复杂的文本解析和预处理过程,文档格式的兼容,结构化与非结构化数据的兼容等等。
最后RAG各阶段优化方式:
想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?
别再浪费时间啦!2025 年AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享!
👇👇扫码免费领取全部内容👇👇
一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势
想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI:
1. 100+本大模型方向电子书
2. 26 份行业研究报告:覆盖多领域实践与趋势
报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:
- 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
- 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
- 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
- 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。
3. 600+套技术大会 PPT:听行业大咖讲实战
PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:
- 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
- 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
- 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
- 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。
二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走
想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!
1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位
面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析:
2. 102 道 AI 大模型真题:直击大模型核心考点
针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:
3. 97 道 LLMs 真题:聚焦大型语言模型高频问题
专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:
![]()
三、路线必明:AI 大模型学习路线图,1 张图理清核心内容
刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!
路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。
L1阶段:启航篇丨极速破界AI新时代
L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。
L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。
L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。
L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。
L5阶段:专题集丨特训篇 【录播课】
![]()
四、资料领取:全套内容免费抱走,学 AI 不用再找第二份
不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:
👇👇扫码免费领取全部内容👇👇
2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!