六盘水市网站建设_网站建设公司_产品经理_seo优化
2025/12/26 15:56:31 网站建设 项目流程

在当前LLM(大型语言模型)的应用浪潮中,检索增强生成(RAG)已成为相对成熟且应用最广的落地模式之一。但无论是从最初的Naive RAG演进到Advanced RAG,还是最新的Agentic RAG,其核心都离不开一个关键底座:知识库管理系统

对于面向落地应用RAG的产品经理和工程化技术人员而言,如果只是停留在对LLM能力或RAG流程的表面理解,很难在真实复杂的业务场景中建立起高效、稳定的智能咨询系统。

笔者结合项目落地经验,以及对RAGFlow、Dify、AnythingLLM等主流知识库产品的使用实践,从产品逻辑和技术架构层面,将RAG知识库产品抽象提炼为清晰的三层架构,进行一次系统性的解构分析。

理解这三层架构及其核心组件,是确保RAG系统在工程化实践中实现高精准度、高效率的技术基础,接下来本文自底向上逐层展开介绍。

注,本文播客内容如下:

知识存储层:RAG系统的地基存储结构

知识存储层是整个RAG知识库系统的地基,它必须能够应对RAG所需的三种核心数据类型和存储模式。

  1. 结构化存储 (Structured Storage)

结构化存储主要用来支撑文档和知识的列表管理,记录知识的基本信息和系统级元数据(如文档名、上传时间、所属业务等)以及文档和知识分块之间的映射关系等。

可选组件:关系型数据库如MySQL、MariaDB、PostgreSQL等是主流选择。

2. 向量库存储 (Vector Database Storage)

这是RAG进行“检索”的核心支撑。知识库中所有经过向量化处理的知识分块,都存储在这里,用于执行相似度搜索。

可选组件:工业级向量库如Milvus、ChromaDB、Weaviate,兼容倒排索引的ElasticSearch、以及轻量级的Faiss等。

3. 对象存储 (Object Storage)

对象存储用于安全、可靠地存储用户上传的原始文档(如PDF、PPT、DOC等),以便在检索后能够支撑用户查看原文,进行事实核验和信息溯源。

可选组件:MinIO、Ceph、OSS(阿里云)、S3(AWS)等。

工程洞察:RAG知识库的架构复杂性在于,它并非单一数据库系统,而是必须协同工作的三种存储模式的集合。确保这三种存储之间的数据一致性和高可用性,是工程团队的首要挑战。

知识处理层:从原始文档到向量分块的“炼丹炉”

知识处理层是RAG系统进行“知识提炼”的核心引擎。它决定了知识分块(Chunk)的质量,直接影响最终的检索召回率和精准度。

  1. 文件解析与OCR识别

RAG系统首先需要处理各种格式的文档(如PDF、PPT、DOC)。文件解析器负责将这些复杂格式转化为Markdown等易于处理的文本内容。如果文档中含有图片或扫描件,则需要调用OCR(光学字符识别)模型进行文字识别。

可选组件:文件解析器包括MinerU、DeepDoc、DifyExtractor等。OCR识别模型可选择PaddleOCR、RapidOCR等。

2. 分块切分(Chunking)策略的深度博弈

分块切分是RAG工程化中的核心难点,它决定了知识的粒度。如果分块太小,信息上下文丢失;分块太大,向量化精度下降。

当前业界的分块算法已从简单的固定长度切分,发展到更高级的策略:

结构化切分:按特殊字符、标题样式、章节目录、段落等进行切分,保留了文档的结构信息。

语义切分:基于语义关联度进行动态切分,确保每个分块内部语义的完整性。

**工程洞察:**优秀的知识库产品(如RAGFlow)都会允许用户对Chunking策略进行精细化调整,以适应不同业务文档(如代码、财报、法律文件)的特点,详见《[RAGFlow切片方法深度实测:Manual/Book/Laws等对比分析]》这篇文章。

3. 向量化处理

切分好的知识分块需要被转化为高维向量语义,才能被向量库存储和检索。向量模型(Embedding Model)的选择直接决定了语义理解的深度和检索的有效性。

可选模型:当前主流的高性能模型包括BGE-M3、Qwen3-Embedding等。

知识管理与检索层:从知识收录到输出的业务闭环

最上层的知识管理与检索层,是用户直接交互和工程运营的界面,它承担着从知识收录到知识输出的业务闭环。

  1. 知识管理:从上传到“打标”的知识收录过程

知识管理功能涵盖了文件上传、解析、分块等过程。但对于追求高精准度的工程项目而言,知识打标(Metadata Tagging)是PM和工程师必须深度关注的重点。

如我们在上篇文章《[知识打标和元数据维护]》中所述,纯粹依赖向量语义相似度的检索,容易在大型知识库中造成结果泛滥。通过在知识管理层引入元数据(Metadata),可以标记知识的“业务领域”“时间范围”“适用对象”等,可以实现对知识的结构化管理和定向检索。

另外在解析、分块、打标等技术措施之上,要保障知识的质量,还需要做好知识的运营管理,详见《[RAG准确率上不去?别只关注技术]》这篇文章内容。

2. 知识检索:混合检索的必然趋势

知识检索是RAG的最终输出环节。虽然语义检索是RAG的核心,但纯语义检索在面对术语、ID或新名词时往往表现不佳。因此,成熟的RAG知识库系统必须支持更多的检索模式:

全文检索(Full-text Retrieval): 依靠倒排索引,解决关键词的精确匹配问题。

混合检索(Hybrid Retrieval): 将语义检索与全文检索结合,平衡召回率和精准度。

工程洞察:在混合检索的基础上,通常要进一步通过“元数据筛选”的方式,大幅度减少了待检索的分块数量,在牺牲少量召回率的基础上,极大地提升了最终结果的精准率(Precision)。这在工程实践中是高价值的取舍。

总结:系统性认知是RAG落地的基石

RAG技术已经度过了“能用”阶段,正在迈向“用好”阶段。对于面向落地应用的PM和工程技术人员而言,必须跳出对LLM本身的迷恋,转向对知识库这一关键底座的系统性认知。

本文梳理三层架构图(知识存储、知识处理、知识管理与检索),绝不是简单地堆叠技术组件,而是帮助读者在这三层架构的每个环节都做出精细化的工程设计和产品选择,希望对您构建真正具备商业价值、能稳定运行的智能咨询和内容生成类AI系统有所帮助。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询