一、RAGFlow介绍
RAGFlow 是一款基于深度文档理解构建的开源 RAG(Retrieval-Augmented Generation)引擎。RAGFlow 可以为各种规模的企业及个人提供一套精简的 RAG 工作流程,结合大语言模型(LLM)针对用户各类不同的复杂格式数据提供可靠的问答以及有理有据的引用。
官网:https://ragflow.io/
github地址:
https://github.com/infiniflow/ragflow
官方文档:
https://ragflow.io/docs/
二、主要功能
🍭 “Quality in, quality out”
- 基于深度文档理解,能够从各类复杂格式的非结构化数据中提取真知灼见。
- 真正在无限上下文(token)的场景下快速完成大海捞针测试。
🍱 基于模板的文本切片
- 不仅仅是智能,更重要的是可控可解释。
- 多种文本模板可供选择
🌱 有理有据、最大程度降低幻觉(hallucination)
- 文本切片过程可视化,支持手动调整。
- 有理有据:答案提供关键引用的快照并支持追根溯源。
🍔 兼容各类异构数据源
- 支持丰富的文件类型,包括 Word 文档、PPT、excel 表格、txt 文件、图片、PDF、影印件、复印件、结构化数据、网页等。
🛀 全程无忧、自动化的 RAG 工作流
- 全面优化的 RAG 工作流可以支持从个人应用乃至超大型企业的各类生态系统。
- 大语言模型 LLM 以及向量模型均支持配置。
- 基于多路召回、融合重排序。
- 提供易用的 API,可以轻松集成到各类企业系统。
三、 系统架构
四、安装RAGFlow
1、服务器环境要求
- CPU >= 4 核
- RAM >= 16 GB
- Disk >= 50 GB
- Docker >= 24.0.0 & Docker Compose >= v2.26.1
2、Ubuntu服务器配置
确保 vm.max_map_count 不小于 262144:
如需确认 vm.max_map_count 的大小:
sysctl vm.max_map_count如果 vm.max_map_count 的值小于 262144,可以进行重置:
# 这里我们设为 262144: sudo sysctl -w vm.max_map_count=262144你的改动会在下次系统重启时被重置。如果希望做永久改动,还需要在 /etc/sysctl.conf 文件里把 vm.max_map_count 的值再相应更新一遍:
vm.max_map_count=2621443、下载源码
git clone https://github.com/infiniflow/ragflow.git4、启动docker镜像
进入 docker 文件夹,利用提前编译好的 Docker 镜像启动服务器:
cd ragflow/docker # Use CPU for embedding and DeepDoc tasks: docker compose -f docker-compose.yml up -d # To use GPU to accelerate embedding and DeepDoc tasks: # docker compose -f docker-compose-gpu.yml up -d各个版本的镜像情况:
| RAGFlow image tag | Image size (GB) | Has embedding models? | Stable? |
|---|---|---|---|
| v0.18.0 | ≈9 | ✔️ | Stable release |
| v0.18.0-slim | ≈2 | ❌ | Stable release |
| nightly | ≈9 | ✔️ | Unstablenightly build |
| nightly-slim | ≈2 | ❌ | Unstablenightly build |
如果你遇到 Docker 镜像拉不下来的问题,可以在 docker/.env 文件内根据变量 RAGFLOW_IMAGE 的注释提示选择华为云或者阿里云的相应镜像。
- 华为云镜像名:swr.cn-north-4.myhuaweicloud.com/infiniflow/ragflow
- 阿里云镜像名:registry.cn-hangzhou.aliyuncs.com/infiniflow/ragflow
5、 服务器启动成功后再次确认服务器状态
docker logs -f ragflow-server出现以下界面提示说明服务器启动成功:
____ ___ ______ ______ __ / __ \ / | / ____// ____// /____ _ __ / /_/ // /| | / / __ / /_ / // __ \| | /| / / / _, _// ___ |/ /_/ // __/ / // /_/ /| |/ |/ / /_/ |_|/_/ |_|\____//_/ /_/ \____/ |__/|__/ * Running on all addresses (0.0.0.0)如果您在没有看到上面的提示信息出来之前,就尝试登录 RAGFlow,你的浏览器有可能会提示 network anormal 或 网络异常。
6、访问RAGFlow
在你的浏览器中输入你的服务器对应的 IP 地址并登录 RAGFlow。上面这个例子中,您只需输入 http://IP_OF_YOUR_MACHINE 即可:未改动过配置则无需输入端口(默认的 HTTP 服务端口 80)。
第一次打开是界面如上,需要点击“注册”,创建个管理员账号。然后使用邮箱+密码登录。
右上角 切换语言。RAGFlow的安装成功了。接下来我们将创建一个RAG应用。
五、设置模型提供商
1、添加对话模型
路径:右上角头像–>模型提供商。
(1)添加第3方在线API
只要添加相关API-Key信息即可,比如**SILICONFLOW,填写key就可以了,SILICONFLOW内置了大量各种大模型,包括chat,embedding,rerank等,非常方便。**
(2)或添加本地推理模型
比如Ollama,vLLM,Xinference等。我们就拿Ollama演示(本地服务器无显卡,只能使用Ollama,不推荐生产环境使用)。
上图所示,模型类型有4种,说明RAG流程种的4种场景。
- chat :LLM自然语言大模型;
- embedding:嵌入模型;
- rerank:重排序;
- image2text:图片转文本;
我们创建一个chat类型的大模型,记住Ollama一定要是启动状态,且能够正常对话,否则添加失败。安装Ollama详情看文章《 速看!最新版 Dify 连接 Ollama 与 vLLM 全攻略》
添加LLM成功后,可以在页面上部看到。
我们还要再添加嵌入模型Embedding,否则无法创建知识库。继续以Ollama为例,点击“添加模型”,模型类型 选择embedding。
2、设置默认模型
路径:点击头像–》模型提供商–》设置默认模型。
聊天模型、嵌入模型等选择刚刚设置的对应的模型。
六、聊天助理
1、新建聊天助理
路径:菜单 聊天–》新建聊天助理 。
(1)助理设置:
- 助理姓名:填写姓名;
- 设置开场白:用户每次打开聊天对话框,提示的文本;
- 显示引文:显示引用哪个知识库;
- 关键词分析:通过关键词检索获取答案;
- 文本转语音:语音播报,需要配置TTS大模型;
- Tavily API Key:网络搜索;
- 知识库:选择创建好的知识库,默认可不选择;
(2)提示引擎:
- 系统提示词:可看到大模型的回答,若问题未能在知识库中找到,则直接答复"知识库中未找到您要的答案!"这样就杜绝了幻觉。
- 相似度:使用混合相似度得分来评估两行文本之间的距离。 它是加权关键词相似度和向量余弦相似度。 如果查询和块之间的相似度小于此阈值,则该块将被过滤掉。默认设置为 0.2,也就是说文本块的混合相似度得分至少 20 才会被召回。该值越大,模型在检索问题的时候精度越高,越易出现答复”知识库中未找到您要的答案!“ ,对使用者要求较高,需要问的问题较专业;该值越小,越容易出现幻觉。
- 关键字相似度权重:需要开启”助理设置“中的关键词分析。
- Top N:并非所有相似度得分高于“相似度阈值”的块都会被提供给大语言模型。 LLM 只能看到这些“Top N”块。
- 多轮对话优化:在多轮对话的中,对去知识库查询的问题进行优化。会调用大模型额外消耗token。
- 知识图谱:为了处理多个不同的知识库。
- 推理:主要是针对思维链,比如 deepseek-r1,chatgpt-o1 ,做RAG场景,一般不打开,若打开则大模型会倾向于大模型自身的答复,而不是知识库里的回答。
- Rerank:重排序,需要设置重排序大模型;
- 变量:主要用于API的设置;
(3)模型设置:
主要是大模型的设置。
- 模型:选择我们设置的LLM大模型;
- 自由度:RAG场景一般选择“精确”,这样就倾向于知识库里的内容;“即兴创作”则是倾向于大模型本身的内容;
- 温度:RAG场景更多是使用知识库,所以温度要往低调整;
- TOP P:该参数也称为“核心采样”,它设置一个阈值来选择较小的单词集进行采样。 它专注于最可能的单词,剔除不太可能的单词。
- 存在处罚:这会通过惩罚对话中已经出现的单词来阻止模型重复相同的信息。
- 频率惩罚:与存在惩罚类似,这减少了模型频繁重复相同单词的倾向。
2、聊天对话
上一步创建了一个聊天助理,我们来进行对话。“你好,你叫什么名字”
回复的内容是“知识库中没有明确提到与“名字”相关的具体信息。如果您能提供更多背景或上下文内容,我将尽力为您找到相关答案。”
因为我们没有设置知识库,而上一步骤配置助理的时候,在系统提示词里限制了只能从知识库里检索。所以,需要修改下助理,设置知识库。
关于知识库与RAG的相关教程,我们放下一篇讲解!
想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享!
👇👇扫码免费领取全部内容👇👇
一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势
想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI:
1. 100+本大模型方向电子书
2. 26 份行业研究报告:覆盖多领域实践与趋势
报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:
- 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
- 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
- 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
- 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。
3. 600+套技术大会 PPT:听行业大咖讲实战
PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:
- 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
- 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
- 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
- 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。
二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走
想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!
1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位
面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析:
2. 102 道 AI 大模型真题:直击大模型核心考点
针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:
3. 97 道 LLMs 真题:聚焦大型语言模型高频问题
专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:
![]()
三、路线必明: AI 大模型学习路线图,1 张图理清核心内容
刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!
路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。
L1阶段:启航篇丨极速破界AI新时代
L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。
L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。
L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。
L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。
L5阶段:专题集丨特训篇 【录播课】
![]()
四、资料领取:全套内容免费抱走,学 AI 不用再找第二份
不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:
👇👇扫码免费领取全部内容👇👇
2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!