本篇就来讲RAG(增强检索生成),实操阶段基于网易开源的本地知识库的问答系统QAnything。
今天带大家一起搭建一个本地知识库的问答系统QAnything,QAnything特点的是界面友好,简单易用,知识库管理和问答之外,也提供了 Agent、速读、AI写手等能力。文章主要内容:
一、什么是QAnything
QAnything (Question and Answer based on Anything) 是一款由网易开源的本地知识库问答系统,致力于支持任意格式文件或数据库的本地知识库问答系统,可断网安装使用,非常适合对数据安全有高要求的场景。
您的任何格式的本地文件都可以往里扔,即可获得准确、快速、靠谱的问答体验。
目前已支持格式:
- PDF(pdf)
- Word(docx)
- PPT(pptx)
- XLS(xlsx)
- Markdown(md)
- 电子邮件(eml)
- TXT(txt)
- 图片(jpg,jpeg,png)
- CSV(csv)
二、QAnything的特点
● 数据安全,支持全程拔网线安装使用。
● 支持文件类型多,解析成功率高,支持跨语种问答,中英文问答随意切换,无所谓文件是什么语种。
● 支持海量数据问答,两阶段向量排序,解决了大规模数据检索退化的问题,数据越多,效果越好,不限制上传文件数量,检索速度快。
● 硬件友好,默认在纯CPU环境下运行,且win,mac,linux多端支持,除docker外无依赖项。
● 易用性,无需繁琐的配置,一键安装部署,开箱即用,各依赖组件(pdf解析,ocr,embed,rerank等)完全独立,支持自由替换。
● 支持类似Kimi的快速开始模式,无文件聊天模式,仅检索模式,自定义Bot模式。
三、QAnything的架构
四、特性介绍
4.1 最新特性表
| 特性 | python(v1.4.2) | docker(v1.1.2) | 全部QAanything(v2.0.8) | 说明 |
|---|---|---|---|---|
| 详细安装文档 | ☐ | ☐ | ☐ | |
| API支持 | ☐ | ☐ | ☐ | |
| 生产环境(小型生产环境) | ☐ | ☐ | ✅ | |
| 离线使用 | ☐ | ☐ | ✅ | |
| 支持多并发 | ☐ | ☐ | ✅ | |
| 支持多卡推理 | ✅ | v2.0.8版本不再提供默认版本LLM,需用户自行通过ollama等工具部署本地LLM | ||
| 支持Mac(M系列芯片) | ✅ | ✅ | ||
| 支持Linux | ✅ | ✅ | ✅ | python旧版本Linux默认安装tensorflow-cpu,如需使用cudn2-gitb=2.0时自动切换为nonatickm |
| 支持windows(无需WSL) | ✅ | ✅ | python旧版本均可以通过安装支持cudn2直接在非WSL环境下启动 | |
| 支持CPU环境 | ✅ | ✅ | ✅ | |
| 支持bertembedding(BM2相似度排序) | ✅ | ✅ | ✅ | |
| 支持联网检索(需外网VPN) | ✅ | |||
| 支持FAQ问答 | ☐ | ☐ | ✅ | |
| 支持自定认机器人(可绑定知识库,可分享) | ☐ | ☐ | ✅ | |
| 支持文件溯源(数据来源可直接点击打开) | ☐ | ☐ | ✅ | |
| 支持问答日志检索 | ☐ | ☐ | ✅ | |
| 支持解析语音文件(依赖ffmpeg,解析速度慢) | ✅ | ✅ | ||
| 支持OpenClossOS | ☐ | ✅ | ||
| 支持与OpenAI接口兼容(直接开搞大模型免费的钱钱) | ☐ | ✅ | ||
| rdf(包含表格解析效率++) | ✅ | v1.4.2版本手动设置,v0.0.0无手动设置,qdf解析效果和性能均有提升 | ||
| 用户自定义embed、trank接口(实验性,提升速度) | ✅ | v1.4.2需手动设置,v2.0.0默认使用最佳配置 | ||
| 其他文件类型解析效果++ | ✅ | |||
| 支持独立服务调用 | ☐ | ☐ | ✅ | v2.0.9版本独立服务器,包括chat服务,可独立调用(http) |
| 支持快速开始模式 | ☐ | ☐ | ✅ | 快速开始,无需创建知识库,支持无文件问答 |
| 支持仅检索模式 | ☐ | ☐ | ✅ | 仅返回检索结果,不调用大模型进行问答 |
| 支持解析结果chunk内容可编辑,手动编辑 | ☐ | ☐ | ✅ | v2.0.0版本支持手动编辑chunk内容,实时生效 |
| 支持解析图片文档,支持回 | ✅ | |||
4.2 V2.0.0版本新增细节优化:
● 支持前端配置API_BASE,API_KEY,文本分片大小,输出token数量,上下文消息数量等参数
● 优化Bot角色设定的指令遵循效果,每个Bot可单独配置模型参数
● 支持创建多个对话窗口,同时保存多份历史问答记录
● 支持问答记录保存成图片
● 优化上传文件逻辑,解析文件与问答请求独立,上传文件不再影响问答
● 优化镜像大小,旧版本镜像压缩后大小为18.94GB->新版镜像压缩后大小为4.88GB,降为原有的1/4,提供完整Dockerfile
● 检索优化,chunks新增片段融合与排序,聚合单文档或双文档
● 检索阶段和问答阶段均嵌入metadata信息,提升检索和问答效果
4.3 各阶段数据展示:
● 知识库所有文件上传进度展示 ● 知识库单个文件上传进度展示,上传各阶段耗时 ● 问答信息统计,包含问答各阶段耗时,tokens消耗,模型信息等 ● 用户信息统计,包含上传文件总数量,总耗时,问答历史记录等
五、安装指南
5.1 必要条件
| 系统 | 依赖 | 要求 | 说明 |
|---|---|---|---|
| 通用 | RAM Memory | >= 20GB | |
| Linux/Mac | Docker version | >= 20.10.5 | [docker install] |
| Linux/Mac | docker compose version | >= 2.23.3 | [docker-compose install] |
| Windows | Docker Desktop | >= 4.26.1(131620) | [Docker Desktop for Windows] |
5.2 下载及安装
mkdir -p /data/RAG && cd /data/RAGgit clone https://github.com/netease-youdao/QAnything.gitcd QAnythingls -l```plaintext
在 Linux 上启动docker-compose -f docker-compose-linux.yaml up -d# 在 Mac 上启动docker-compose -f docker-compose-mac.yaml up -d# 在 Windows 上启动docker-compose -f docker-compose-win.yaml up -d
这一步包括拉取镜像和启动,拉取镜像的过程较长,大概10多分钟。
5.3 使用演示
- 新建知识库:上传本地文件,系统自动解析。
- 问答体验:输入问题,获取精准答案,支持溯源查看原文。
- 自定义Bot:绑定知识库,打造专属AI助手。
QAnything默认端口:8777,运行成功后,即可在浏览器输入以下地址进行体验:http://localhost:8777/qanything/
新建知识库:
上传文档集:
录入问答集:
六、总结
- QAnything是一款强大且易用的本地知识库问答工具,特别适合企业、研究团队或个人用户管理海量文档。
- 它的离线安全、多格式支持和高效检索能力,使其成为知识管理的利器。
- 无论是搭建内部知识库,还是快速查找文件内容,QAnything都能轻松胜任。
想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享!
👇👇扫码免费领取全部内容👇👇
一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势
想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI:
1. 100+本大模型方向电子书
2. 26 份行业研究报告:覆盖多领域实践与趋势
报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:
- 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
- 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
- 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
- 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。
3. 600+套技术大会 PPT:听行业大咖讲实战
PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:
- 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
- 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
- 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
- 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。
二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走
想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!
1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位
面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析:
2. 102 道 AI 大模型真题:直击大模型核心考点
针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:
3. 97 道 LLMs 真题:聚焦大型语言模型高频问题
专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:
![]()
三、路线必明: AI 大模型学习路线图,1 张图理清核心内容
刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!
路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。
L1阶段:启航篇丨极速破界AI新时代
L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。
L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。
L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。
L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。
L5阶段:专题集丨特训篇 【录播课】
![]()
四、资料领取:全套内容免费抱走,学 AI 不用再找第二份
不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:
👇👇扫码免费领取全部内容👇👇
2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!