景德镇市网站建设_网站建设公司_CMS_seo优化
2025/12/23 2:21:19 网站建设 项目流程

RAG(Retrieval-Augmented Generation,检索增强生成)是当前大模型应用中最主流的架构之一。它通过结合外部知识库与大语言模型(LLM),有效缓解了模型幻觉、知识滞后和领域专业性不足等问题。本文将带你从零开始,完整实现一个生产级 RAG 系统。


一、RAG 系统整体架构

一个典型的 RAG 系统包含以下核心模块:

用户提问 → 查询理解 → 向量检索 → 文档重排 → 提示工程 → LLM 生成 → 输出 ↑ ↑ (可选) (可选) 查询改写 重排序模型

我们将逐步实现每个环节。


二、环境准备

pipinstalllangchain==0.2.0\langchain-community\langchain-core\langchain-text-splitters\sentence-transformers\chromadb\rank_bm25\transformers\torch\openai\python-dotenv

建议使用 Python 3.9+,并设置虚拟环境。


三、数据准备:加载与切分文档

1. 加载文档

支持 PDF、Word、TXT、HTML 等格式:

fromlangchain_community.document_loadersimportPyPDFLoader,DirectoryLoader loader=DirectoryLoader("./docs",glob="*.pdf",loader_cls=PyPDFLoader)documents=loader.load()

2. 文本切分(Chunking)

合理切分对检索质量至关重要。推荐使用语义感知切分

fromlangchain_text_splittersimportRecursiveCharacterTextSplitter text_splitter=RecursiveCharacterTextSplitter(chunk_size=512,chunk_overlap=50,separators=["\n\n","\n","。","!","?",";"," ",""])chunks=text_splitter.split_documents(documents)

技巧:chunk_overlap可避免语义割裂;separators按优先级断句。


四、向量化:构建嵌入(Embedding)

1. 选择 Embedding 模型

  • 开源本地模型:BAAI/bge-large-zh-v1.5(中文强)、text-embedding-ada-002(OpenAI)
  • 本地部署推荐sentence-transformers
fromlangchain_community.embeddingsimportHuggingFaceBgeEmbeddings embeddings=HuggingFaceBgeEmbeddings(model_name="BAAI/bge-large-zh-v1.5",model_kwargs={"device":"cuda"},encode_kwargs={"normalize_embeddings":True})

2. 构建向量数据库

使用 Chroma(轻量级)或 Milvus(生产级):

importchromadbfromlangchain_chromaimportChroma vectorstore=Chroma.from_documents(documents=chunks,embedding=embeddings,persist_directory="./chroma_db")retriever=vectorstore.as_retriever(search_kwargs={"k":5})

k=5表示检索 Top-5 相关片段。


五、检索优化(关键!)

原始向量检索可能召回不相关结果,需优化:

1. 查询改写(Query Rewriting)

使用 LLM 对用户问题进行澄清或扩展:

fromlangchain_core.promptsimportPromptTemplatefromlangchain_openaiimportChatOpenAI rewrite_prompt=PromptTemplate.from_template("你是一个查询优化器。请将以下用户问题改写为更清晰、更适合检索的形式:{question}")llm=ChatOpenAI(model="gpt-4o")rewriter=rewrite_prompt|llm rewritten_query=rewriter.invoke({"question":"怎么重启服务?"}).content

2. 混合检索(Hybrid Search)

结合关键词(BM25) + 向量检索:

fromrank_bm25importBM25Okapiimportjieba# 构建 BM25 索引(中文需分词)corpus=[doc.page_contentfordocinchunks]tokenized_corpus=[list(jieba.cut(text))fortextincorpus]bm25=BM25Okapi(tokenized_corpus)defhybrid_search(query,k=5):# 向量检索vec_results=retriever.invoke(query)vec_ids={doc.metadata["id"]fordocinvec_results}# BM25 检索tokenized_query=list(jieba.cut(query))bm25_scores=bm25.get_scores(tokenized_query)top_bm25=sorted(range(len(bm25_scores)),key=lambdai:bm25_scores[i],reverse=True)[:k]# 融合(取并集去重)all_docs=vec_results+[chunks[i]foriintop_bm25ifinotinvec_ids]returnall_docs[:k]

3. 重排序(Re-ranking)

使用 Cross-Encoder 模型对 Top-K 结果重新打分:

fromsentence_transformersimportCrossEncoder reranker=CrossEncoder("BAAI/bge-reranker-large")pairs=[(query,doc.page_content)fordocinretrieved_docs]scores=reranker.predict(pairs)reranked=[docfor_,docinsorted(zip(scores,retrieved_docs),reverse=True)]

六、提示工程与生成

构建高质量 Prompt

template=""" 你是一个专业客服助手,请根据以下上下文回答用户问题。 - 如果答案不在上下文中,请回答“根据现有资料无法回答”。 - 保持回答简洁、准确。 上下文: {context} 问题:{question} 回答: """prompt=ChatPromptTemplate.from_template(template)

构建 RAG 链

fromlangchain_core.runnablesimportRunnablePassthroughfromlangchain_core.output_parsersimportStrOutputParser rag_chain=({"context":retriever,"question":RunnablePassthrough()}|prompt|llm|StrOutputParser())answer=rag_chain.invoke("如何配置 API 密钥?")

七、评估与迭代

RAG 系统需持续评估:

  • 检索质量:MRR
  • 生成质量:ROUGE、BLEU、人工评分
  • 端到端效果:使用 TruLens 或 RAGAS 框架
# 示例:用 RAGAS 评估fromragasimportevaluatefromragas.metricsimportfaithfulness,answer_relevancy result=evaluate(dataset=your_test_set,metrics=[faithfulness,answer_relevancy],llm=llm,embeddings=embeddings)

八、部署建议

  • 本地测试:FastAPI + Uvicorn
  • 生产部署:Docker 容器化,搭配 Redis 缓存、Nginx 负载均衡
  • 监控:记录查询日志、延迟、失败率

总结

一个健壮的 RAG 系统 ≠ 简单拼接“检索 + LLM”。关键在于:

  1. 高质量数据切分
  2. 混合检索 + 重排序
  3. 精准的提示工程
  4. 持续评估与迭代

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询