检索链的种类
检索链是实现检索增强生成(RAG)的核心组件,其核心逻辑是:先从知识库中检索与用户相关的上下文,再将问题和上下文传入大模型生成答案。其主要分类如下:
| 链名称 | 核心特点 |
|---|---|
| RetrievalQA | 基础检索问答链,最通用 |
| RetrievalQAWithSourcesChain | 专门优化「来源追溯」 |
| ConversationalRetrievalChain | 融合对话记忆 |
| RetrievalQAWithChainOptions | 自定义链配置(进阶) |
以电商平台商品推荐为例(下面自己手搓的代码,盗用请标注来源)
用到的函数
fromlangchain_community.document_loadersimport(TextLoader,PyPDFLoader,UnstructuredMarkdownLoader,WebBaseLoader)fromlangchain_classic.schemaimportDocumentfromlangchain_community.vectorstoresimportFAISSfromlangchain_classic.chainsimportRetrievalQAfromlangchain_classic.promptsimportPromptTemplatefromlangchain_community.embeddingsimportDashScopeEmbeddings步骤一:我用到的商品文件
下图是我的商品pdf:
步骤二:pdf转进行分块,我们这里按照自定义字符串进行分割,即#
defprint_document_splits(splits,num_to_display=5):print(f"\n📋 文档分割详情(共{len(splits)}个片段):\n"+"="*60)fori,docinenumerate(splits[:num_to_display]):print(f"\n➡️ 片段{i+1}:")print(f" 来源:{doc.metadata.get('source','未知')}")print(f" 页码:{doc.metadata.get('page','未知')}")print(f" 字符数:{len(doc.page_content)}")content_preview=doc.page_content[:200]+"..."iflen(doc.page_content)>200elsedoc.page_contentprint(f" 内容预览:{content_preview}")iflen(splits)>num_to_display:print(f"\n... 还有{len(splits)-num_to_display}个片段未显示")embeddings=DashScopeEmbeddings(model="text-embedding-v3",dashscope_api_key="sk-8009265c5eddxxxxx9cb9ef3")loader=PyPDFLoader("/wwwxxxx量商品推荐_20251224135554.pdf")documents=loader.load()# 按 # 分割,这里是关键full_text="\n".join([doc.page_contentfordocindocuments])chunks=full_text.split("#")步骤三:创建向量数据库:
vectorstore=FAISS.from_documents(documents=splits,embedding=embeddings)vectorstore.save_local("./save_knowledgeDB")结果展示——生成好的知识库:
如果创建成功后,下次就不用再创建向量数据库了,直接导入加载即可,加载代码如下:
vectorstore=FAISS.load_local(folder_path="./save_knowledgeDB",# 你的保存路径embeddings=embeddings,# 需要用相同的embedding模型allow_dangerous_deserialization=True)步骤四:创造检索器
由于工作内容检索复杂,我打算采用混合检索器的方式,那么混合检索器主要分为2种,分别为:简单检索器和加权融和检索器。混合检索器混合的两种方法通常是向量检索和BM25混合,下面我将主要介绍这两种方法:
方法一:简单融合检索器实现
defSimple_hunhe_search(query,k):print("🟢 简单混合检索——执行向量检索...")vector_document=vector_retriever.invoke(query)print("🟢 简单混合检索——执行BM25检索...")bm25_document=BM25_retriever.invoke(query)all_docs,seen__content=[],set()for_invector_document:content=_.page_content[:100]# 取文档前100字符作为唯一标识,防止相同文档重复统计ifcontentnotinseen__content:all_docs.append((_,0.6))seen__content.add(content)for_inbm25_document:content=_.page_content[:100]ifcontentnotinseen__content:seen__content.add(content)all_docs.append((_,0.4))all_docs.sort(key=lambdax:x[1],reverse=True)result=[cforc,_inall_docs[:k]]print("🟢 简单混合检索完成!...")returnresult方法一:加权融合检索器实现
defWeight_hunhe_search(query,vector_weight=0.7,bm25_weight=0.3,k=5):print(f"⚖️ 加权融合检索 (向量:{vector_weight}/BM25:{bm25_weight})")vector_document=vector_retriever.invoke(query)bm25_document=BM25_retriever.invoke(query)score_docs={}fori,_inenumerate(vector_document):score=(1-i/len(vector_document))*vector_weightifvector_documentelse0content=_.page_content[:150]ifcontentnotinscore_docs:score_docs[content]={"doc":_,"score":score}else:score_docs[content]["score"]+=scorefori,_inenumerate(bm25_document):score=(1-i/len(bm25_document))*bm25_weightifbm25_documentelse0content=_.page_content[:150]ifcontentnotinscore_docs:score_docs[content]={"doc":_,"score":score}else:score_docs[content]["score"]+=score result=sorted(score_docs.values(),key=lambdax:x['score'],reverse=True)result=[items['doc']foritemsinresult[:k]]returnresult步骤五:写好提示词,连接chain,搭建工作流。
我们的目的是:先提取用户想买的商品,该商品放入检索器检索并输出可能的商品,再让一个基础LLMChain完成商品推荐逻辑
## 先提取用户的商品名称:fromlangchain_classic.chainsimportLLMChain extract_product_name=LLMChain(llm=llm,prompt=PromptTemplate.from_template("你是一个专业提取用户需求的助手,能够提取用户{input}里面想要的商品名称。例如:我想买花露水 -> 花露水,直接输出最终商品名称即可,严禁多于废话"),output_key="product_name",verbose=False)introduct_products=LLMChain(llm=llm,prompt=PromptTemplate.from_template("请结合用户需求,和在知识库中检索出来的商品列表,挑选最符合的商品推荐给用户,输出格式为:"\"为您推荐xx个商品,第一款为xxx,第二款为xxx。现在用户需求为{input},商品列表为{product_list}"),output_key="answer",verbose=False)user_issues=["我想买大米","给我推荐食用油","有没有口罩"]fori,issueinenumerate(user_issues,1):print(f"\n{'='*60}")print(f"{'-'*60}")result=extract_product_name.invoke({"input":f"{issue}"})print("result:",result['product_name'])products_list=Weight_hunhe_search(result['product_name'],vector_weight=0.7,bm25_weight=0.3,k=10)res=introduct_products.invoke({"input":f"{issue}","product_list":f'{products_list}'})print("推荐话术:",res['answer'])print(f"{'='*60}")print("\n✅ 所有需求处理完成!")