news 2026/4/30 23:53:28

【langchain框架——检索链】利用检索链创建自己的购物知识库并完成智能体的商品推荐

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【langchain框架——检索链】利用检索链创建自己的购物知识库并完成智能体的商品推荐

检索链的种类

检索链是实现检索增强生成(RAG)的核心组件,其核心逻辑是:先从知识库中检索与用户相关的上下文,再将问题和上下文传入大模型生成答案。其主要分类如下:

链名称核心特点
RetrievalQA基础检索问答链,最通用
RetrievalQAWithSourcesChain专门优化「来源追溯」
ConversationalRetrievalChain融合对话记忆
RetrievalQAWithChainOptions自定义链配置(进阶)

以电商平台商品推荐为例(下面自己手搓的代码,盗用请标注来源)

用到的函数

fromlangchain_community.document_loadersimport(TextLoader,PyPDFLoader,UnstructuredMarkdownLoader,WebBaseLoader)fromlangchain_classic.schemaimportDocumentfromlangchain_community.vectorstoresimportFAISSfromlangchain_classic.chainsimportRetrievalQAfromlangchain_classic.promptsimportPromptTemplatefromlangchain_community.embeddingsimportDashScopeEmbeddings

步骤一:我用到的商品文件

下图是我的商品pdf:

步骤二:pdf转进行分块,我们这里按照自定义字符串进行分割,即#

defprint_document_splits(splits,num_to_display=5):print(f"\n📋 文档分割详情(共{len(splits)}个片段):\n"+"="*60)fori,docinenumerate(splits[:num_to_display]):print(f"\n➡️ 片段{i+1}:")print(f" 来源:{doc.metadata.get('source','未知')}")print(f" 页码:{doc.metadata.get('page','未知')}")print(f" 字符数:{len(doc.page_content)}")content_preview=doc.page_content[:200]+"..."iflen(doc.page_content)>200elsedoc.page_contentprint(f" 内容预览:{content_preview}")iflen(splits)>num_to_display:print(f"\n... 还有{len(splits)-num_to_display}个片段未显示")embeddings=DashScopeEmbeddings(model="text-embedding-v3",dashscope_api_key="sk-8009265c5eddxxxxx9cb9ef3")loader=PyPDFLoader("/wwwxxxx量商品推荐_20251224135554.pdf")documents=loader.load()# 按 # 分割,这里是关键full_text="\n".join([doc.page_contentfordocindocuments])chunks=full_text.split("#")

步骤三:创建向量数据库:

vectorstore=FAISS.from_documents(documents=splits,embedding=embeddings)vectorstore.save_local("./save_knowledgeDB")

结果展示——生成好的知识库:

如果创建成功后,下次就不用再创建向量数据库了,直接导入加载即可,加载代码如下:

vectorstore=FAISS.load_local(folder_path="./save_knowledgeDB",# 你的保存路径embeddings=embeddings,# 需要用相同的embedding模型allow_dangerous_deserialization=True)

步骤四:创造检索器

由于工作内容检索复杂,我打算采用混合检索器的方式,那么混合检索器主要分为2种,分别为:简单检索器和加权融和检索器。混合检索器混合的两种方法通常是向量检索和BM25混合,下面我将主要介绍这两种方法:

方法一:简单融合检索器实现

defSimple_hunhe_search(query,k):print("🟢 简单混合检索——执行向量检索...")vector_document=vector_retriever.invoke(query)print("🟢 简单混合检索——执行BM25检索...")bm25_document=BM25_retriever.invoke(query)all_docs,seen__content=[],set()for_invector_document:content=_.page_content[:100]# 取文档前100字符作为唯一标识,防止相同文档重复统计ifcontentnotinseen__content:all_docs.append((_,0.6))seen__content.add(content)for_inbm25_document:content=_.page_content[:100]ifcontentnotinseen__content:seen__content.add(content)all_docs.append((_,0.4))all_docs.sort(key=lambdax:x[1],reverse=True)result=[cforc,_inall_docs[:k]]print("🟢 简单混合检索完成!...")returnresult

方法一:加权融合检索器实现

defWeight_hunhe_search(query,vector_weight=0.7,bm25_weight=0.3,k=5):print(f"⚖️ 加权融合检索 (向量:{vector_weight}/BM25:{bm25_weight})")vector_document=vector_retriever.invoke(query)bm25_document=BM25_retriever.invoke(query)score_docs={}fori,_inenumerate(vector_document):score=(1-i/len(vector_document))*vector_weightifvector_documentelse0content=_.page_content[:150]ifcontentnotinscore_docs:score_docs[content]={"doc":_,"score":score}else:score_docs[content]["score"]+=scorefori,_inenumerate(bm25_document):score=(1-i/len(bm25_document))*bm25_weightifbm25_documentelse0content=_.page_content[:150]ifcontentnotinscore_docs:score_docs[content]={"doc":_,"score":score}else:score_docs[content]["score"]+=score result=sorted(score_docs.values(),key=lambdax:x['score'],reverse=True)result=[items['doc']foritemsinresult[:k]]returnresult

步骤五:写好提示词,连接chain,搭建工作流。

我们的目的是:先提取用户想买的商品,该商品放入检索器检索并输出可能的商品,再让一个基础LLMChain完成商品推荐逻辑

## 先提取用户的商品名称:fromlangchain_classic.chainsimportLLMChain extract_product_name=LLMChain(llm=llm,prompt=PromptTemplate.from_template("你是一个专业提取用户需求的助手,能够提取用户{input}里面想要的商品名称。例如:我想买花露水 -> 花露水,直接输出最终商品名称即可,严禁多于废话"),output_key="product_name",verbose=False)introduct_products=LLMChain(llm=llm,prompt=PromptTemplate.from_template("请结合用户需求,和在知识库中检索出来的商品列表,挑选最符合的商品推荐给用户,输出格式为:"\"为您推荐xx个商品,第一款为xxx,第二款为xxx。现在用户需求为{input},商品列表为{product_list}"),output_key="answer",verbose=False)user_issues=["我想买大米","给我推荐食用油","有没有口罩"]fori,issueinenumerate(user_issues,1):print(f"\n{'='*60}")print(f"{'-'*60}")result=extract_product_name.invoke({"input":f"{issue}"})print("result:",result['product_name'])products_list=Weight_hunhe_search(result['product_name'],vector_weight=0.7,bm25_weight=0.3,k=10)res=introduct_products.invoke({"input":f"{issue}","product_list":f'{products_list}'})print("推荐话术:",res['answer'])print(f"{'='*60}")print("\n✅ 所有需求处理完成!")

效果展示

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/28 21:48:50

2025最新!MBA论文写作TOP10:10个AI论文平台深度测评

2025最新!MBA论文写作TOP10:10个AI论文平台深度测评 2025年MBA论文写作工具深度测评:为何需要一份权威榜单? 随着人工智能技术的不断进步,越来越多的MBA学生开始借助AI工具提升论文写作效率。然而,面对市场…

作者头像 李华
网站建设 2026/4/26 4:14:00

2025最新!专科生必备8个AI论文平台:开题报告与文献综述全测评

2025最新!专科生必备8个AI论文平台:开题报告与文献综述全测评 2025年专科生论文写作工具测评:从功能到体验的全面解析 随着人工智能技术在学术领域的不断渗透,越来越多的专科生开始借助AI工具提升论文写作效率。然而,面…

作者头像 李华
网站建设 2026/4/30 6:49:00

搞砸一次发布赔了6位数后,我才明白平台工程的真正价值。

我永远忘不了那个周五晚上,我满怀信心地按下了发布按钮,然后整个系统就崩了。接下来的十几个小时,就是一场混乱的救火行动。回滚代码、排查日志、紧急修复,整个团队都被拖入了深渊。那一刻我才意识到,我们引以为傲的敏…

作者头像 李华
网站建设 2026/4/30 9:07:36

我们是如何用云端开发,把上线时间从1周压到3分钟的

整个技术圈都在为 AI 疯狂,我们讨论 Copilot 如何让编码效率提升十倍。但这可能只说对了一半,我们用 AI 加速了“写代码”,但作为工程师,我发现自己大量的时间,却消耗在了写代码之外的、那些看不见的“摩擦”上。我认为…

作者头像 李华