news 2026/3/28 17:18:14

AI开发-python-langchain框架(1-8-2 缓存机制——验证缓存的效果)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
AI开发-python-langchain框架(1-8-2 缓存机制——验证缓存的效果)

在AI应用中,缓存机制的经济价值不仅节省Token成本,还能消除用户等待焦虑、提升系统吞吐量、保障服务稳定性——这才是企业级应用的真正痛点。
当用户提出一个常见问题时,首次调用大模型需要经历网络传输、排队等待、模型推理等完整链路,响应时间通常在1至3秒。这个时长已超过人类对“流畅交互”的心理阈值(200毫秒),用户会明显感知到“卡顿”和“等待焦虑”。而启用缓存后,相同问题的后续请求直接从本地数据库读取结果,响应时间骤降至10毫秒以内——这种“无感秒回”的体验,让用户感觉系统始终在线、反应迅捷,极大提升了产品专业度和信任感。

下面看看这段代码,就能清晰的体现使用缓存后能提升的用户体验。(同一个问题问大模型三次,第一次没有缓存,后两次有缓存)

import os import time from langchain_community.cache import SQLiteCache from langchain_openai import ChatOpenAI from langchain.globals import set_llm_cache, get_llm_cache # ========== 1. 清理旧缓存(确保演示纯净)========== CACHE_DB = "langchain_demo.db" if os.path.exists(CACHE_DB): os.remove(CACHE_DB) print(f" 已清理旧缓存: {CACHE_DB}") # ========== 2. 启用缓存 ========== set_llm_cache(SQLiteCache(database_path=CACHE_DB)) print(f" 缓存已启用: {get_llm_cache()}\n") # ========== 3. 配置 LLM ========== llm = ChatOpenAI( api_key=os.getenv("DEEPSEEK_API_KEY"), base_url=os.getenv("DEEP_URL"), # Deepseek 的 API 基础地址 model="deepseek-v3:671b", # Deepseek 对话模型(可选:deepseek-chat-pro 等高级模型) temperature=0.7, # 温度参数(0-1,越低越稳定) max_tokens=1024 # 最大生成 tokens ) # ========== 4. 核心演示函数 ========== def demonstrate_cache_effect(query: str, repeat: int = 3): """ 演示缓存效果:首次调用(慢) vs 后续调用(快) Args: query: 要提问的问题 repeat: 重复调用次数(第1次未缓存,后续应命中缓存) """ print("=" * 60) print(f" 测试问题: \"{query}\"") print(f" 将重复调用 {repeat} 次(第1次无缓存,后续应命中缓存)") print("=" * 60 + "\n") durations = [] for i in range(repeat): print(f"\n[第 {i + 1} 次调用]") start = time.perf_counter() # 高精度计时 # 关键:使用完全相同的输入触发缓存 response = llm.invoke(query) duration = (time.perf_counter() - start) * 1000 # 转为毫秒 durations.append(duration) # 判断是否命中缓存(通过耗时阈值粗略判断) is_cached = i > 0 # 首次通常 >500ms,缓存通常 <50ms if i > 0: print('缓存命中,耗时:'+str(duration)) else: print('真实请求,耗时:'+str(duration)) print(f" 回答: {response.content[:60]}...") # ========== 5. 执行演示 ========== if __name__ == "__main__": # 测试标准问题(确保完全相同的字符串) demonstrate_cache_effect("太阳系哪个行星最大?", repeat=3)

运行结果:


已清理旧缓存: langchain_demo.db
缓存已启用: <langchain_community.cache.SQLiteCache object at 0x000001D668B50410>

============================================================
测试问题: "太阳系哪个行星最大?"
将重复调用 3 次(第1次无缓存,后续应命中缓存)
============================================================


[第 1 次调用]
真实请求,耗时:17445.118000000093
回答: 太阳系中最大的行星是**木星**。以下是关于木星的一些关键信息:

### 木星的基本特征:
1. **体积与质量** ...

[第 2 次调用]
缓存命中,耗时:410.93799999998737
回答: 太阳系中最大的行星是**木星**。以下是关于木星的一些关键信息:

### 木星的基本特征:
1. **体积与质量** ...

[第 3 次调用]
缓存命中,耗时:1.475199999731558
回答: 太阳系中最大的行星是**木星**。以下是关于木星的一些关键信息:

### 木星的基本特征:
1. **体积与质量** ...


结论:从时间消耗上看,缓存命中几何倍数的缩短了用户等待时间,提升了用户的使用体验。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/27 5:47:43

SCI制图——火山图简介(一)

一、什么是火山图&#xff1f;——转录组与蛋白组数据分析的标配图表SCI领域的论文&#xff0c;尤其是涉及转录组测序或蛋白质组学的研究&#xff0c;您一定见过这样一张图&#xff1a;成千上万个散点分布在一个平面上&#xff0c;它们像喷发的岩浆一样向两侧上方扩散&#xff…

作者头像 李华
网站建设 2026/3/21 4:11:53

降AI不伤专业术语?2026年实测这2款工具做到了

降AI不伤专业术语&#xff1f;2026年实测这2款工具做到了 很多同学担心&#xff1a;用降AI工具处理后&#xff0c;专业术语会不会被改乱&#xff1f; 我测试了几款工具&#xff0c;结论是&#xff1a;选对工具&#xff0c;专业术语基本不会变。 为什么专业术语容易被改乱&…

作者头像 李华
网站建设 2026/3/17 3:25:49

金手指PCB结构原理与失效机理深度解析

在终端产品返修与失效分析案例中&#xff0c;金手指 PCB 的故障占比常年居高不下&#xff0c;很多用户只关注插拔与清洁&#xff0c;却忽略其结构本质与失效根源。​金手指 PCB 是各类接口类电路板的核心形态&#xff0c;广泛应用于内存条、显卡、PCIe 扩展卡、工业控制板、车载…

作者头像 李华
网站建设 2026/3/17 17:24:51

YOLO26优化:最新注意力机制 | 低计算复杂度的 多尺度线性注意力机制(MSLA)

💡💡💡问题点:基于CNN的方法由于卷积操作的固有局限性,难以有效捕捉全局上下文信息;而基于Transformer的方法则存在局部特征建模不足的问题,同时面临自注意力机制带来的高计算复杂度挑战。 💡💡💡引入多尺度线性注意力机制,旨在以低计算复杂度高效提取图像中的…

作者头像 李华
网站建设 2026/3/27 9:16:08

手动降AI还是用工具?2026年效果对比告诉你答案

手动降AI还是用工具&#xff1f;2026年效果对比告诉你答案 降AI到底要不要花钱&#xff1f;自己手动改行不行&#xff1f; 这是很多同学纠结的问题。这篇文章做个对比&#xff0c;帮你做决定。 手动降AI 做法&#xff1a;一段一段手动改写&#xff0c;打破AI的句式规律。 效…

作者头像 李华