news 2026/4/24 17:32:58

ChatOpenAI调用get_num_tokens_from_messages() is not presently implemented for model qwen-plus

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
ChatOpenAI调用get_num_tokens_from_messages() is not presently implemented for model qwen-plus

使用langchain做历史会话管理时报错,代码及报错如下:

from langchain_openai import ChatOpenAI model = ChatOpenAI( base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", api_key="sk-ba5d2f5624d144c98fb196f4013b0e3d", model="qwen-plus", ) from langchain_core.messages import HumanMessage, SystemMessage ,AIMessage from langchain_core.messages import SystemMessage, trim_messages trimmer = trim_messages( max_tokens=65, strategy="last", token_counter=model, include_system=True, allow_partial=False, start_on="human", ) messages = [ SystemMessage(content="you're a good assistant"), HumanMessage(content="hi! I'm bob"), AIMessage(content="hi!"), HumanMessage(content="I like vanilla ice cream"), AIMessage(content="nice"), HumanMessage(content="whats 2 + 2"), AIMessage(content="4"), HumanMessage(content="thanks"), AIMessage(content="no problem!"), HumanMessage(content="having fun?"), AIMessage(content="yes!"), ] trimmer.invoke(messages)

报错

NotImplementedError: get_num_tokens_from_messages() is not presently implemented for model qwen-plus. See https://platform.openai.com/docs/guides/text-generation/managing-tokens for information on how messages are converted to tokens.

原因
根本原因是:LangChain 的 ChatOpenAI 类在使用非 OpenAI 官方模型(比如阿里云的 Qwen 系列)时,默认无法准确计算 token 数量,因为 get_num_tokens_from_messages() 方法依赖于 OpenAI 的 tokenizer。而像 qwen-plus 这样的第三方兼容模型,并没有被 LangChain 内置支持用于 token 计算

解决方法

如果你使用的是较新版本的 LangChain(>=0.2),可以考虑直接使用 Tongyi 官方提供的 LangChain 集成,而不是通过 OpenAI 兼容模式

pip install langchain-community pip install dashscope --upgrade pip install transformers

修改后代码

tongyi_model = ChatTongyi( base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", api_key="sk-ba5d2f5624d144c98fb196f4013b0e3d", model="qwen-plus", ) trimmer = trim_messages( max_tokens=65, strategy="last", token_counter=tongyi_model, include_system=True, allow_partial=False, start_on="human", ) messages = [ SystemMessage(content="you're a good assistant"), HumanMessage(content="hi! I'm bob"), AIMessage(content="hi!"), HumanMessage(content="I like vanilla ice cream"), AIMessage(content="nice"), HumanMessage(content="whats 2 + 2"), AIMessage(content="4"), HumanMessage(content="thanks"), AIMessage(content="no problem!"), HumanMessage(content="having fun?"), AIMessage(content="yes!"), ] trimmer.invoke(messages)

运行后,有警告

/home/runUser/anaconda3/envs/langchain/lib/python3.12/site-packages/langchain_core/language_models/base.py:328: UserWarning: Using fallback GPT-2 tokenizer for token counting. Token counts may be inaccurate for non-GPT-2 models. For accurate counts, use a model-specific method if available. return len(self.get_token_ids(text))

表明 ChatTongyi 虽然被用作 token_counter,但其底层 没有实现准确的 token 计数方法(或未正确注册 Qwen 的 tokenizer),于是 LangChain 回退到 GPT-2 的 tokenizer(对中文和 Qwen 模型不准确)
ChatTongyi 的 get_num_tokens_from_messages 方法仍未被正确实现(或依赖未安装的 tokenizer 包),导致它无法准确计算 Qwen 系列模型的 token 数量,只能回退到不合适的 GPT-2 tokenizer。
🔍 验证:Qwen 模型使用的是 基于 tiktoken 的 cl100k_base 编码(和 GPT-3.5/4 相同),不是 GPT-2 的 gpt2 编码。用 GPT-2 tokenizer 会严重低估 token 数(尤其对英文标点、空格等处理不同)。

处理方法:
增加自定义的计数方法实现准确计数,调整后代码如下:
from langchain_core.messages import SystemMessage, trim_messages
import tiktoken

✅ 准确的 token 计数函数(适用于 Qwen / GPT-3.5 / GPT-4)

def count_tokens_in_messages(messages): """估算 messages 的总 token 数(参考 OpenAI 官方方式)""" encoding = tiktoken.get_encoding("cl100k_base") # Qwen 使用此编码 tokens_per_message = 4 # 每条消息的固定开销(role + 分隔符等) tokens_per_name = -1 # Qwen 不支持 name 字段,可忽略 num_tokens = 0 for message in messages: num_tokens += tokens_per_message num_tokens += len(encoding.encode(message.content)) num_tokens += len(encoding.encode(message.type)) # 'system', 'user', 'assistant' # 注意:Qwen 不支持 'name',所以跳过 num_tokens += 3 # 每轮对话的额外开销(如 <|im_start|> 等) return num_tokens trimmer = trim_messages( max_tokens=65, strategy="last", token_counter=count_tokens_in_messages, include_system=True, allow_partial=False, start_on="human", ) messages = [ SystemMessage(content="you're a good assistant"), HumanMessage(content="hi! I'm bob"), AIMessage(content="hi!"), HumanMessage(content="I like vanilla ice cream"), AIMessage(content="nice"), HumanMessage(content="whats 2 + 2"), AIMessage(content="4"), HumanMessage(content="thanks"), AIMessage(content="no problem!"), HumanMessage(content="having fun?"), AIMessage(content="yes!"), ] trimmer.invoke(messages)

需要提醒的是Qwen的行为更“上下文驱动”而非“指令驱动”。它会优先模仿最近的语言风格,而不是严格遵行system规则

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/17 16:44:20

hbuilderx制作网页助力高职院校网站建设完整示例

用HBuilderX从零搭建高职院校官网&#xff1a;一个真实可落地的网页开发实践 你是不是也遇到过这样的情况&#xff1f;学校要建官网&#xff0c;领导说“尽快上线”&#xff0c;可技术老师要么不懂前端&#xff0c;要么忙于教学无暇顾及。找外包公司吧&#xff0c;价格贵不说&…

作者头像 李华
网站建设 2026/4/21 21:03:19

MediaPipe实战教程:构建离线安全的人脸打码系统

MediaPipe实战教程&#xff1a;构建离线安全的人脸打码系统 1. 学习目标与项目价值 在数字影像日益普及的今天&#xff0c;如何在分享照片时有效保护他人隐私成为一大挑战。尤其是在社交媒体、企业宣传、公共监控等场景中&#xff0c;未经处理的人脸信息极易引发数据泄露和合…

作者头像 李华
网站建设 2026/4/19 22:22:05

MediaPipe本地化优势凸显:AI姿态识别无数据泄露风险部署案例

MediaPipe本地化优势凸显&#xff1a;AI姿态识别无数据泄露风险部署案例 1. 引言&#xff1a;为何选择本地化部署的姿态识别方案&#xff1f; 随着人工智能在健身指导、动作纠正、虚拟试衣等场景的广泛应用&#xff0c;人体骨骼关键点检测技术正成为连接现实与数字世界的重要…

作者头像 李华
网站建设 2026/4/23 14:33:39

AI人体骨骼检测避坑必看:环境冲突问题终极解决方案

AI人体骨骼检测避坑必看&#xff1a;环境冲突问题终极解决方案 1. 引言&#xff1a;AI 人体骨骼关键点检测的现实挑战 随着AI在视觉领域的深入发展&#xff0c;人体骨骼关键点检测&#xff08;Human Pose Estimation&#xff09;已成为智能健身、动作捕捉、虚拟试衣、安防监控…

作者头像 李华
网站建设 2026/4/19 22:20:42

MediaPipe Pose模型更新策略:版本兼容与升级路径说明

MediaPipe Pose模型更新策略&#xff1a;版本兼容与升级路径说明 1. 背景与技术演进 随着AI在健身指导、动作识别、虚拟试衣等领域的广泛应用&#xff0c;人体骨骼关键点检测已成为计算机视觉中的核心能力之一。Google推出的MediaPipe框架凭借其轻量级设计和高实时性&#xf…

作者头像 李华
网站建设 2026/4/19 22:20:59

LeaguePrank终极指南:安全美化英雄联盟游戏界面

LeaguePrank终极指南&#xff1a;安全美化英雄联盟游戏界面 【免费下载链接】LeaguePrank 项目地址: https://gitcode.com/gh_mirrors/le/LeaguePrank 想要在英雄联盟中拥有与众不同的游戏体验吗&#xff1f;LeaguePrank这款基于LCU API的美化工具&#xff0c;让你在完…

作者头像 李华