news 2026/4/28 17:26:07

Ollamavllm中部署模型think模式开启关闭

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Ollamavllm中部署模型think模式开启关闭

(一)Ollama中think模式开启关闭

在 Ollama 中部署 Qwen3 模型时,关闭其“思考模式”(即不显示推理过程 ``)有以下几种常用方法。

1. 在提示词中添加指令

最简单的方式是在你的提问末尾加上/no_think指令。这会让模型在当前轮次直接输出最终答案,而不展示思考过程。

你好,请介绍一下自己/no_think

2. 通过命令行参数设置

在启动模型时,可以使用--think=false--hidethinking参数来全局关闭思考模式。

ollama run qwen3:4b --think=false# 或ollama run qwen3:4b --hidethinking

3. 在交互式会话中使用命令

如果你已经通过ollama run进入了交互式对话,可以在会话中输入命令来关闭思考模式。

/set nothink

输入/?可以查看当前会话支持的所有命令。

4. 通过 API 调用控制

在使用 Ollama 的 API 进行聊天请求时,可以在请求体中设置"think": false来关闭思考。

{"model":"qwen3","messages":[{"role":"user","content":"你的问题"}],"think":false}

5. 使用非思考版本的模型

有些 Qwen3 模型变体(如qwen3:235b-a22b-instruct-2507-q4_K_M)本身就不是“思考模型”,直接使用它们就不会有思考过程。

重要说明

  • 指令优先级:在对话中,模型会遵循最新的指令。如果你之前开启了思考,在最新的消息中加上/no_think即可关闭。
  • 模型限制:部分专门为深度推理设计的模型(如qwen3-30b-a3b-thinking-2507)可能无法完全关闭思考模式。
  • 参数差异:某些教程中提到的enable_thinking参数通常是在直接使用模型库(如 Transformers 或 SGLang)时设置,在 Ollama 的上下文中,更推荐使用上述几种方法。

你可以根据自己使用 Ollama 的方式(命令行交互、API 调用等)选择最方便的方法来关闭思考模式。

(二)Vllm中think模型开启关闭

在 vLLM 中部署 Qwen3-32B 模型时,可以通过API 请求参数启动配置来控制其“思考模式”(即是否输出推理过程 ``)的开启与关闭。

一、如何设置思考模式的开启与关闭

1.通过 API 请求参数控制(推荐)

这是最灵活的方式,可以在每次请求时动态控制。关键参数是chat_template_kwargs中的enable_thinking

  • 关闭思考模式:将enable_thinking设为False
  • 开启思考模式:将enable_thinking设为True(默认行为)。
2.通过启动参数控制(全局设置)

在启动 vLLM 服务时,可以通过指定自定义聊天模板来全局禁用思考模式,即使用户在提示中要求思考也会被阻止[。

vllm serve Qwen/Qwen3-32B --chat-template ./qwen3_nonthinking.jinja

注意:此方法需要你准备一个禁用了思考功能的 Jinja 模板文件。

3.软开关:在用户消息中指令

模型本身也支持通过特定的指令来切换模式,这是一种“软开关”。

  • 关闭思考:在用户消息末尾添加/no_think指令[[3]]。
  • 开启思考:在用户消息末尾添加/think指令。

二、调用 vLLM API 的 Python 代码示例

以下示例使用openaiPython 包(需安装openai>=1.0.0)调用本地 vLLM 服务,并演示如何开关思考模式。

fromopenaiimportOpenAI# 1. 初始化客户端,连接到本地 vLLM 服务client=OpenAI(api_key="EMPTY",# vLLM 服务不需要密钥base_url="http://localhost:8000/v1",# vLLM 服务的默认地址)# 2. 准备对话消息messages=[{"role":"user","content":"请解释一下引力波是如何被探测到的。"}]# 3. 发起 API 请求,并控制思考模式try:response=client.chat.completions.create(model="Qwen/Qwen3-32B",# 模型名称需与启动服务时的 `--served-model-name` 一致messages=messages,max_tokens=1024,temperature=0.7,top_p=0.8,# 关键:通过 extra_body 传递 enable_thinking 参数来控制思考模式extra_body={"top_k":20,"chat_template_kwargs":{"enable_thinking":False# 关闭思考模式。改为 True 则开启。}})# 4. 打印模型的回复print("模型回复:")print(response.choices[0].message.content)exceptExceptionase:print(f"请求发生错误:{e}")

三、重要注意事项

  1. 参数位置enable_thinking参数并非 OpenAI 官方 API 标准,因此必须放在extra_body字段中传递。
  2. 与思考内容解析的兼容性:如果你在启动 vLLM 时使用了--reasoning-parser参数来解析思考内容,在 vLLM 0.8.5 版本中,这与enable_thinking=False不兼容。此问题在 vLLM 0.9.0 及更高版本中已得到解决[[5]]。
  3. 模型版本:确保你部署的Qwen3-32B是支持思考能力的版本(通常是InstructThinking后缀的模型)。基础预训练模型可能不具备此功能。

总结:最常用的方法是在 API 调用时,通过extra_body中的chat_template_kwargs: {"enable_thinking": True/False}来精确控制每次请求的思考模式。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/25 15:31:50

2024年提示工程架构师的商业趋势:AI提示系统的3个技术方向!

2024年提示工程架构师的商业趋势:AI提示系统的3个技术方向!关键词:提示工程架构师、AI提示系统、商业趋势、技术方向、自然语言处理、人工智能应用摘要:本文主要探讨2024年提示工程架构师所面临的商业趋势,详细阐述AI提…

作者头像 李华
网站建设 2026/4/24 9:20:50

终极指南:如何快速上手Neighborhood Attention Transformer视觉模型

欢迎来到Neighborhood Attention Transformer的完整使用指南!🚀 如果你正在寻找一个既高效又强大的视觉Transformer模型,那么你来对地方了。Neighborhood Attention Transformer(简称NAT)是CVPR 2023的最新研究成果&am…

作者头像 李华
网站建设 2026/4/18 22:09:49

恒压供水系统在工业现场随处可见,今天咱们来盘盘昆仑通泰触摸屏直连ABB ACS510变频器的实战操作。别被485通讯吓到,其实只要摸清门道,比接继电器还省事

ABB变频器恒压供水 昆仑通泰触摸屏与ACS510变频器直接485通讯程序一台变频器控制一台水泵 可供学习参考。先说说硬件接线。ACS510的RS485口在端子排X1的29(P)和30(N-),昆仑屏这边用DB9头的7、8脚。注意屏蔽层单端接地&…

作者头像 李华
网站建设 2026/4/25 21:18:02

低代码 ITSM 知识管理平台:驱动企业数智化运维的新引擎

在数字化转型浪潮中,企业 IT 运维早已不再只是“修电脑、管网络”的被动支撑部门,而是企业核心竞争力的重要组成部分。低代码 ITSM 知识管理平台 正是在这种背景下应运而生,它以高效、智能、可视化的方式,重构企业 IT 服务管理流程…

作者头像 李华
网站建设 2026/4/27 3:54:18

实时语音识别回声严重,后来才知道用频域自适应滤波

💓 博客主页:借口的CSDN主页 ⏩ 文章专栏:《热点资讯》 目录人类和AI的相爱相杀日常 一、AI备课助手:当教师遇上AI,我的教案差点成“鬼打墙” 二、Magenta音乐生成:当我用AI作曲,结果成了“魔性…

作者头像 李华