Qwen3-1.7B实操手册:如何正确填写base_url和api_key
1. 背景与技术定位
Qwen3(千问3)是阿里巴巴集团于2025年4月29日开源的新一代通义千问大语言模型系列,涵盖6款密集模型和2款混合专家(MoE)架构模型,参数量从0.6B至235B。该系列模型在多项基准测试中表现出色,尤其在推理能力、代码生成和多语言理解方面实现了显著提升。
其中,Qwen3-1.7B是该系列中轻量级但高效能的代表型号之一,适用于边缘部署、快速原型开发以及资源受限环境下的AI应用。得益于其较小的参数规模与优化的推理引擎,Qwen3-1.7B 在保持高质量输出的同时,具备低延迟、高吞吐的特点,非常适合集成到 LangChain 等主流 LLM 应用框架中进行实验或生产级调用。
本文将重点介绍如何通过 Jupyter 环境启动 Qwen3-1.7B 镜像,并使用langchain_openai模块完成本地化 API 调用,特别聚焦于base_url和api_key的正确配置方式,帮助开发者避免常见连接错误。
2. 启动镜像并进入Jupyter环境
2.1 获取并运行Qwen3-1.7B镜像
通常情况下,Qwen3-1.7B 的推理服务会以 Docker 镜像的形式提供,托管在 CSDN GPU Pod 或其他云平台容器仓库中。首先需要确保已获取对应镜像的拉取权限,并执行以下命令:
docker pull registry.csdn.net/qwen/qwen3-1.7b:latest随后启动容器并映射端口(默认为8000),启用 Jupyter Lab 接口:
docker run -it --gpus all \ -p 8000:8000 \ -p 8888:8888 \ registry.csdn.net/qwen/qwen3-1.7b:latest \ bash -c "jupyter lab --ip=0.0.0.0 --port=8888 --allow-root"注意:部分镜像可能内置了 FastAPI 推理服务,默认监听 8000 端口用于
/v1接口通信,而 8888 端口用于 Jupyter 访问。
2.2 打开Jupyter Notebook
成功启动后,在浏览器中访问提示的 Jupyter 地址(如http://localhost:8888),输入 token 登录即可进入开发环境。
建议创建一个新的.ipynb文件用于后续测试,例如命名为qwen3_test.ipynb。
3. 使用LangChain调用Qwen3-1.7B模型
尽管 Qwen3 并非 OpenAI 官方模型,但由于其兼容 OpenAI 的 API 协议标准,我们可以借助langchain_openai中的ChatOpenAI类来实现无缝调用。关键在于正确设置base_url和api_key参数。
3.1 安装依赖库
确保环境中已安装必要的 Python 包:
pip install langchain_openai openai注意:即使不使用 OpenAI 服务,
langchain_openai也支持任何遵循 OpenAI API 格式的后端。
3.2 正确配置 base_url 与 api_key
以下是调用 Qwen3-1.7B 的完整示例代码:
from langchain_openai import ChatOpenAI import os chat_model = ChatOpenAI( model="Qwen3-1.7B", temperature=0.5, base_url="https://gpu-pod69523bb78b8ef44ff14daa57-8000.web.gpu.csdn.net/v1", # 当前jupyter的地址替换,注意端口号为8000 api_key="EMPTY", # 实际上无需真实密钥,设为"EMPTY"即可绕过验证 extra_body={ "enable_thinking": True, "return_reasoning": True, }, streaming=True, ) response = chat_model.invoke("你是谁?") print(response.content)关键参数说明:
| 参数 | 说明 |
|---|---|
model | 指定调用的模型名称,必须与后端注册名一致(此处为 Qwen3-1.7B) |
base_url | 必须指向运行中的推理服务地址,格式为https://<host>:<port>/v1,本例中为 CSDN 提供的 GPU Pod 地址 |
api_key | 多数本地或内网部署的服务无需认证,因此可设为"EMPTY";若服务启用了鉴权,则需填写有效 token |
extra_body | 可选字段,用于传递自定义参数,如开启“思维链”模式(enable_thinking)和返回推理过程(return_reasoning) |
streaming | 设置为True可启用流式响应,提升用户体验 |
3.3 常见问题排查
❌ 错误1:ConnectionError / Failed to establish connection
原因可能是:
base_url地址拼写错误- 端口未开放或服务未启动
- HTTPS 证书问题(某些环境下需添加
verify=False)
解决方案:
- 确认容器是否正常运行:
docker ps - 测试接口连通性:
curl https://gpu-pod.../v1/models - 若存在代理,请检查网络策略
❌ 错误2:Invalid API Key
虽然设置了api_key="EMPTY",但如果客户端强制校验,可能会报错。
解决方法:
- 查看服务端日志确认是否开启鉴权
- 如无必要,可在服务启动时关闭 key 验证
- 或者使用实际有效的 API 密钥替代
"EMPTY"
❌ 错误3:Model not found
提示模型不存在时,请核对:
model=参数值是否与服务端加载的模型名称完全一致(区分大小写)- 是否有别名机制?可通过
/v1/models接口查看可用模型列表
示例请求:
curl https://gpu-pod69523bb78b8ef44ff14daa57-8000.web.gpu.csdn.net/v1/models预期返回包含:
{ "data": [ { "id": "Qwen3-1.7B", "object": "model", "created": 1730000000, "owned_by": "alibaba" } ], "object": "list" }4. 进阶技巧与最佳实践
4.1 动态生成 base_url
在多用户或多实例场景下,每个用户的 Pod 地址可能不同。建议通过环境变量注入base_url,提高代码可移植性:
import os BASE_URL = os.getenv("QWEN_BASE_URL", "https://default-url/v1") API_KEY = os.getenv("QWEN_API_KEY", "EMPTY") chat_model = ChatOpenAI( model="Qwen3-1.7B", base_url=BASE_URL, api_key=API_KEY, temperature=0.5 )然后在运行前设置环境变量:
export QWEN_BASE_URL="https://your-pod-8000.web.gpu.csdn.net/v1" export QWEN_API_KEY="your-real-key-if-needed"4.2 启用流式输出处理
结合回调函数,可以实时处理流式响应内容:
from langchain_core.callbacks import StreamingStdOutCallbackHandler chat_model = ChatOpenAI( model="Qwen3-1.7B", base_url="https://gpu-pod69523bb78b8ef44ff14daa57-8000.web.gpu.csdn.net/v1", api_key="EMPTY", streaming=True, callbacks=[StreamingStdOutCallbackHandler()] ) chat_model.invoke("请解释什么是Transformer架构?")这将在终端逐字打印输出,模拟聊天机器人效果。
4.3 自定义请求体扩展功能
利用extra_body字段,可启用高级特性,如:
enable_thinking=True:开启逐步推理模式return_reasoning=True:返回中间思考过程max_tokens=1024:控制最大生成长度
这些参数需服务端支持才能生效,建议查阅具体部署文档。
5. 总结
本文系统介绍了如何在 Jupyter 环境中正确调用 Qwen3-1.7B 模型,核心要点如下:
base_url必须准确指向运行中的推理服务端点,通常是https://<pod-id>-8000.web.gpu.csdn.net/v1形式的 HTTPS 地址。api_key可设为"EMPTY",适用于未启用身份验证的本地或内网服务。- 利用
langchain_openai.ChatOpenAI可实现与 OpenAI 兼容接口的无缝对接,极大简化集成流程。 - 通过
extra_body和streaming参数,可解锁思维链推理、流式输出等增强功能。 - 实践中应结合环境变量管理配置,提升代码灵活性与安全性。
掌握这些基础配置原则后,开发者可快速将 Qwen3-1.7B 集成至各类 AI 应用中,包括智能客服、自动化报告生成、代码辅助等场景。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。