news 2026/5/11 3:35:15

Qwen3模型vLLM并行配置性能测试:从0.6B到32B的最佳实践指南!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Qwen3模型vLLM并行配置性能测试:从0.6B到32B的最佳实践指南!

简介

文章对Qwen3系列模型(0.6B-32B)在vLLM不同并行配置(PP、TP)下进行了性能测试。研究表明,PCIe多卡环境下,若模型可单卡部署,推荐数据并行(DP)以获得最大吞吐;若关注吞吐量,推荐流水线并行(PP);若关注请求生成速度,推荐张量并行(TP)。小模型更适合PP,大模型则TP与PP性能差距缩小,且不同策略对首字延迟和每Token延迟有不同影响。


突然想试一下 Qwen3 不同模型和 vllm 不同流水线并行(PP,Pipeline Parallel),张量并行(TP,Tensor Parallel)配置的性能情况,所以做了些测试。

一、实验准备

测试环境:4 * RTX 3090 with PCIe3.0x16

vllm 0.10.2

  • 单卡
  • 双卡:2TP,2PP
  • 四卡:4TP,4PP,2TP-2PP
  • 并发量:1,4,16,64,256,512,1024

测试模型:

  • Qwen3-0.6B ~ Qwen3-32B
  • Qwen3-4B-AWQ~Qwen3-32B-AWQ

测试数据:shareGPT-v3

二、测试结果

(1)每个模型的最大吞吐

吞吐的排名基本和参数量/占用显存量正相关,不过有 1.7B 和 32B-AWQ 两个特例。

各模型达到的最大吞吐

可以看出,在没有 nvlink 等高速互联的情况下,多卡并行推理得到的加速比很不线性,收益很小。

所以对于 PCIe 多卡互联的设备,如果单卡能放下一整个模型+一定的 KV Cache 空间,每张卡部署一个模型以 DP 的方式并行可能更高效。

各模型最大吞吐量随卡数的变化

(2)不同并行配置对吞吐的影响

双卡下普遍是 PP>TP,因为 PP 每次推理只要在两张卡中间传递一次 hidden states,对通讯的要求较低,而TP每次推理的每一层,都要进行通讯,对通讯要求较高,拖慢了最大吞吐。

双卡下不同并行策略的最大吞吐

四卡下,小模型依然更使用 PP,因为模型的每个矩阵本身较小,再通过张量并行进行拆分,可能吃不满显卡的计算性能了,而随着模型参数增大,TP 和 PP 的差距逐渐缩小。

(3)不同并行配置对首字延迟(TTFT,Time to First Token)的影响

TTFT 为 prefill 的延迟,属于计算稠密的 compute bound 任务,在高并发下,对通讯要求更少的 PP 更能吃满计算性能。

双卡下首字延迟中位数

(4)不同并行配置对每 Token 延迟(TPOT,Time per Output Token)的影响

在 decoding 阶段为 IO 稠密的 memory bound 任务,流水线并行对单个推理的延迟没有提升,反而增加了卡间通讯的开支,而 TP 把每层的 KV Cache 和模型权重的读取都均分到了每张卡上,减少平均 IO 降低了延迟。

双卡下每 token 延迟

四卡下每 token 延迟

三、结论

在只有 PCIe 互联的多卡设备上:

  • 如果模型能在单卡内放下,推荐直接每张卡单独部署模型进行数据并行(DP,Data Parallel)来获得最大吞吐。
  • 如果比较在意吞吐量,更推荐使用流水线并行(PP)
  • 如果更在意单个请求的生成速度,更推荐使用张量并行(TP)

读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

😝一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段:从大模型系统设计入手,讲解大模型的主要方法;

第二阶段:在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段:大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段:大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段:大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段:以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段:以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

👉大模型视频和PDF合集👈

观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求:大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能,学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力:大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/8 11:16:47

构建软件质量防线:测试缺陷的系统性预防措施

在快速迭代的软件开发环境中,缺陷发现得越晚,修复成本就呈指数级增长。研究表明,生产环境中发现的缺陷其修复成本是编码阶段发现的100倍以上。因此,现代软件测试已从单纯的缺陷检测向缺陷预防演进,致力于在缺陷产生前构…

作者头像 李华
网站建设 2026/5/8 17:21:57

构建高效可持续的自动化测试框架:从架构设计到落地实践

随着敏捷开发与DevOps实践的普及,自动化测试已成为保障软件质量的核心环节。2025年的今天,现代应用架构正朝着微服务、云原生和智能化的方向演进,这对测试框架的适应性、可维护性和扩展性提出了更高要求。一个设计良好的自动化测试框架不仅能…

作者头像 李华
网站建设 2026/5/9 16:58:20

自动化测试维护策略:构建可持续的测试资产

随着敏捷开发和DevOps实践的普及,自动化测试已成为软件质量保障的核心环节。然而,许多团队在享受自动化测试带来的效率提升时,却面临着测试用例老化、维护成本飙升、ROI持续下降的困境。据统计,超过60%的自动化测试失败并非源于产…

作者头像 李华
网站建设 2026/4/22 5:58:14

二叉树的相关知识以及代码实现(Java)

一、二叉树的定义与基本概念二叉树是一种非线性数据结构,每个节点最多包含 2 个子节点(左子节点、右子节点),核心特点:(1)每个节点的子树数量不超过 2;(2)左、…

作者头像 李华
网站建设 2026/5/7 2:45:35

pandas基础操作

文章目录 1. Series 与 DataFrame2. 数据查看与基本信息获取3. 数据选择与筛选4. 数据清洗与预处理5. 数据排序与重置索引6. 数据分组与聚合分析7. 数据合并 1. Series 与 DataFrame Series:一维带标签数组,类似于 Excel 中的单列数据 import pandas a…

作者头像 李华