news 2026/2/9 8:08:35

Jenkins+Jmeter集成自动化接口测试并通过邮件发送测试报告

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Jenkins+Jmeter集成自动化接口测试并通过邮件发送测试报告
一、Jenkins的配置

1、新增一个自由风格的项目

2、构建->选择Excute Windows batch command(因为我是在本地尝试的,因此选择的windows)

3、输入步骤:

1. 由于不能拥有相同的jtl文件,因此在每次构建前都需要删除jtl文件

2. 存放jmeter生成的报告文件夹必须为空,因此每次构建前也删除文件夹并创建新的报告文件夹

3. 非GUI模式下,执行jmeter文件并生成jtl文件和HTML报告

del %JOB_BASE_NAME%.jtl #删除每次构建生成的jtl文件

del %JOB_BASE_NAME%.log #删除每次构建生成的日志文件

rd /s /q %jmeter_home%\report #删除存放jmeter报告的文件夹

md %jmeter_home%\report #创建新的存放jmeter报告的文件夹

jmeter -n -t E:\BaiduNetdiskDownload\wechat-maidian.jmx -l %WORKSPACE%\%JOB_BASE_NAME%.jtl -e -o %jmeter_home%\report #执行jmeter文件并生成jtl文件和HTML报告

jmeter -n -t '要执行的jmeter文件路径' -l '生成的jtl文件存放路径' -e -o '生成的jmeter测试报告存放路径'

PS:注意!以上书写的内容仅做参考,具体内容根据实际情况书写

4、构建后的操作:选择Publish Performance test result report(如果没有这个选项的需要先安装performance插件)

5、邮箱的配置:选择构建后操作->Editable Email Notification

6、设置发送邮件触发机制,这里我选择的是Always;无论构建结果如何都发送邮件

7、一系列配置好后保存构建即可。

8、使用Publish Performance test result report这个产生的结果就是在右侧会多出一个performance

Trend(表格里中文乱码的问题我也不知道怎么回事,还没研究)

PS: Publish Performance test result report这个组件其实我在实验过程中我觉得没必要,学习时是看到别人网上的文章说这么做的,因此我也这么做了,其实还需要一个插件Publish HTML配合Publish Performance test result report使用;但是我下载安装会报错,目前还未得以解决。

二、Jmeter的配置
1、准备好一个jmx测试文件。

2、不必打开jmeter客户端。使用jenkins来执行脚本就是需要jmeter在非GUI模式下执行jmeter脚本的。

三、邮箱具体的配置
邮箱的具体配置在我的另一篇文章中详细说明了。

四、jmeter生成HTML报告的配置
Jmeter生成HTML报告的具体配置在我的另一篇文章中详细说明了。

最后作为一位过来人也是希望大家少走一些弯路,在这里我给大家分享一些软件测试的学习资料,这些资料希望能给你前进的路上带来帮助。

视频文档获取方式:
这份文档和视频资料,对于想从事【软件测试】的朋友来说应该是最全面最完整的备战仓库,这个仓库也陪伴我走过了最艰难的路程,希望也能帮助到你!以上均可以分享,点下方小卡片即可自行领取。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/9 0:25:10

手把手教你EIDE(2)——新建并导入AT89C51工程

1.打开KEIL软件,新建工程;2.选择工程路径和设置工程名称,点击保存;3.下拉选择Legace Device...这个选项;4.在下方的搜索框中搜索AT89C51,选中对应芯片后点击OK;5.选择是6.保存工程然后就可以关闭…

作者头像 李华
网站建设 2026/2/8 17:21:06

diskinfo监控GPU服务器硬盘状态,保障PyTorch-CUDA-v2.7稳定运行

diskinfo监控GPU服务器硬盘状态,保障PyTorch-CUDA-v2.7稳定运行 在现代AI研发环境中,一个训练任务动辄持续数天甚至数周,数据量动辄上百GB。一旦因硬件问题导致中断,不仅浪费了宝贵的GPU计算资源,更可能让研究人员前功…

作者头像 李华
网站建设 2026/2/8 9:10:40

conda create env太慢?切换至PyTorch-CUDA-v2.7容器秒级启动

从 conda create 到容器化:为什么 PyTorch-CUDA 容器能实现秒级启动 在深度学习项目中,你是否经历过这样的场景?刚拿到一台新服务器,兴致勃勃地准备跑通第一个模型,结果卡在了第一步——执行 conda create -n pytorch…

作者头像 李华
网站建设 2026/2/8 16:19:28

基于51单片机的智能抽奖系统控制设计

**单片机设计介绍,基于51单片机的智能抽奖系统控制设计 文章目录一 概要二、功能设计设计思路三、 软件设计原理图五、 程序六、 文章目录一 概要 基于51单片机的智能抽奖系统控制设计旨在通过电子技术实现抽奖过程的自动化和智能化,以提高抽奖活动的效率…

作者头像 李华
网站建设 2026/2/8 6:03:44

transformer模型蒸馏实战:基于PyTorch-CUDA-v2.7加速小模型训练

Transformer模型蒸馏实战:基于PyTorch-CUDA-v2.7加速小模型训练 在当今AI应用快速落地的背景下,大模型虽强,却往往“跑不动”——部署成本高、推理延迟大、资源消耗惊人。尤其是在移动端、边缘设备或实时服务场景中,一个千亿参数…

作者头像 李华
网站建设 2026/2/8 16:18:27

PyTorch-CUDA-v2.7镜像启用CUDA Graph,减少内核启动开销

PyTorch-CUDA-v2.7镜像启用CUDA Graph,减少内核启动开销 在现代深度学习系统中,GPU已成为训练和推理的绝对主力。然而,即便拥有A100、H100这样的顶级算力硬件,许多团队仍会发现实际吞吐远低于理论峰值——问题往往不在于模型本身&…

作者头像 李华