news 2026/2/9 9:56:17

基于Python代码构造的压力测试工具

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
基于Python代码构造的压力测试工具

Locust 是一个开源负载测试工具,通过 Python 形式的代码构造来定义用户行为,而不是与混乱的 UI 和臃肿的 XML 配置纠缠在一起。

先决条件

Python(+ pip 用于安装 locust 包

任何模拟负载测试的 HTTP 服务。(我们将创建一个小型 Spring Boot HTTP 服务作为本博客演示的一部分

演示 Spring Boot HTTP 服务

我们通过 Spring Boot 创建了一个简单的 REST API,如下所示,它有一个简单的端点/greet,它不执行 CPU 或 I/O 密集型工作,而只是返回一个字符串。该服务在端口 8080 上本地运行,我们将在该端口上执行负载测试。

示例 Spring Boot HTTP 代码

  1. import org.springframework.boot.SpringApplication;

  2. import org.springframework.boot.autoconfigure.SpringBootApplication;

  3. import org.springframework.web.bind.annotation.GetMapping;

  4. import org.springframework.web.bind.annotation.RestController;

  5. @SpringBootApplication

  6. public class SpringBootLoadServiceApplication {

  7. public static void main(String[] args) {

  8. SpringApplication.run(SpringBootLoadServiceApplication.class, args);

  9. }

  10. }

  11. @RestController

  12. class RandomResource {

  13. @GetMapping(value = "/greet")

  14. public String greet() {

  15. return "Locust Load Test.";

  16. }

  17. }

Locust设置

像往常一样,我们将创建并激活虚拟环境以避免将来使用时出现包冲突。

python -m venv virtualenv

激活虚拟环境:

source virtualenv/Scripts/activate.bat

设置虚拟环境后,我们将使用 pip 仅安装 locust 所需的软件包,如下所示:

pip install locust

安装locust后,验证以下是否显示版本以证明安装成功:

locust -V

如果如下所示,我们就可以开始使用 Locust 进行负载测试了。

Locust版本验证

设置 Locust 脚本文件

现在我们将编写一个 Python 代码(springboot_locust.py)来模拟负载测试,该测试将到达我们的本地端点,如下所示。

代码片段

  1. from locust import HttpUser, task, between #this is self-explanatory we importing required classes, function from locust module.

  2. class SpringBootUser(HttpUser): #Simulates a single Real-world User. HttpUser class is extended so we provide what task the user will do.

  3. '''this won't take effect in our scenario, as this attribute is optional and specify wait time randomly picked between parameters passed (1-3 seconds) between multiple @task executed. We have only one @task executed'''

  4. wait_time = between(1, 3)

  5. '''This is main core functionality of locust. @task are treated as a singel http request made.

  6. We can multiple have @task. In below we are going to hit /greet endpoint on our localhost'''

  7. @task

  8. def hello_world(self):

  9. self.client.get("/greet")

添加注释以确保代码是不言自明的。我们只是定义一个任务,一个任务是一个微线程的单次执行。我们也可以有多个任务,以模拟流程和权重来确定它们的执行顺序,否则它们将被随机选取。

现在我们将开始 Locust 测试,通过执行以下命令来启动 Locust Web UI:

locust -f springboot_locust.py

默认情况下,它将在端口 8089 上启动 Locust Web UI 并显示以下屏幕:

注意:我们不会看到太多的峰值,因为该服务不执行任何 I/O 或 CPU 密集型工作。但想法是看到一个小峰值来验证我们的服务负载测试。但是,我们可以添加 I/O 部分,以基于对本文的响应调用某些 HTTP 或 DB 的形式:)

执行负载测试

我们将执行 2 项测试,一项有 100 个用户,另一项有 1000 个用户。我们将每秒生成 5 个和 20 个用户,直到分别达到 100 和 1000 个最终用户目标。

100 个用户的负载,每秒生成 5 个用户

我们将在填充以下值后开始 Swarming:

Locust 扩展到 100 个用户,每个用户向 API 发送一个请求

从下面的图表中,我们可以看到,随着负载增加到 100 个用户,这没有什么区别,其中平均响应时间保持在 2 毫秒,而 95% 百分位响应时间约为 3 毫秒。因此我们可以看到,在处理 100 个用户请求时,用户没有出现任何峰值。

每个测试都有不同的选项卡,如下所示,用于显示测试的实时结果,并且大多数选项卡都是不言自明的。主要使用统计、图表(实时结果)和下载数据(用于共享测试后结果)。

每秒生成 20 个用户,负载 1000 个用户

我们现在将模拟 1000 个用户测试,但每秒生成 20 个用户,以获得用于博客目的的正确图表并查看服务的反应:

现在我们看到,有 1000 个用户正在使用我们的 API:

在查看下面的图表之前,我们会让服务承受几分钟的压力,以扩展到 1,000 个用户。
从下面的图表中,我们可以看到当我们的服务负载以用户增加和请求触发的形式增加时,Locust如何捕获响应时间。随着 API 负载的增加,我们看到中位数以及 95% 百分位响应时间有所增加。

下面的公告显示了用户扩展所增加的时间:

  • 对于少于400 个运行的用户,我们的中值响应时间为2 毫秒,95% 百分位数响应为5 毫秒

  • 对于少于450-675 名运行的用户,我们的中值响应时间为3 毫秒,95% 百分位数响应为7 毫秒

  • 对于少于750-1000 名运行的用户,我们的中位响应时间为4-5 毫秒,95% 百分位数响应为10-12 毫秒*

因此我们可以看到 Locust 如何提供实时图表来捕获服务的响应时间,这些服务根据负载生成的行为有所不同。显然,上述服务是一个虚拟服务,但在现实场景中,它将有助于识别在负载下行为异常的服务。然后可以通过分析工具进行传递,以便根据 locust 报告进行进一步分析。

可以在此处找到相同负载测试的报告。

显然,这只是一个主要用例,但Locust的用途远不止于此。上述内容可以帮助您在本地进行基本的单元负载测试,然后再在集成环境中进行测试。

除此之外,还有许多可用的自定义项,这些自定义项在文档中指定,下面的链接也是如此。

相关链接:

Locust官方网站:https://locust.io/

Locust文档:https://docs.locust.io/en/stable/

用于博客的完整源代码

https://github.com/cycorax12/locust-load-test

感谢每一个认真阅读我文章的人,礼尚往来总是要有的,虽然不是什么很值钱的东西,如果你用得到的话可以直接拿走:

这些资料,对于【软件测试】的朋友来说应该是最全面最完整的备战仓库,这个仓库也陪伴上万个测试工程师们走过最艰难的路程,希望也能帮助到你!有需要的小伙伴可以点击下方小卡片领取

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/7 21:37:34

5分钟让你搞懂Http和Https协议的区别是什么?

在互联网世界中,HTTP和HTTPS是我们日常接触最多的两个协议,它们在数据传输、安全性上存在重要区别。 无需花费太多时间,让我们简洁明了地了解HTTP和HTTPS的关键差异,为你揭开网络通信的奥秘。 一、什么是HTTP协议? …

作者头像 李华
网站建设 2026/2/7 4:25:28

30道软件测试基础面试题!(含答案)

1、你的测试职业发展是什么? 测试经验越多,测试能力越高。所以我的职业发展是需要时间积累的,一步步向着高级测试工程师奔去。而且我也有初步的职业规划,前 3 年积累测试经验,按如何做好测试工程师的要点去要求自己&a…

作者头像 李华
网站建设 2026/2/8 5:52:00

【Open-AutoGLM开源模型深度对比】:谁才是2024年最强AI引擎?

第一章:Open-AutoGLM哪个开源模型功能更强大在当前大语言模型快速发展的背景下,Open-AutoGLM作为一款面向自动化任务的开源语言模型,展现出卓越的理解与生成能力。其设计目标聚焦于复杂指令解析、多步推理以及端到端任务自动化,适…

作者头像 李华
网站建设 2026/2/4 6:04:02

从快手被黑产攻击看多模态大模型如何守护短视频内容安全

快手自研多模态大模型应用于短视频内容审核,构建了结合人工、传统AI和特定范式的通用审核框架。该框架通过离线阶段的后训练和策略微调将模型转化为视频审核员,在线阶段利用用户反馈进行策略迭代优化,测试表现优秀。官方还公开了包含标签、标…

作者头像 李华
网站建设 2026/2/5 3:35:07

TensorFlow预训练模型库全攻略:节省90%训练时间

TensorFlow预训练模型库全攻略:节省90%训练时间 在一家电商公司里,算法团队接到紧急需求:下个月新品类“户外露营装备”要上线,需要新增一个图像分类模型来自动识别帐篷、睡袋、炉具等商品。但数据只有3000张标注图,训…

作者头像 李华
网站建设 2026/2/7 9:20:07

为什么顶级企业都在用TensorFlow镜像进行AI开发?

为什么顶级企业都在用TensorFlow镜像进行AI开发? 在当今AI驱动的商业环境中,一个看似微小的技术决策——是否使用容器化环境来运行深度学习任务——往往决定了整个项目的成败。你有没有遇到过这样的场景:算法工程师本地训练好的模型&#xff…

作者头像 李华