首页 > 编程语言 >【Python】Locust持续优化:InfluxDB与Grafana实现数据持久化与可视化分析

【Python】Locust持续优化:InfluxDB与Grafana实现数据持久化与可视化分析

时间:2023-07-10 20:36:18浏览次数:51  
标签:Python Locust request influxdb InfluxDB time test

前言

在进行性能测试时,我们需要对测试结果进行监控和分析,以便于及时发现问题并进行优化。

Locust在内存中维护了一个时间序列数据结构,用于存储每个事件的统计信息。 这个数据结构允许我们在Charts标签页中查看不同时间点的性能指标,但是正因为Locust WebUI上展示的数据实际上是存储在内存中的。所以在Locust测试结束后,这些数据将不再可用。 如果我们需要长期保存以便后续分析测试数据,可以考虑将Locust的测试数据上报到外部的数据存储系统,如InfluxDB,并使用Grafana等可视化工具进行展示和分析。

本文将介绍如何使用Locust进行负载测试,并将测试数据上报到InfluxDB。同时,我们将使用Grafana对测试数据进行展示和分析。

最终效果:

image

influxDB

InfluxDB是一款开源的时间序列数据库,专为处理大量的时间序列数据而设计。时间序列数据通常是按照时间顺序存储的数据点,每个数据点都包含一个时间戳和一个或多个与之相关的值。这种数据类型在许多场景下都非常常见,如监控系统、物联网设备、金融市场数据等。在这些场景下,数据上报是一种关键的需求,因为它可以帮助我们实时了解系统的状态和性能。

注: InfluxDB 开源的时单机版本,集群版本并未开元,但是对于普通用户的日常场景已经完全够用。

以下是关于InfluxDB的关键特性和优势的表格:

特性 优势
高性能 针对时间序列数据进行了优化,可以快速地写入和查询大量数据。
数据压缩 使用了高效的数据压缩算法,在磁盘上节省大量空间。
自带查询语言 具有一种名为InfluxQL的查询语言,类似于SQL,便于查询和分析数据。
数据保留策略 支持设置数据保留策略,可以自动清除过期的数据。
易于集成 具有丰富的API和客户端库,可以轻松地与其他系统和工具集成。

安装运行InfluxDB

如果你已经安装了Docker,可以直接使用官方的InfluxDB镜像来运行InfluxDB:

docker run -p 8086:8086 -v $PWD:/var/lib/influxdb influxdb:1.8

此命令将在Docker容器中启动InfluxDB,并将主机上的8086端口映射到容器的8086端口。

点击查看在如何在不同操作系统中如何安装 InfluxDB

InfluxDB的安装方法因操作系统而异。以下是针对不同操作系统的InfluxDB安装指南:

在Ubuntu上安装InfluxDB

  1. 导入InfluxDB的GPG key并添加仓库:
wget -qO- https://repos.influxdata.com/influxdb.key | sudo gpg --dearmor -o /usr/share/keyrings/influxdb-archive-keyring.gpg
echo "deb [signed-by=/usr/share/keyrings/influxdb-archive-keyring.gpg] https://repos.influxdata.com/debian $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/influxdb.list
  1. 更新仓库并安装InfluxDB:
sudo apt-get update
sudo apt-get install influxdb
  1. 启动InfluxDB服务:
sudo systemctl unmask influxdb.service
sudo systemctl start influxdb
  1. 设置开机启动:
sudo systemctl enable influxdb

在CentOS/RHEL上安装InfluxDB

  1. 创建InfluxDB仓库文件:
sudo vi /etc/yum.repos.d/influxdb.repo
  1. 将以下内容添加到仓库文件中:
[influxdb]
name = InfluxDB Repository - RHEL \$releasever
baseurl = https://repos.influxdata.com/rhel/\$releasever/\$basearch/stable
enabled = 1
gpgcheck = 1
gpgkey = https://repos.influxdata.com/influxdb.key
  1. 安装InfluxDB:
sudo yum install influxdb
  1. 启动InfluxDB服务:
sudo systemctl start influxdb
  1. 设置开机启动:
sudo systemctl enable influxdb

在macOS上安装InfluxDB

使用Homebrew安装InfluxDB:

brew install influxdb

启动InfluxDB服务:

brew services start influxdb

更多关于InfluxDB安装的详细信息,请参考官方文档:https://docs.influxdata.com/influxdb/v2.1/install/

使用Python 上报数据到influxdb

首先,确保已经安装了influxdb库:

pip install influxdb

然后,使用以下代码上报数据到InfluxDB:
以下是一个使用Python操作InfluxDB上报数据的示例,对照MySQL进行注释:

import time
from influxdb import InfluxDBClient

# 连接到InfluxDB(类似于连接到MySQL数据库)
client = InfluxDBClient(host='localhost', port=8086)

# 创建数据库(类似于在MySQL中创建一个新的数据库)
client.create_database('mydb')

# 切换到创建的数据库(类似于在MySQL中选择一个数据库)
client.switch_database('mydb')

# 上报数据(类似于在MySQL中插入一条记录)
data = [
    {
        # 在InfluxDB中,measurement相当于MySQL中的表名
        "measurement": "cpu_load",
        # tags相当于MySQL中的索引列,用于快速查询
        "tags": {
            "host": "server01",
            "region": "us-west"
        },
        # time为时间戳,是InfluxDB中的关键字段
        "time": int(time.time_ns()),
        # fields相当于MySQL中的数据列,用于存储实际的数据值
        "fields": {
            "value": 0.64
        }
    }
]

# 写入数据(类似于在MySQL中执行INSERT语句)
client.write_points(data)

在这个示例中,我们首先连接到InfluxDB(类似于连接到MySQL数据库),然后创建一个名为mydb的数据库(类似于在MySQL中创建一个新的数据库),并切换到创建的数据库(类似于在MySQL中选择一个数据库)。接着,我们准备了一条名为cpu_load的数据(在InfluxDB中,measurement相当于MySQL中的表名),并为数据添加了hostregion标签(类似于MySQL中的索引列)。最后,我们将数据写入到InfluxDB中(类似于在MySQL中执行INSERT语句)。

执行上面的代码后我们可以看到我们的操作成功了:
image

如果我们安装了influx-cli就可以在命令行中直接查询刚才写入的数据:

bingohe@MacBook-Pro ~ $ /usr/local/Cellar/influxdb@1/1.11.1/bin/influx 
Connected to http://localhost:8086 version 1.8.10
InfluxDB shell version: 1.11.1
> show databases;
name: databases
name
----
_internal
mydb
> use mydb
Using database mydb
> show measurements;
name: measurements
name
----
cpu_load
> select * from cpu_load;
name: cpu_load
time                host     region  value
----                ----     ------  -----
1688874870046897000 server01 us-west 0.64

image

点击查看如何使用命令行访问InfluxDB

要通过命令行访问InfluxDB,你可以使用InfluxDB的命令行客户端工具influx。以下是安装influx客户端并通过命令行访问InfluxDB的步骤:

对于InfluxDB 1.x

  1. 安装influx客户端:
  • 在Ubuntu上:
sudo apt-get install influxdb-client
  • 在CentOS/RHEL上:
sudo yum install influxdb
  • 在macOS上:
brew install influxdb@1
  1. 使用influx客户端连接到InfluxDB:
influx -host localhost -port 8086

这将连接到运行在localhost上的InfluxDB实例,端口为8086。你现在应该进入了InfluxDB的命令行界面,可以执行InfluxQL查询和管理操作。

对于InfluxDB 2.x

  1. 安装influx客户端:
  • 在Ubuntu上:
wget https://dl.influxdata.com/influxdb/releases/influxdb2-client-2.3.0-linux-amd64.tar.gz
tar xvfz influxdb2-client-2.3.0-linux-amd64.tar.gz
sudo cp influxdb2-client-2.3.0-linux-amd64/influx /usr/local/bin/
  • 在CentOS/RHEL上:
wget https://dl.influxdata.com/influxdb/releases/influxdb2-client-2.3.0-linux-amd64.tar.gz
tar xvfz influxdb2-client-2.3.0-linux-amd64.tar.gz
sudo cp influxdb2-client-2.3.0-linux-amd64/influx /usr/local/bin/
  • 在macOS上:
brew install influxdb@2
  1. 使用influx客户端连接到InfluxDB:
influx -host localhost -port 8086 -t your_token -o your_organization

这将连接到运行在localhost上的InfluxDB实例,端口为8086。同时,你需要提供你的令牌(token)和组织(organization)以进行身份验证和授权。你现在应该进入了InfluxDB的命令行界面,可以执行InfluxQL查询和管理操作。

命令行连接 influxdb

inlfux 默认执行的时,在macOS上,你可以通过以下命令找到InfluxDB 1.x的命令行工具:

brew list influxdb@1

image

在输出中,找到名为influx的可执行文件,它应该位于bin目录下。然后,使用完整路径来运行influx命令行工具,例如:

/usr/local/Cellar/influxdb@1/1.8.10/bin/influx -host localhost -port 8086

请注意,上述路径可能因InfluxDB版本和安装位置的不同而有所不同。请根据实际情况进行调整。

Locust 数据写入到 influx

【Python】万字长文,Locust 性能测试指北(上) 中我们提到过Locust的生命周期,我们也通过Locust生命周期实现了集合点的功能。现在我们一起来通过它实现测试数据的实时展示。

Locust的生命周期

点击查看Locust的生命周期 sequenceDiagram participant S as Script participant L as Locust Note over S, L: Test Starts S->>L: test_start L->>S: on_test_start Note over S, L: Spawning Users S->>L: spawning_start L->>S: on_spawning_start loop for each user S->>L: user_add L->>S: on_user_add end S->>L: spawning_complete L->>S: on_spawning_complete Note over S, L: Running Test loop for each request S->>L: request L->>S: on_request end Note over S, L: Test Stops S->>L: test_stop L->>S: on_test_stop
  1. test_start:测试开始时触发。
  2. spawning_start:生成用户时触发。
  3. user_add:每个用户被添加时触发。
  4. spawning_complete:所有用户生成完成时触发。
  5. request:每个请求发生时触发。
  6. test_stop:测试停止时触发。

上报数据

我们先来看看常用的事件里面可以获取到的数据:

import time
from locust import HttpUser, task, between, events


@events.request.add_listener
def request_handler(*args, **kwargs):
    print(f"request args: {args}")
    print(f"request kwargs: {kwargs}")


@events.worker_report.add_listener
def worker_report_handlers(*args, **kwargs):
    print(f"worker_report args: {args}")
    print(f"worker_report kwargs: {kwargs}")


@events.test_start.add_listener
def test_start_handlers(*args, **kwargs):
    print(f"test_start args: {args}")
    print(f"test_start kwargs: {kwargs}")


@events.test_stop.add_listener
def test_stop_handlers(*args, **kwargs):
    print(f"test_stop args: {args}")
    print(f"test_stop kwargs: {kwargs}")


class QuickstartUser(HttpUser):
    wait_time = between(1, 2)

    @task
    def root(self):
        with self.client.get("/", json={"time": time.time()}, catch_response=True) as rsp:
            rsp_json = rsp.json()
            if rsp_json["id"] != 5:
                # 失败时上报返回的数据
                rsp.failure(f"{rsp_json}")

运行一次测试时能看到这些生命周期内的Locust 对外暴露的数据:

test_start args: ()
test_start kwargs: {'environment': <locust.env.Environment object at 0x10c426c70>}
request args: ()
request kwargs: {'request_type': 'GET', 'response_time': 2.6886250000011103, 'name': '/', 'context': {}, 'response': <Response [200]>, 'exception': None, 'start_time': 1688888321.896039, 'url': 'http://0.0.0.0:10000/', 'response_length': 8}
request args: ()
request kwargs: {'request_type': 'GET', 'response_time': 2.735957999998817, 'name': '/', 'context': {}, 'response': <Response [200]>, 'exception': CatchResponseError("{'id': 6}"), 'start_time': 1688888323.421389, 'url': 'http://0.0.0.0:10000/', 'response_length': 8}
test_stopping args: ()
test_stopping kwargs: {'environment': <locust.env.Environment object at 0x10c426c70>}
test_stop args: ()
test_stop kwargs: {'environment': <locust.env.Environment object at 0x10c426c70>}

从上面的监控我们可以看到,每次任务启动和停止的时候会分别调用@events.test_start.add_listener@events.test_stop.add_listener装饰的函数,每次请求发生的的时候都会调用@events.request.add_listener 监听器装饰的函数,我们就是要利用这一点来进行数据的上报。

通过查看 Locust 的 EventHook 源码注释我们可以看到标准的使用方法:

#.../site-packages/locust/event.py
...
class EventHook:
    """
    Simple event class used to provide hooks for different types of events in Locust.

    Here's how to use the EventHook class::

        my_event = EventHook()
        def on_my_event(a, b, **kw):
            print("Event was fired with arguments: %s, %s" % (a, b))
        my_event.add_listener(on_my_event)
        my_event.fire(a="foo", b="bar")

    If reverse is True, then the handlers will run in the reverse order
    that they were inserted
    """
...

结合前面的写数据到 influxDB的实现,上报数据这一项一下子就变简单了:

简单实现每次请求数据上报 到 influxDB

下面的代码运行Locust测试后会自动创建一个locust_requestsmeasurement,然后将每次请求的数据上报。

运行方法可以参考:【Python】万字长文,Locust 性能测试指北(上)

import time
from datetime import datetime
from influxdb import InfluxDBClient

from locust import HttpUser, task, between, events

client = InfluxDBClient(host='localhost', port=8086, database="mydb")

def request(request_type, name, response_time, response_length, response, context, exception, url, start_time):
    _time = datetime.utcnow()
    was_successful = True
    if response:
        was_successful = 199 < response.status_code < 400
    tags = {
        'request_type': request_type,
        'name': name,
        'success': was_successful,
        'exception': str(exception),
    }
    fields = {
        'response_time': response_time,
        'response_length': response_length,
    }
    data = {"measurement": 'locust_requests', "tags": tags, "time": _time, "fields": fields}
    client.write_points([data])

# 在每次请求的时候通过前面定义的request函数写数据到 DB
events.request.add_listener(request)


class QuickstartUser(HttpUser):
    wait_time = between(1, 2)

    @task
    def root(self):
        with self.client.get("/", json={"time": time.time()}, catch_response=True) as rsp:
            rsp_json = rsp.json()
            if rsp_json["id"] != 5:
                rsp.failure(f"{rsp_json}")

上报的数据 influxDB 中查询到:
image

优化升级

上面的这个上报很粗糙,每次请求会上报一次数据,会影响实际的压测,如果我们将要上报的数据放在一个数据结构中中,异步的上报这个数据将极大的提升性能

# 将 __flush_points 方法中的写入操作放到一个单独的线程中,避免阻塞主线程,提高性能。
self.write_thread = threading.Thread(target=self.__write_points_worker)

# 批量写入
if len(self.write_batch) >= self.batch_size or time.time() - self.last_flush_time >= self.interval_ms / 1000:

# 使用 gzip 压缩上报的数据
influxdb_writer = InfluxDBWriter('localhost', 8086, 'mydb', batch_size=1000, gzip_enabled=True)
...

配置Grafana

在测试数据被上报到InfluxDB之后,可以通过Grafana进行数据展示和分析。需要先在Grafana中配置InfluxDB数据源,然后创建相应的图表和仪表盘。

在创建图表和仪表盘时,可以选择InfluxDB作为数据源,并使用InfluxQL查询语言进行数据查询和过滤。可以根据需要选择不同的图表类型和显示方式,以展示测试结果数据的趋势和变化。

配置过程可以参考这篇博客【Docker】性能测试监控平台搭建:InfluxDB+Grafana+Jmeter+cAdvisor

总结

本文介绍了如何将Locust测试数据上报到InfluxDB,并通过Grafana进行展示和分析。通过将测试数据与监控工具相结合,可以更好地了解系统的性能和稳定性,及时发现问题并进行优化,也可以方便后续进行测试数据分析。希望本文能对大家有所帮助。

标签:Python,Locust,request,influxdb,InfluxDB,time,test
From: https://www.cnblogs.com/Detector/p/17538422.html

相关文章

  • python遍历tk菜单项的名字
    直接上代码:fromtkinterimport*defprint_menu_items(menu):num_items=menu.index('end')#最后一个菜单项的索引forindexinrange(num_items+1):#遍历所有的菜单项item_type=menu.type(index)#获取菜单项的类型#菜单项的......
  • python2.2
     制表位8个字节 1个字2个字节1个字节8位1个bit是1个2进制位,1个byte即1B,是1个字节。1B=8b   ord()将字符转换为Unicode编码,chr()将Unicode编码转换为字符eval()忽略‘’和“”#eval()运行时会忽略‘’和“”print('字符串索引与切片')print(eval('字符串索引与切片......
  • python3使用pip安装wordcloud报错error: Microsoft Visual C++ 14.0 or greater is re
    背景:使用的是Anaconda集成环境,python版本是:3.10,安装wordcloud包,使用的命令是:pipinstallwordcloud,出现报错:error:MicrosoftVisualC++14.0orgreaterisrequired.Getitwith"MicrosoftC++BuildTools":https://visualstudio.microsoft.com/visual-cpp-build-tools/......
  • aardio桌面软件开发 简单,打包后文件小,支持 .net python 和 众多插件
    aardio编程语言-官网 aardio ......
  • python的安装
    一、python的下载和安装官网:https://www.python.org/我的电脑是windows,点击windows.根据自己的电脑安装不同的版本有不同的版本,不建议安装最新版推荐3.8.6和3.8.8根据自己的电脑安装32位或64位,64位可安装32位的软件。下载好之后,双击安装包勾选AddPython3.8toPATH......
  • python图片去重复算法
    importosfromimagededup.methodsimportPHash#pipinstallimagededupphasher=PHash()defprocess_file(img_path):#生成图像目录中所有图像的二值hash编码encodings=phasher.encode_images(image_dir=img_path)duplicates=phasher.find_duplica......
  • Python 实现 ThreadLocal
    importthreadingfromthreadingimportget_identimporttimeclassContext:def__init__(self):object.__setattr__(self,'__global_context__',dict())object.__setattr__(self,'__get_ident__',get_ident)def......
  • python 执行超时装饰器
    代码:importsignalclassTimeoutError(Exception):passdeftimeout(seconds=10,error_message='Timeout'):defdecorator(func):defwrapper(*args,**kwargs):def_handle_timeout(signum,frame):raiseTi......
  • Python的日志
    Python的日志,看上去啰啰嗦嗦的。请大神写了个通俗易懂简单方便通用的日志:importlogging#配置日志记录级别和输出方式logging.basicConfig(level=logging.DEBUG,filename='mylog.log',filemode='w',format='%(asctime)s-%(levelname)s-%(message)s')deflog_exceptio......
  • 西门子免授权CNC数控系统数据采集c#、C、python都支持,可支持再各种操作系统上运行,无须
    西门子数控系统数据采集方案(无需OPC授权方案)西门子数控系统4.5版本及以上集成了工业协议OPCUA,用户可通过OPCUA协议进行设备的数据采集,但是需要西门子授权,而且仅支持828d,828dsl,840dsl本协议可通过原生TCP数据包和数控系统进行通讯,支持各种类型开发语言和操作平台。  西门......