首页 > 其他分享 >kafka学习之五_多个磁盘的性能验证

kafka学习之五_多个磁盘的性能验证

时间:2023-06-24 15:11:39浏览次数:41  
标签:latency -- kafka records sec ms 之五 磁盘 config

kafka学习之五_多个磁盘的性能验证


背景

周末在家学习kafka 
上午验证了grafana+kafka_exporter的监控
下午想着验证一把性能相关. kafka学习之三里面,有成套的脚本. 
我这边想起来之前还有一个机器, 是四个单盘HDD, 我可以直接进行使用和验证. 

测试思路

计划创建四个partition的topic进行测试
首先仅使用第一个磁盘进行验证
测试完删除掉, 重新初始化, log,dirs 增加多个分区的的挂载路径. 
然后进行相关的测试验证

测试结果分析

自己尝试进行了一些验证. 
发现1块磁盘和四块磁盘, 如果使用一个producer-perf 进行测试时, 测试结果差异性不是很大. 
可能跟CPU和磁盘的性能压力都有关系. 

如果开启多个topic, 同时使用多个 producer-perf进行测试时. 总体的吞吐量, 四块硬盘比一块硬盘大约高50%
压测的通知开启 iostat 验证
单盘时压力都在 sdc 上面
四块盘时 压力其实不是非常平均, 这也是造成压测结果不是线性提升的很大原因. 
单盘时四个topic 同时压测.总计为: 96.99
四盘时四个topic 同时压测.总计为: 140.78

总体的性能比率为: 45%

磁盘信息

/dev/sdc                ext4      1.8T  539G  1.2T   31% /hdd1
/dev/sdf                xfs       1.9T  4.6G  1.9T    1% /hdd4
/dev/sde                xfs       1.9T  1.9G  1.9T    1% /hdd3
/dev/sdd                xfs       1.9T  380G  1.5T   21% /hdd2

配置文件的差异

第一次测试时:
log.dirs=/hdd1/kafkahdd
第二次测试时
log.dirs=/hdd1/kafkahdd2,/hdd2/kafkahdd2,/hdd3/kafkahdd2,/hdd4/kafkahdd2
注意: 如果是四个目录时 会这样:
Formatting /hdd1/kafkahdd2 with metadata.version 3.5-IV2.
Formatting /hdd2/kafkahdd2 with metadata.version 3.5-IV2.
Formatting /hdd3/kafkahdd2 with metadata.version 3.5-IV2.
Formatting /hdd4/kafkahdd2 with metadata.version 3.5-IV2.

初始化和创建topic

cd /root/kafka_2.13-3.5.0
bin/kafka-server-stop.sh  config/kraft/server.properties
bin/kafka-storage.sh format -t 7ONT3dn3RWWNCZyIwLrEqg  -c config/kraft/server.properties
bin/kafka-server-start.sh -daemon  config/kraft/server.properties
bin/kafka-topics.sh --create  --command-config config/sasl.conf  --replication-factor 1 --partitions 4 --topic zhaobsh01 --bootstrap-server 127.0.0.1:9093 

测试命令

# 生产者测试
bin/kafka-producer-perf-test.sh  --num-records 200000  --record-size 1024 --throughput -1 --producer.config config/sasl.conf  --topic zhaobsh01  --print-metrics --producer-props bootstrap.servers=127.0.0.1:9093
# 单盘时的测试结果
200000 records sent, 36812.074360 records/sec (35.95 MB/sec), 638.59 ms avg latency, 950.00 ms max latency, 680 ms 50th, 899 ms 95th, 937 ms 99th, 946 ms 99.9th.
# 四盘时的测试结果
200000 records sent, 36172.906493 records/sec (35.33 MB/sec), 646.08 ms avg latency, 971.00 ms max latency, 705 ms 50th, 909 ms 95th, 952 ms 99th, 968 ms 99.9th.

# 消费者测试
bin/kafka-consumer-perf-test.sh  --fetch-size 10000 --messages 2000000   --topic zhaobsh01 --consumer.config config/sasl.conf   --print-metrics --bootstrap-server 127.0.0.1:9093
# 单盘时的测试结果
2023-06-24 14:03:49:723, 2023-06-24 14:04:13:453, 195.3125, 8.2306, 200000, 8428.1500, 4282, 19448, 10.0428, 10283.8338
# 四盘时的测试结果
2023-06-24 14:14:20:733, 2023-06-24 14:14:44:324, 195.3125, 8.2791, 200000, 8477.8093, 4889, 18702, 10.4434, 10694.0434

# 增加四盘时 增加io_threads 到16, network到6 
# 生产者测试
200000 records sent, 37622.272385 records/sec (36.74 MB/sec), 589.76 ms avg latency, 889.00 ms max latency, 587 ms 50th, 843 ms 95th, 876 ms 99th, 885 ms 99.9th.
# 消费者测试
2023-06-24 14:25:03:258, 2023-06-24 14:25:26:604, 195.3125, 8.3660, 200000, 8566.7780, 3779, 19567, 9.9817, 10221.2909

四个topic同时测试时的情况

# 单一磁盘时
grep -ir "200000 records sent"
1.txt:200000 records sent, 24573.043371 records/sec (24.00 MB/sec), 977.14 ms avg latency, 1330.00 ms max latency, 995 ms 50th, 1263 ms 95th, 1313 ms 99th, 1324 ms 99.9th.
2.txt:200000 records sent, 24919.013207 records/sec (24.33 MB/sec), 966.64 ms avg latency, 1309.00 ms max latency, 1001 ms 50th, 1247 ms 95th, 1289 ms 99th, 1304 ms 99.9th.
3.txt:200000 records sent, 24479.804162 records/sec (23.91 MB/sec), 940.11 ms avg latency, 1281.00 ms max latency, 992 ms 50th, 1244 ms 95th, 1268 ms 99th, 1276 ms 99.9th.
4.txt:200000 records sent, 25348.542459 records/sec (24.75 MB/sec), 847.37 ms avg latency, 1425.00 ms max latency, 821 ms 50th, 1274 ms 95th, 1328 ms 99th, 1335 ms 99.9th.

# 四块磁盘时
grep -ir "200000 records sent"
1.txt:200000 records sent, 38044.512079 records/sec (37.15 MB/sec), 545.91 ms avg latency, 895.00 ms max latency, 572 ms 50th, 653 ms 95th, 663 ms 99th, 667 ms 99.9th.
2.txt:200000 records sent, 34668.053389 records/sec (33.86 MB/sec), 621.67 ms avg latency, 868.00 ms max latency, 658 ms 50th, 810 ms 95th, 847 ms 99th, 851 ms 99.9th.
3.txt:200000 records sent, 37383.177570 records/sec (36.51 MB/sec), 584.06 ms avg latency, 828.00 ms max latency, 594 ms 50th, 747 ms 95th, 761 ms 99th, 767 ms 99.9th.
4.txt:200000 records sent, 34059.945504 records/sec (33.26 MB/sec), 562.29 ms avg latency, 1297.00 ms max latency, 566 ms 50th, 796 ms 95th, 808 ms 99th, 812 ms 99.9th.

四个topic同时测试时的情况-第二次测试(提升有限)

# 单一磁盘时
grep -ir "800000 records sent"
1.txt:800000 records sent, 42413.317782 records/sec (41.42 MB/sec), 617.73 ms avg latency, 1633.00 ms max latency, 574 ms 50th, 926 ms 95th, 1613 ms 99th, 1630 ms 99.9th.
2.txt:800000 records sent, 42753.313382 records/sec (41.75 MB/sec), 619.57 ms avg latency, 1315.00 ms max latency, 586 ms 50th, 939 ms 95th, 1301 ms 99th, 1310 ms 99.9th.
3.txt:800000 records sent, 45300.113250 records/sec (44.24 MB/sec), 571.20 ms avg latency, 1321.00 ms max latency, 564 ms 50th, 841 ms 95th, 1299 ms 99th, 1315 ms 99.9th.
4.txt:800000 records sent, 43773.254541 records/sec (42.75 MB/sec), 596.18 ms avg latency, 1329.00 ms max latency, 570 ms 50th, 931 ms 95th, 1320 ms 99th, 1326 ms 99.9th.

# 四块磁盘时
grep -ir "800000 records sent"
1.txt:800000 records sent, 47292.504138 records/sec (46.18 MB/sec), 571.88 ms avg latency, 924.00 ms max latency, 580 ms 50th, 814 ms 95th, 900 ms 99th, 918 ms 99.9th.
2.txt:800000 records sent, 46794.571830 records/sec (45.70 MB/sec), 551.35 ms avg latency, 1138.00 ms max latency, 510 ms 50th, 925 ms 95th, 1102 ms 99th, 1130 ms 99.9th.
3.txt:800000 records sent, 47092.064987 records/sec (45.99 MB/sec), 568.98 ms avg latency, 1095.00 ms max latency, 534 ms 50th, 862 ms 95th, 998 ms 99th, 1083 ms 99.9th.
4.txt:800000 records sent, 46114.825917 records/sec (45.03 MB/sec), 459.42 ms avg latency, 1374.00 ms max latency, 452 ms 50th, 959 ms 95th, 992 ms 99th, 1009 ms 99.9th.

所有测试脚本

bin/kafka-topics.sh --create  --command-config config/sasl.conf  --replication-factor 1 --partitions 4 --topic zhaobsh02 --bootstrap-server 127.0.0.1:9093 
bin/kafka-topics.sh --create  --command-config config/sasl.conf  --replication-factor 1 --partitions 4 --topic zhaobsh03 --bootstrap-server 127.0.0.1:9093 
bin/kafka-topics.sh --create  --command-config config/sasl.conf  --replication-factor 1 --partitions 4 --topic zhaobsh04 --bootstrap-server 127.0.0.1:9093 
bin/kafka-topics.sh --create  --command-config config/sasl.conf  --replication-factor 1 --partitions 4 --topic zhaobsh05 --bootstrap-server 127.0.0.1:9093

nohup bin/kafka-producer-perf-test.sh  --num-records 800000  --record-size 1024 --throughput -1 --producer.config config/sasl.conf  --topic zhaobsh02  --print-metrics --producer-props bootstrap.servers=127.0.0.1:9093 >log/1.txt &
nohup bin/kafka-producer-perf-test.sh  --num-records 800000  --record-size 1024 --throughput -1 --producer.config config/sasl.conf  --topic zhaobsh03  --print-metrics --producer-props bootstrap.servers=127.0.0.1:9093 >log/2.txt &
nohup bin/kafka-producer-perf-test.sh  --num-records 800000  --record-size 1024 --throughput -1 --producer.config config/sasl.conf  --topic zhaobsh04  --print-metrics --producer-props bootstrap.servers=127.0.0.1:9093 >log/3.txt &
nohup bin/kafka-producer-perf-test.sh  --num-records 800000  --record-size 1024 --throughput -1 --producer.config config/sasl.conf  --topic zhaobsh05  --print-metrics --producer-props bootstrap.servers=127.0.0.1:9093 >log/4.txt &

grep -ir "800000 records sent"

标签:latency,--,kafka,records,sec,ms,之五,磁盘,config
From: https://www.cnblogs.com/jinanxiaolaohu/p/17501136.html

相关文章

  • Windows操作系统磁盘碎片整理程序的作用
    Windows操作系统磁盘碎片整理程序的作用是优化硬盘的存储和访问效率,提升系统的整体性能。磁盘碎片是指文件在硬盘上分散存储的情况,导致文件的不连续存储,从而增加了文件读取和写入的时间。磁盘碎片整理程序通过重新组织文件的存储位置,将文件片段整理成连续的空间,以减少磁盘访问的时......
  • Kafka部署指南:详细步骤解析
    引言:Kafka是一个高性能、分布式的消息队列系统,被广泛应用于大数据和实时数据处理场景。本文将详细介绍如何在Linux系统上部署和配置Kafka,以便您能够快速开始使用这个强大的消息传递平台。步骤1:准备工作确保您已经安装了JavaDevelopmentKit(JDK),并设置了JAVA_HOME环境变量。......
  • 通过Maxwell同步mysql数据至kafka
    实验环境本地虚拟机maraidb10.8.8kafka2.12-3.3.1maxwell由容器部署1mariadb1.1配置log_bin配置文件中加入如下内容server-id=111log_bin=mysql-binbinlog_format=ROWexpire_logs_days=1重启服务systemctlrestartmariadb查询命令SHOWVARIABLESLI......
  • debezium同步mysql数据至kafka(未完待续)
    实验环境全部部署于本地虚拟机1mysql参考官方文档和根据官方示例镜像(debezium/example-mysql,mysql版本为8.0.32)1.1创建用户官方镜像里一共有三个账号debezium:connect用户mysqluser:普通用户replicator:用于主从?设置命令createuser'debezium'@'%'identifiedby"db......
  • blktrace分析Linux磁盘io
    blktrace包安装后有blktrace、blkparse、btt、blkiomon这4个命令,其中blktrace负责采集I/O事件数据,blkparse负责将每一个I/O事件数据解析为纯文本方便阅读,btt、blkiomon负责统计分析。转:https://www.cnblogs.com/codelogs/p/16060775.htmlhttps://www.cnblogs.com/citrus/p/151......
  • 跟我一起学Redis之五种基本类型及其应用场景举例
    前言来啦,老弟?来啦,上一篇就当唠唠嗑,接下来就开始进行实操撸命令,计划是先整体单纯说说Redis的各种用法和应用,最后再结合代码归纳总结。Redis默认有16个数据库(编号为0~15),默认使用第0个,通过命令select任意切换数据库,和MySql切换数据库一个道理;各数据库之间的数据是隔离的,先启动服......
  • Postgresql 如何降低 wal 占用磁盘空间,降低磁盘存储成本
    POSTGRESQLWAL的存储一直是一个值得讨论的问题,到底一个POSTGRESQL在极端的情况下,可以用多少的空间来存储WAL日志。这里不是要讨论逻辑复制槽,也不是讨论ARCHIVE,这里要讨论是一种极端的方法,尝试将POSTGRESQLWAL占用的磁盘空间最小化。这里主要针对的对象是,单机的POSTGRESQL,不......
  • centos6以lvm划分磁盘分区swap/root禁用swap导致重启kernel异常
    目的禁用swap,虚机重启正常envcentos6.9root/swaplvm形式终端kernel异常,导致系统无法正常启动(引导出了问题)步骤正确禁用swap步骤1、sync刷新内存数据到磁盘2、关闭swapswapoff-a(有足够内存,防止内存不够频繁交换空间)3、注释/etc/fstab4、查看grub加载是......
  • Centos 7.X根分区磁盘扩容(非LVM)或home数据盘
    原配置100G,改配后110G   查看当前磁盘情况df-h   查看磁盘信息fdisk-l删除分区 新建分区 更新磁盘   [root@localhost~]#df-h文件系统容量已用可用已用%挂载点devtmpfs1.9G01.9G0%/devtmpfs......
  • 转:ASP.NET Core Identity 系列之五
    转自:https://mp.weixin.qq.com/s?__biz=MzA3NDM1MzIyMQ==&mid=2247486194&idx=1&sn=a213c72dd0564c31a7624c6d99f0d277这节我们将介绍在Identity中如何使用Role,在我们应用程序中可以通过ASP.NETCoreIdentity创建Roles并且该角色可以包含一系列权限来执行应用程序的一系列活动......