首页 > 其他分享 >kafka学习之三_信创CPU下单节点kafka性能测试验证

kafka学习之三_信创CPU下单节点kafka性能测试验证

时间:2023-06-20 22:55:06浏览次数:45  
标签:MB -- kafka sec ms time 信创 CPU

kafka学习之三_信创CPU下单节点kafka性能测试验证


背景

前面学习了 3controller+5broker 的集群部署模式.
晚上想着能够验证一下国产机器的性能. 但是国产机器上面的设备有限.
所以想着进行单节点的安装与测试. 并且记录一下简单结果

希望对以后的工作有指导意义

发现producer的性能比较与之前的 测试结果比较接近. 
但是consumer的测试结果看不出太多头绪来.
自己对kafka的学习还不够深入, 准备下一期就进行consumer的调优验证. 

测试结果验证

CPU类型 producer测试结果 consumer测试结果
sw 3231 7.20 MB/sec 2.62 MB/sec
FT 2500 2.17 MB/sec 测试失败
海光 7285 39.20 MB/sec 5.77 MB/sec
鲲鹏920 41.97 MB/sec 5.6037 MB/sec
倚天710 59.73 MB/sec 6.19 MB/sec
AMD 9T34 72.61 MB/sec 6.68 MB/sec

测试结果

image


广告一下自己的公众号

image


以申威为例进行安装说明

因为kafka 其实是基于java进行编写的消息队列.
所以不需要有繁杂的编译等过程. 
只要jdk支持, 理论上就可以进行运行. 
比较麻烦的就是稳定性和性能的表现. 
所以这里进行一下安装与验证. 

安装过程-1

上传文件到/root目录下面并且解压缩
cd /root && tar -zxvf kafka_2.13-3.5.0.tgz
然后编辑对应的文件:
cat > /root/kafka_2.13-3.5.0/config/kafka_server_jaas.conf <<EOF
KafkaServer {
  org.apache.kafka.common.security.plain.PlainLoginModule required
  username="admin"
  password="Testxxxxxx"
  user_admin="Testxxxxxx"
  user_comsumer="Testxxxxxx"
  user_producer="Testxxxxxx";
};
EOF

# 增加一个客户端配置文件 客户端才可以连接服务器端
cat > /root/kafka_2.13-3.5.0/config/sasl.conf <<EOF
sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="admin" password="Testxxxxxx"; 
security.protocol=SASL_PLAINTEXT 
sasl.mechanism=PLAIN
EOF

安装过程-2

vim /root/kafka_2.13-3.5.0/config/kraft/server.properties
主要修改的点: 
因为是单节点所以比较简单了: 
process.roles=broker,controller
node.id=100
[email protected]:9094
listeners=SASL_PLAINTEXT://127.0.0.1:9093,CONTROLLER://127.0.0.1:9094
sasl.enabled.mechanisms=PLAIN
sasl.mechanism.inter.broker.protocol=PLAIN
security.inter.broker.protocol=SASL_PLAINTEXT
allow.evervone.if.no.acl.found=true
advertised.listeners=SASL_PLAINTEXT://127.0.0.1:9093

# 最简单的方法可以删除配置文件的前面 50行, 直接放进去这些内容
vim->:1,50d->paste->edit_ips
其他ip地址可以如此替换:
sed -i 's/127.0.0.1/10.110.136.41/g'  /root/kafka_2.13-3.5.0/config/kraft/server.properties

安装过程-3

修改启动脚本:
vim /root/kafka_2.13-3.5.0/bin/kafka-server-start.sh 
在任意一个java opt 处增加:
-Djava.security.auth.login.config=/root/kafka_2.13-3.5.0/config/kafka_server_jaas.conf 

安装过程-4

# 初始化
/root/kafka_2.13-3.5.0/bin/kafka-storage.sh random-uuid
cd /root/kafka_2.13-3.5.0
bin/kafka-storage.sh format -t 7ONT3dn3RWWNCZyIwLrEqg  -c config/kraft/server.properties
# 启动服务
cd /root/kafka_2.13-3.5.0 && bin/kafka-server-start.sh -daemon  config/kraft/server.properties
# 创建topic
bin/kafka-topics.sh --create  --command-config config/sasl.conf  --replication-factor 1 --partitions 3 --topic zhaobsh01 --bootstrap-server 127.0.0.1:9093 
# 测试producer
bin/kafka-producer-perf-test.sh  --num-records 100000  --record-size 1024 --throughput -1 --producer.config config/sasl.conf  --topic zhaobsh01  --print-metrics --producer-props bootstrap.servers=127.0.0.1:9093
# 测试consumer
bin/kafka-consumer-perf-test.sh  --fetch-size 10000 --messages 1000000   --topic zhaobsh01 --consumer.config config/sasl.conf   --print-metrics --bootstrap-server 127.0.0.1:9093
# 查看日志
tail -f /root/kafka_2.13-3.5.0/logs/kafkaServer.out

申威的测试结果

producer:
100000 records sent, 7370.283019 records/sec (7.20 MB/sec), 2755.49 ms avg latency, 3794.00 ms max latency, 3189 ms 50th, 3688 ms 95th, 3758 ms 99th, 3785 ms 99.9th.
consumer:
start.time, end.time, data.consumed.in.MB, MB.sec, data.consumed.in.nMsg, nMsg.sec, rebalance.time.ms, fetch.time.ms, fetch.MB.sec, fetch.nMsg.sec
2023-06-20 21:56:02:493, 2023-06-20 21:56:39:755, 97.6563, 2.6208, 100000, 2683.6992, 5599, 31663, 3.0842, 3158.2604

飞腾的测试结果-hdd

producer:
100000 records sent, 1828.922582 records/sec (1.79 MB/sec), 6999.20 ms avg latency, 51476.00 ms max latency, 875 ms 50th, 21032 ms 95th, 21133 ms 99th, 21167 ms 99.9th.
consumer:

飞腾的测试结果-ssd

producer:
100000 records sent, 2219.706555 records/sec (2.17 MB/sec), 7073.51 ms avg latency, 41100.00 ms max latency, 1089 ms 50th, 20816 ms 95th, 20855 ms 99th, 20873 ms 99.9th.

海光的测试结果

producer:
100000 records sent, 40144.520273 records/sec (39.20 MB/sec), 486.67 ms avg latency, 681.00 ms max latency, 456 ms 50th, 657 ms 95th, 674 ms 99th, 678 ms 99.9th.
consumer:
start.time, end.time, data.consumed.in.MB, MB.sec, data.consumed.in.nMsg, nMsg.sec, rebalance.time.ms, fetch.time.ms, fetch.MB.sec, fetch.nMsg.sec
2023-06-20 22:28:04:364, 2023-06-20 22:28:21:274, 97.6563, 5.7751, 100000, 5913.6606, 3809, 13101, 7.4541, 7633.0051

鲲鹏的测试结果

producer:
100000 records sent, 42973.785991 records/sec (41.97 MB/sec), 463.69 ms avg latency, 621.00 ms max latency, 472 ms 50th, 593 ms 95th, 612 ms 99th, 619 ms 99.9th.
consumer:
start.time, end.time, data.consumed.in.MB, MB.sec, data.consumed.in.nMsg, nMsg.sec, rebalance.time.ms, fetch.time.ms, fetch.MB.sec, fetch.nMsg.sec
2023-06-20 22:33:58:168, 2023-06-20 22:34:15:595, 97.6563, 5.6037, 100000, 5738.2223, 3799, 13628, 7.1659, 7337.8339

倚天的测试结果

producer:
100000 records sent, 61162.079511 records/sec (59.73 MB/sec), 335.18 ms avg latency, 498.00 ms max latency, 326 ms 50th, 476 ms 95th, 494 ms 99th, 497 ms 99.9th.
consumer:
start.time, end.time, data.consumed.in.MB, MB.sec, data.consumed.in.nMsg, nMsg.sec, rebalance.time.ms, fetch.time.ms, fetch.MB.sec, fetch.nMsg.sec
2023-06-20 22:37:49:668, 2023-06-20 22:38:05:426, 97.6563, 6.1972, 100000, 6345.9830, 3597, 12161, 8.0303, 8223.008

AMD9T34的测试结果

producer:
100000 records sent, 74349.442379 records/sec (72.61 MB/sec), 253.07 ms avg latency, 364.00 ms max latency, 259 ms 50th, 344 ms 95th, 359 ms 99th, 363 ms 99.9th.
consumer:
start.time, end.time, data.consumed.in.MB, MB.sec, data.consumed.in.nMsg, nMsg.sec, rebalance.time.ms, fetch.time.ms, fetch.MB.sec, fetch.nMsg.sec
2023-06-20 22:44:14:446, 2023-06-20 22:44:29:058, 97.6563, 6.6833, 100000, 6843.6901, 3504, 11108, 8.7915, 9002.5207

标签:MB,--,kafka,sec,ms,time,信创,CPU
From: https://www.cnblogs.com/jinanxiaolaohu/p/17495110.html

相关文章

  • 三菱伺服定长追剪,系统为Q172DSCPU,高级同步模式。 包
    三菱伺服定长追剪,系统为Q172DSCPU,高级同步模式。包含一个程序例子,有详细的机械参数分析,伺服参数设置,以及追剪凸轮表设置的由来。YID:69100609575345770......
  • 西门子S7-1200PLC 四轴定位控制程序(自动螺丝机) 程序是基于S7-1200 PLC (CPU 1214C ),
    西门子S7-1200PLC四轴定位控制程序(自动螺丝机)程序是基于S7-1200PLC(CPU1214C),博途V13SP1编写。程序中利用TOAXIS运动控制指令编写4轴定位程序,利用易福门相机视觉专用功能块(FB1FB2SCL高级语言)与PLC以太网通信,采集相机坐标位置参数。ID:1635602376517476......
  • kafka的学习之一_带SASL鉴权的集群安装与启动
    kafka的学习之一_带SASL鉴权的集群安装与启动背景想开始一段新的里程.可能会比现在累,可能会需要更多的学习和努力.kafka可能就是其中之一.自己之前总是畏缩不前.不想面对很多压力.年龄已经很大了,必须得向前看继续努力了.关于kafkakafka是linked开源的一套高效持......
  • kafka的学习之二_kafka的压测与GUI管理
    kafka的学习之二_kafka的压测与GUI管理第一部分创建topiccd/root/kafka_2.13-3.5.0bin/kafka-topics.sh--create--bootstrap-server10.110.139.184:9093--command-configconfig/sasl.conf--replication-factor3--partitions3--topiczhaobsh01bin/kafka-topics......
  • 松下PLC编程 FP-XH 10轴定位 松下PLC项目实例,两台CPU间通过
    松下PLC编程FP-XH10轴定位松下PLC项目实例,两台CPU间通过RS485通讯,10轴定位控制。轴控制程序采用FB,直观可靠,可以重复使用,使用时只需要对fb接口赋值即可,内部已经对系统寄存器做好了处理。拥有此fb,编程小白也能像高手一般轻松做伺服控制。整个网络使用RS485,两台PLC和一台触摸屏提......
  • linux下查看CPU和内存
    toptop+大写P查看CPU最大排序top+大写M查看内存最大排序......
  • 使用 JMX-Exporter 监控 Kafka 和 Zookeeper
    JVM默认会通过JMX的方式暴露基础指标,很多中间件也会通过JMX的方式暴露业务指标,比如Kafka、Zookeeper、ActiveMQ、Cassandra、Spark、Tomcat、Flink等等。掌握了JMX监控方式,就掌握了一批程序的监控方式。本节介绍JMX-Exporter的使用,利用JMX-Exporter把JMX监控数据......
  • Golang - kafka 的使用
    producerpackagemainimport( "fmt" "github.com/Shopify/sarama" "log" "strconv")const( BROKER="ip:port" TOPIC="xx")//sendMsg发送到kfkfuncsendMsg(clientsarama.SyncProducer,ms......
  • Kafka的文件顺序读写
    背景说明Kafka使用起来很方便,而且磁盘写入性能非常好,那么它是如何实现的呢。在Kafka的文档说明中,有这样一段:大致意思是磁盘的读写性能并不弱,现代操作系统都会对磁盘的操作进行预读/缓存,合理复用操作系统的磁盘IO特性,可以提高Kafka的日志磁盘写入性能。数据写入以Kafka生产者......
  • cpu 中控制单元执行的任务分析
    控制单元(ControlUnit)是计算机中的一个重要组件,它的主要任务是协调和控制计算机的各个部件,以执行程序中的指令序列。控制单元负责解码指令、生成控制信号,并将这些信号发送给其他组件,例如运算单元、寄存器组、存储器和输入/输出设备等。本文余下部分详细介绍控制单元的任务,并举例说......