首页 > 其他分享 >kafka负载均衡迁移(通过kafka eagle)

kafka负载均衡迁移(通过kafka eagle)

时间:2024-09-24 10:47:59浏览次数:9  
标签:eagle 负载 副本 kafka topic 磁盘 使用率 my

在grafana监控中发现kafka的各个节点磁盘不均匀

出现这样的情况是因为kafka默认是以文件数作为平衡的条件的。换句话说,kafka不会管一个副本有多大,只会看磁盘中有多少个副本文件。

解决方式:

1、修改策略,改为按照磁盘大小平衡数据

2、手动迁移数据,将磁盘使用率高的节点数据迁移到磁盘使用率低的节点

本文介绍第二种方式,手动迁移数据。

1 进入磁盘使用率高的机器/kafka-logs,通过du -h找一个数据量大的topic:这里以my_topic为例

2 去kafka eagle中查看该topic的副本分布情况

2.1、登录kafka eagle
2.2、点击左侧Topics中的hub,查找对应的topic
2.3、把Current Partition Replica Assignment中的数据拷贝到文本编辑器中

3 查看监控 ,去使用率高的机器的对应磁盘中找到my_topic的副本

3.1、进入磁盘使用率高的那台机器,在kafka-logs 中,使用命令:du -h |grep my_topic

可以看到副本的大小,以及对应的分区 例如my_topic_4   10G

3.2、在2.3的分区分布情况文件中,查找4分区对应的情况

通过vim /kafka-logs/meta.properties查看本台机器的kafkaid为:1001

再次查看grafana监控,查看最低磁盘使用率的机器是哪一个,查看他的kafkaid(/kafka-logs/meta.properties中)

3.3、将4号分区的1001修改为1004

4 将使用率多的机器中的副本修改为使用率少的kafkaid之后,把修改后的kafka分区文件放到Proposed Partition Reassignment Configuartion中

然后点击上方的execute按钮

5 可通过点击Verify按钮后,在下方的Result中看到副本迁移的进度

5.1 、也可通过zookeeper中的元数据查看迁移任务是否已经完成

命令:sh /usr/hdp/current/kafka-broker/bin/kafka-topics.sh --zookeeper hk-hdfs-util:2181 hk-hdfs-master01:2181 hk-hdfs-master02:2181 --topic my_topic --describe

标签:eagle,负载,副本,kafka,topic,磁盘,使用率,my
From: https://blog.csdn.net/m0_65850671/article/details/142463384

相关文章

  • kafka安装
    新版本支持kraft,并且在后面会彻底抛弃zookeeper二进制包地址https://downloads.apache.org/kafka/解压之后,编辑config/kraft/server.properties文件,改成自己的ip在Kafka安装目录的bin文件夹下执行以下命令生成一个新的集群ID,如果只有1个机器也没关系,windows的命令在windows......
  • 负载均衡介绍
    你真的了解LoadBalance嘛使用LVS实现负载均衡原理及安装配置详解VIP(VirtualIP,虚拟IP地址)......
  • Kafka初学
    Kafka初学概念介绍Kafka是最初由Linkedin公司开发,是一个分布式、多分区、多副本、多生产者、多订阅者,基于zookeeper协调的分布式日志系统(或者说MQ系统),常见可以用于web/nginx日志、访问日志、消息服务等等,Linkedin于2010年贡献给了Apache基金会并成为顶级开源项目应用场景日志......
  • 负载均衡与Keepalived高可用部署
    负载均衡框架节点:web-7web-8,lb-5,lb-6四个节点都安装好nginx以及php将all-rpm.tgz传输到root目录下执行即可(需要先行配置yum用来安装createrepo)#!/bin/bashmvall-rpm.tgz/etc/yum.repos.d/groupaddwwwuseradd-m-gwww-s/sbin/nologinwwwcd/etc/yum.re......
  • Kafka系列---【数据过期造成的假象,consumer不消费】
    一、问题背景周五的时候,推送了500万笔消息到kafka的TOPIC_TEST队列,使用EVENT_GROUP消费者组去消费,周一的时候,使用kafka-consumer命令查看消费者组的时候,发现,topic的6个分区都有大量的消息堆积,我把消费者应用重启了一下,发现剩余消息lag数还是不变,给人的感觉是不消费了,查看应用日志......
  • 继电器测试负载箱的维护和保养方法有哪些?
    继电器测试负载箱是用于模拟各种电气负载的设备,广泛应用于继电器、接触器等电气元件的测试和校验。在日常使用中,为确保其正常运行和准确性,以下是一些常见的维护和保养方法:电源问题:如果电源电压不稳定或波动过大,可能会导致继电器测试负载箱无法正常工作。为此,建议定期检查电源线......
  • python获取kafka队列长度
    #pipinstallkafka-pythonfromkafkaimportKafkaConsumerfromkafka.structsimportTopicPartitiondefget_queue_length(topic_list,kafka_host,kafka_group):partition_list=[TopicPartition(it[1],0)foritintopic_list]consumer=KafkaCons......
  • web架构-nginx负载均衡
    nginx的负载均衡Nginx是一个广泛使用的反向代理服务器,能够高效地实现负载均衡。负载均衡的核心作用是将来自客户端的请求分发到多个后端服务器上,从而平衡每台服务器的压力。通过Nginx,我们可以实现多种负载均衡算法,如轮询、IP哈希等。vi/etc/nginx/nginx.conf插入http的下一......
  • kafka 消息位移提交几种方式:消息重复消息、消息丢失的关键
    消费位移Kafka中的位移(offset)是用来记录消息在分区中的位置的标志,简单说就是记录消费者的消费进度,每次消息消费后需要更新消费进度,也就是位移提交由此可见一旦位移提交发生异常,会导致消费进度不正确,就必然发生消息丢失或者重复消费消息位移存储内部主题__consumer_off......
  • D23 kubernetes 工作负载资源对象-DaemonSet{简介}
    1、DaemonSet简介DaemonSet资源用于在集群中的每个节点上运行一个pod副本,具有以下特点-在每个节点上运行一个pod-当向集群中加入一个新节点或者从集群中移除一个节点时,DaemonSet会自动在新节点上启动一个pod或在移除的节点上删除pod-可以使用节点选择器或亲和性来定义pod......