首页 > 其他分享 >不依赖zookeeper的kafka

不依赖zookeeper的kafka

时间:2024-03-29 23:13:06浏览次数:35  
标签:zookeeper -- ZooKeeper Kafka 3.7 依赖 kafka metadata

https://redpanda.com/guides/kafka-tutorial/kafka-without-zookeeper

    多年来,人们一直在同时使用Apache ZooKeeper和Apache Kafka。但是自Apache Kafka 3.3发布以来,它就可以在没有ZooKeeper的情况下运行。同时它包含了新的命令kafka-metadata-quorum和kafka-metadata-shell?该如何安装新版kafka,以及如何使用新命令,在本文中,我将回答这些和其他相关的问题。

历史背景和时间线

    很久以前,Apache Kafka服务器是一个独立的服务:一个简单而功能强大的应用程序,很快就受到了许多人的喜爱。然而,它缺乏高可用性和弹性。系统管理员解决这个问题的标准方法通常是创建多个代理副本用于复制目的,通过Apache ZooKeeper进行协调,该技术很快成为标准Kafka部署的一部分,两者协同工作。
    然而,Apache ZooKeeper 并非万无一失的解决方案。随着时间的推移,Apache Kafka 技术的弹性、可扩展性和性能期望发生了变化,导致了更加严格的需求。进行了许多变更,其中最重要的是将消费者偏移量从 ZooKeeper 迁移到 Kafka,逐步在 Kafka 工具中删除 ZooKeeper 连接主机,并实现了著名的 KIP-500(Kafka 改进提案 500)。
KIP-500 出现在 2.8 版本中,当时 Kafka Raft(KRaft,用于管理元数据的一种一致性协议 Raft 实现)作为早期访问功能出现,尽管在 2022 年 10 月 3 日标记为生产就绪。从 ZooKeeper 迁移到 KRaft 功能的早期访问迁移计划预计将在 Kafka 3.4 版本中发布。其生产就绪版本计划在 Kafka 3.5 版本中发布,同时停止支持 ZooKeeper。最终计划是从 Kafka 4.0 开始,所有部署都将在没有 ZooKeeper 的情况下运行。

Kafka version State
2.8 KRaft early access
3.3 KRaft production-ready
3.4 Migration scripts early access
3.5 Migration scripts production-ready; use of ZooKeeper deprecated
4.0 ZooKeeper not supported

image
使用zookeeper(左)与不用zookeeper(右)

在没有 ZooKeeper 的情况下设置 Kafka 集群,会有一种特殊类型的服务器 - 控制器(controller)。控制器服务器形成一个集群仲裁(quorum)。集群使用 KRaft 算法(我们不在范围内讨论算法的理论描述,更多详情请参考 KRaft 文档或 Raft 文档)选择一个领导者,该领导者开始为连接以拉取集群状态元数据的其他代理(broker)服务的请求提供服务。代理的模型已经发生了变化:以前,活动的控制器将更改推送到代理,而现在代理从领导者控制器中拉取元数据。
Kafka 社区在其最新发布版本中实现了许多内部更改,其中这些是最重要的之一:

  1. Kafka 集群的扩展限制已得到解决:Kafka 可以处理更多的主题和分区,并且启动和恢复时间得到了显着改善。Kafka 控制器不需要从 ZooKeeper 中读取所有的元数据 — 每个控制器都在本地保存元数据,这节省了将集群恢复运行所需的宝贵时间。
  2. 使用 Kafka 技术的知识要求和生产设置比同时使用 Kafka 和 ZooKeeper 更简单,因为每种技术都需要设置系统配置、安全性、可观察性、日志记录等。技术越少,依赖关系和相互连接就越少。

不使用 ZooKeeper 部署 Kafka 集群

我们将部署一个由四个节点组成的集群,其中包括三个控制器节点(server1、server2 和 server3),它们形成一个控制器仲裁,以及一个普通的代理节点(server4)。我们将使用 Ubuntu 操作系统,但您也可以使用您喜欢的其他受支持的发行版。
对于每个主机,连接并运行以下操作:

  1. 安装 Java 运行时环境,这是运行 Apache Kafka 所必需的:
sudo apt-get install -y default-jre
  1. 下载并解压缩软件包,创建用户和数据目录,然后切换到该用户:
wget https://downloads.apache.org/kafka/3.7.0/kafka_2.13-3.7.0.tgz
sudo tar -xzvf kafka_2.13-3.7.0.tgz -C /opt
sudo mkdir -p /data/kafka
sudo useradd -m -s /bin/bash kafka
sudo chown kafka -R /opt/kafka_2.13-3.7.0 /data/kafka
sudo su - kafka

您将在解压后的目录中找到三个默认的 KRaft 配置文件示例。请注意属性 process.roles,该属性定义了服务器是否同时为控制器、代理或两者兼有。在此步骤中不需要执行任何操作。

ls -1 /opt/kafka_2.13-3.7.0/config/kraft/

Output:
broker.properties
controller.properties
server.properties

现在,我们将生成一个唯一的集群ID。您将创建并复制一个通用唯一标识符(UUID),该标识符用于在同一集群中唯一标识代理。稍后我们将使用UUID值。您还将在某些命令输出中看到UUID值。按照以下步骤进行:
/opt/kafka_2.13-3.7.0/bin/kafka-storage.sh random-uuid

Output:
jkUlhzQmQkic54LMxrB1oA

现在我们准备创建一个由 server1、server2 和 server3 组成的集群仲裁。对于每个服务器,选择一个唯一的(在集群内)节点ID值。为简单起见,我们将使用1表示 server1,2表示 server2,3表示 server3。将相应的ID值设置为 CURRENT_SERVER_INDEX。还要记得更新集群 UUID 为您自己的值。以下命令将更新 controller.property 文件并启动 Kafka 守护进程:

export CURRENT_SERVER_INDEX=1
export CLUSTER_UUID=jkUlhzQmQkic54LMxrB1oA

sed -i "s#node.id=.*#node.id=${CURRENT_SERVER_INDEX}#g" controller.properties

sed -i "s#controller.quorum.voters=.*#controller.quorum.voters=1@server1:9093,2@server2:9093,3@server3:9093#g" controller.properties

sed -i "s#log.dirs=.*#log.dirs=/data/kafka#g" controller.properties

/opt/kafka_2.13-3.7.0/bin/kafka-storage.sh format -t ${CLUSTER_UUID}-c /opt/kafka_2.13-3.7.0/config/kraft/controller.properties

/opt/kafka_2.13-3.7.01/bin/kafka-server-start.sh -daemon /opt/kafka_2.13-3.7.0/config/kraft/controller.properties

请注意,您已经使用 kafka-storage 工具生成了一个 UUID 并为新的 KRaft 格式格式化了数据目录。在执行 kafka-server-start.sh 后,您将获得一个正在运行的 Kafka 控制器服务。
对 server2 和 server3 重复此操作,对应的 ID 分别为 2 和 3。
最后,我们可以通过在 server4 上运行以下命令来创建一个普通的代理。我们将其ID设置为 4:

export CURRENT_SERVER_INDEX=4

sed -i "s#node.id=.*#node.id=${CURRENT_SERVER_INDEX}#g" broker.properties

sed -i "s#controller.quorum.voters=.*#controller.quorum.voters=1@server1:9093,2@server2:9093,3@server3:9093#g" broker.properties

sed -i "s#listeners=.*#listeners=PLAINTEXT://server${CURRENT_SERVER_INDEX}:9092#g" broker.properties

sed -i "s#log.dirs=.*#log.dirs=/data/kafka#g" broker.properties

/opt/kafka_2.13-3.7.0/bin/kafka-storage.sh format -t jkUlhzQmQkic54LMxrB1oA -c /opt/kafka_2.13-3.7.01/config/kraft/broker.properties

/opt/kafka_2.13-3.7.0/bin/kafka-server-start.sh -daemon /opt/kafka_2.13-3.7.0/config/kraft/broker.properties

与之前的步骤类似,我们得到一个正在运行的 Kafka 代理守护进程。

为了填充一些元数据,让我们创建一个名为 test1 的主题:

/opt/kafka_2.13-3.7.0/bin/kafka-topics.sh --bootstrap-server 
server4:9092 --create --topic test1
/opt/kafka_2.13-3.7.0/bin/kafka-topics.sh --bootstrap-server 
server4:9092 –list

Output:
test1

KRaft 集群内部

元数据存储

在上一节中,我们得到了一个运行的 Kafka 集群,没有 ZooKeeper,并且有一个主题。我们现在将从两个不同的角度来检查元数据的存储:元数据日志段和实用工具。

让我们检查每个服务器的数据目录中有什么。控制器节点的存储目录中包含以下内容:

ls -1 /data/kafka/

Output:
bootstrap.checkpoint
__cluster_metadata-0
meta.properties

文件 bootstrap.checkpoints 包含检查点标记。meta.properties 文件包含有关当前服务器、版本和集群 ID 的信息。我们最感兴趣的是目录 __cluster_metadata-0 中的文件,该目录累积了集群的所有元数据更改:

ls -1 __cluster_metadata-0/

Output:
00000000000000000000.index
00000000000000000000.log
00000000000000000000.timeindex
00000000000000000159.snapshot
00000000000000000288.snapshot
00000000000000000459.snapshot
00000000000000000630.snapshot
00000000000000000827.snapshot
00000000000000001032.snapshot
00000000000000001257.snapshot
00000000000000001419.snapshot
00000000000000001585.snapshot
leader-epoch-checkpoint
partition.metadata
quorum-state

让我们检查这些文件。quorum-state 包含有关当前领导者、领导者时期序列号和偏移量以及控制器节点列表的信息:

cat quorum-state

Output:
{"clusterId":"","leaderId":1,"leaderEpoch":137,"votedId":1,"appliedOffset":0,"currentVoters":[{"voterId":1},{"voterId":2},{"voterId":3}],"data_version":0}

partition.metadata 包含了一些普通的信息,只有一个版本和主题 ID:

cat partition.metadata

Output:
version: 0
topic_id: AAAAAAAAAAAAAAAAAAAAAQ

最后,我们来到最有趣的部分,即可以使用两个 Kafka 实用工具来探索的日志段文件:

  • kafka-dump-log,使用 --cluster-metadata-decoder 标志。
  • kafka-metadata-shell。

kafka-dump-log

我们将运行 kafka-dump-log 命令来解码集群元数据。输出包含不同的事件类型,在我们的示例中,我们将提到三种:

  • 主题创建
  • 主题的分区创建
  • NoOp
    如果您检查输出,很可能会注意到有许多 NoOp 事件,它们用于推进日志结尾偏移(LEO)和高水位标记(HW)。当应用时,它们不会更改控制器或代理状态,也不包含在元数据快照中。

另一种类型是 TOPIC_RECORD,通过将新主题添加到集群中来更改状态。您可能会看到我们之前创建的主题的名称和 ID。

TOPIC_RECORD 后面是一个 PARTITION_RECORD(由于默认分区数为一)。该记录通过添加主题的分区以及新分区状态来更改代理状态:其领导副本、副本所在的代理、以及其他元数据,例如初始领导者时期和分区时期。在出现仲裁问题时,您可以转储日志文件,并搜索每个节点的集群状态更改。下面是输出示例:

kafka-dump-log.sh --cluster-metadata-decoder --files 
00000000000000000000.log --print-data-log

Output:
#Topic creation:
| offset: 1137 CreateTime: 1666637387916 keySize: -1 valueSize: 26 sequence: -1 headerKeys: [] payload: 
{"type":"TOPIC_RECORD","version":0,"data":{"name":"test1","topicId":"v2PBI5LYSBKXvb-8fw8pKQ"}}

#Topic’s partition creation:
| offset: 1138 CreateTime: 1666637387916 keySize: -1 valueSize: 48 sequence: -1 headerKeys: [] payload: 
{"type":"PARTITION_RECORD","version":0,"data":{"partitionId":0,"topicId":"v2PBI5LYSBKXvb-8fw8pKQ","replicas":[4],"isr":[4],"removingReplicas":[],"addingReplicas":[],"leader":4,"leaderEpoch":0,"partitionEpoch":0}}

#NoOp heartbeat:
| offset: 1139 CreateTime: 1666637388203 keySize: -1 valueSize: 4 sequence: -1 headerKeys: [] payload: 
{"type":"NO_OP_RECORD","version":0,"data":{}}

kafka-metadata-shell

kafka-metadata-shell 命令是探索日志文件的另一种方法。让我们选择一个日志文件,并简要查看其内部结构:

kafka-metadata-shell.sh --snapshot /data/kafka/__cluster_metadata-0/00000000000000000000.log
>> ls /
brokers  features  local  metadataQuorum  topicIds  topics

正如您所看到的,我们已经进入了一个 shell 环境。您可以通过运行 help 命令来查看可用的命令:

>> 
    cat                  Show the contents of metadata nodes.
    cd                   Set the current working directory.
    exit                 Exit the metadata shell.
    find                 Search for nodes in the directory hierarchy.
    help                 Display this help message.
    history              Print command history.
    ls                   List metadata nodes.
    man                  Show the help text for a specific command.
    pwd                  Print the current working directory.

布局直观易懂,特别是如果熟悉 ZooKeeper 的数据布局,对这个就不陌生了。

主题被放置在 /topics 中。在更深的目录中,您可能会找到带有底层分区元数据的主题名称。例如:

>> ls /topics
test1
>> ls /topics/test1
0  id  name
>> ls /topics/test1/name
name
>> cat /topics/test1/name
test1
>> cat /topics/test1/id
v2PBI5LYSBKXvb-8fw8pKQ
>> cat /topics/test1/0/data
{
  "partitionId" : 0,
  "topicId" : "v2PBI5LYSBKXvb-8fw8pKQ",
  "replicas" : [ 4 ],
  "isr" : [ 4 ],
  "removingReplicas" : [ ],
  "addingReplicas" : [ ],
  "leader" : 4,
  "leaderEpoch" : 3,
  "partitionEpoch" : 3
}

您还可以通过检查 /topicIds 目录来获取主题 ID:

>> ls /topicIds/
v2PBI5LYSBKXvb-8fw8pKQ

代理的列表可以在 /brokers 目录中找到。每个代理都有自己的目录,并且其中包含其状态、元数据以及一些注册属性:

>> cat /brokers/4/registration
RegisterBrokerRecord(brokerId=4, incarnationId=aUuLVzc7QsmV5hJKiOAdlg, brokerEpoch=4438, endPoints=[BrokerEndpoint(name='PLAINTEXT', host='server4', port=9092, securityProtocol=0)], features=[BrokerFeature(name='metadata.version', minSupportedVersion=1, maxSupportedVersion=7)], rack=null, fenced=true, inControlledShutdown=false)
>> cat /brokers/4/isFenced
false
>> cat /brokers/4/inControlledShutdown
true

还有一个目录是 /features,目前包含协议版本信息:

>> cat /features/metadata.version
{
  "name" : "metadata.version",
  "featureLevel" : 7
}

仲裁同步元数据存储在 /metadataQuorum 目录中。在那里,您可以找到偏移量和领导者信息:

>> cat /metadataQuorum/offset
18609
>> cat /metadataQuorum/leader
LeaderAndEpoch(leaderId=OptionalInt[2], epoch=138)

在 /local 目录中,您可以检查 Kafka 的版本和源代码提交 ID:

>> cat /local/commitId
e23c59d00e687ff5
>> cat /local/version
3.7.0

kafka-metadata-quorum

让我们检查另一个实用工具 kafka-metadata-quorum,它有两个标志:--status 和 --replicas。以下示例打印出集群的状态:

kafka-metadata-quorum.sh --bootstrap-server server4:9092 describe --status

Output:
ClusterId:              jkUlhzQmQkic54LMxrB1oA
LeaderId:               2
LeaderEpoch:            138
HighWatermark:          9457
MaxFollowerLag:         9458
MaxFollowerLagTimeMs:   -1
CurrentVoters:          [1,2,3]
CurrentObservers:       [4]

在这里,您可以找到集群 ID、当前领导者的 ID、领导者时期计数器、高水位值、最大追随者、追随者滞后时间,以及控制器仲裁成员和普通代理的列表。

为了显示更多多样化的输出,针对 --replicas 选项,让我们停止其中一个控制器(NodeId=1),并查看输出:

kafka-metadata-quorum.sh --bootstrap-server server4:9092 describe --replication

Output:
NodeId  LogEndOffset  Lag  LastFetchTimestamp  LastCaughtUpTimestamp  Status  
2       10486         0    1666642071929       1666642071929          Leader
1       9952          534  1666641804786       1666641804285          Follower
3       10486         0    1666642071608       1666642071608          Follower
4       10486         0    1666642071609       1666642071609          Observer

您可以看到节点的状态:控制器的状态可以是领导者(leader)或追随者(follower)。普通的代理处于观察者(observer)状态,观察者不是仲裁的一部分,尽管观察者也有元数据的本地副本。还有一个可能的状态,即候选者(candidate),它是从追随者升级到领导者的中间状态。您可以在 KIP-595 中了解更多信息。

标签:zookeeper,--,ZooKeeper,Kafka,3.7,依赖,kafka,metadata
From: https://www.cnblogs.com/wt11/p/18104801

相关文章

  • kafka
    #如果要部署3节点机器,请修改序号,并部署3个stskind:StatefulSetapiVersion:apps/v1metadata:name:rtvt-kafka-1namespace:rtvt-applabels:app:rtvt-kafkaapp.kubernetes.io/name:rtvt-kafkaapp.kubernetes.io/version:v1version:v1anno......
  • 3-zookeeper之ZAB协议
    ZookeeperZAB协议概述ZAB(ZookeeperAutomicBroadcast)是一套专门为Zookeeper设计的用于进行原子广播和崩溃恢复的协议ZAB协议主要包含了两个功能原子广播:保证数据一致性崩溃恢复:保证集群的高可用ZAB协议本身是基于2PC算法来进行的设计,加入了PAXOS算法和过半性进行......
  • 浅谈循环依赖
    说明循环依赖是一个大家讨论很多的话题,它更多是一个工程上的问题而不是技术问题,我们需要首先有一定的认知:如同两个人相互帮忙,两个类之间你调用我的,我调用你的是很正常也很自然的需求模型。单一依赖确实有好处,改动一个最顶层类时不需要在意对底部类的影响,但是从本来就自然的......
  • kafka基本概念学习
    使用场景消息队列:削峰,解耦(服务间调用从直接的rpc、http调用改为主动拉取)技术对比类似技术方案:rabbitMQ、memcache、rocketMQkafka优点高吞吐量:单机每秒处理几十上百万的消息量。即使存储了TB及消息,也保持稳定的性能。零拷贝 减少内核态到用......
  • .NET C#导出解决方案的NuGet依赖关系
    前言公司项目需要写DS设计文档,文档需要标识出来你的解决方案文件下的所有项目都使用了NuGet哪些第三方依赖,我们都知道sln下面的所有.csproj文件中的节点下会标识出对应的依赖,但一个一个对比又太麻烦(主要是懒),有时候一个sln能有10几个project项目,能不能写脚本一键导出这些依赖关......
  • kafka维护
    1,检测参考:https://kafka-python.readthedocs.io/en/master/apidoc/KafkaClient.htmlfromkafka.adminimportKafkaAdminClient,NewTopicfromkafkaimportKafkaProducerfromkafkaimportKafkaConsumerfromkafkaimportKafkaClientimporttime#配置Kafka集群信息......
  • 多值依赖的有关概念
    定义:设R(U)是属性集U上的一个关系模式。X,Y,Z是U的子集,并且Z=U-X-Y。关系R(U)中多值依赖X→→Y成立,当且仅当对R(U)的任一关系r,给定的一对(x,z)值,有一组Y的值,这组值仅仅决定于x的值而与z值无关。定义看起来很抽象,但实际上理解起来一点也不简单。这里还是采用王珊老师的《数据库系......
  • Golang操作kafka遇到网络问题重试的案例
    草稿0、实际中会遇到网络抖动会导致消费者有一小段时间与kafka连接遇到问题~0、如何模拟网络问题?本地跑多个kafka实例直接关掉其中一个kafka服务??怎么模拟断网??1、kafka-go与sarama都演示一下2、一个consumer消费一个topic的例子;模拟网络问题可以把kafka服务关了~观察一下再开启k......
  • Linux服务器上安装依赖报错No space left on device
    在安装anaconda到/home/xxx时无法正常安装,根据以下报错信息到网上查询之后发现是内存空间不足导致的,使用df命令查看安装前/home目录下还有4G空间,但是报错后只剩下了60多MB。[53453]Failedtoexecutescript'entry_point'duetounhandledexception!改装miniconda,minico......
  • 云原生最佳实践系列 5:基于函数计算 FC 实现阿里云 Kafka 消息内容控制 MongoDB DML 操
    方案概述在大数据ETL场景,将Kafka中的消息流转到其他下游服务是很常见的场景,除了常规的消息流转外,很多场景还需要基于消息体内容做判断,然后决定下游服务做何种操作。该方案实现了通过Kafka中消息Key的内容来判断应该对MongoDB做增、删、改的哪种DML 操作。当Kafka......