首页 > 其他分享 >Kafka初学

Kafka初学

时间:2024-09-23 17:26:42浏览次数:1  
标签:副本 分区 broker kafka 初学 消息 offset Kafka

Kafka初学
概念

介绍

Kafka是最初由Linkedin公司开发,是一个分布式、多分区、多副本、多生产者、多订阅者,基于zookeeper协调的分布式日志系统(或者说MQ系统),常见可以用于web/nginx日志、访问日志、消息服务等等,Linkedin于2010年贡献给了Apache基金会并成为顶级开源项目

应用场景

日志系统

消息系统

设计目标

以时间复杂度为O(1)的方式提供消息持久化能力,即使对TB级以上数据也能保证常数时间的访问性能

高吞吐率。即使在非常廉价的商用机器上也能做到单机支持每秒100k条消息传输

支持Kafka Server间的消息分区,及分布式消费,同时保证每个partition内的消息顺序传输

同时支持离线数据处理和实时数据处理

支持在线水平扩展

	有俩种主要的消息传递模式:点对点传递模式、发布-订阅模式。大部分的消息系统选用发布-订阅模式。kafka就是一种发布-订阅模式

	对于消息中间件,消息分推拉俩种模式。kafka只有消息的拉取,没有推送,可以通过轮询实现消息的推送

kafka在一个或多个可以跨越多个数据中心的服务器上作为集群运行

kafka集群中按照主题分类管理,一个主题可以有多个分区,一个分区可以有多个副本分区

每个记录由一个键,一个值和一个时间戳组成

Kafka具有四个核心API:

Producer API:允许应用程序将记录流发布到一个或多个kafka主题

Consumer API:允许应用程序订阅一个或多个主题并处理为其生成的记录流

St reams API:允许应用程序充当流处理器,使用一个或多个主题的输入流,并生成一个或多个输出主题的输出流,从而有效的将输入流转化为输出流

Connector API:允许构建和运行将kafka主题链接到现有应用程序或数据系统的可重用生产者或使用者。例如,关系数据库的连接器可能会捕获对表的所有更改

Kafka优势

高吞吐量:单机每秒处理几十上百万的消息量。即使存储了许多TB的消息,它也保存稳定的性能

高性能:单节点支持上千个客户端,并保证零停机和零数据丢失

持久化数据存储:将消息持久化到磁盘。通过将数据持久化到硬盘以及replication防止数据丢失

零拷贝

顺序读,顺序写

利用Linux的页缓存

分布式系统,易于向外扩展,所有的producer、broker、和consumer都会有多个,均为分布式的,无需停机即可扩展机器,多个producer、consumer可能是不同的应用

可靠性:kafka是分布式,分区,复制和容错的

客户端状态维护:消息被处理的状态在consumer端维护,而不是由server端和zk维护,当失败时能自动平衡

支持多种客户端语言。比如:java,.net,php等

应用场景

日记收集:可以用kafka来收集各种服务的log,通过kafka以统一接口服务的方式开放给各种consumer

消息系统:解偶生产者和消费者、缓存消息等

用户活动跟踪:kafka经常被用来记录web用户或者app用户的各种活动,比如浏览网页、搜索、点击等或者,这些活动信息被各个服务器发布到kafka的topic中,然后消费者通过订阅这些topic来做实时的监控分析,亦可保存到数据库

运营指标:kafka也经常用来记录运营监控数据。包括收集各种分布式应用的数据,生产各种操作的集中反馈,比如报警和报告

流式处理:比如spark streaming和storm

基本架构

学习kafka,那么kafka的专业术语需要了解一下

消息和批次

kafka的数据单元称为消息。可以把消息看成时数据库里的一个记录。消息由字节数组组成。消息有键,键也是一个字节数组,当消息以一种可控的方式写入不同的分区时,会用到键

为了提高效率,消息被分批写入kafka。批次就是一组消息,这些消息属于同一个主题和分区

把消息分成批次可以减少网络开销。批次越大,单位时间内处理的消息就越多,单个消息的传输时间就越长。批次数据会被压缩,这样可以提升数据的传输和存储能力,但是需要更多的计算处理

模式

消息模式有许多可用的选项,以便于理解。如json和xml,但是它们缺乏强类型处理能力。kafka的许多开发者喜欢使用apache avro。avro提供了一种紧凑的序列化格式,模式和消息体分开。当模式发生变化时,不需要重新生成代码,他还支持强类型和模式进化,其版本即向前兼容,也向后兼容

数据格式的一致性对kafka很重要,因为它消除了消息读写操作之间的耦合性

主题和分区

kafka的消息通过主题进行分类。主题可比是数据库的表或文件系统里的文件夹。主题可被分为若干分区,一个主题通过分区分布于kafka集群中,提供了横向扩展的能力

生产者和消费者

生产者创建消息。消费者消费消息

一个消息被发布到一个特定的主题上

生产者在默认情况下把消息均衡的分布到主题的所有分区上:

直接指定消息的分区

根据消息的key散列取得摩得出分区

轮询指定分区

消费者通过偏移量来区分已经读过的消息,从而消费消息,消费者是消费组的一部分,消费组保证每个分区只能被一个消费者使用,避免重复消费

broker和集群

一个独立的kafka服务器称为broker。broker接收来自生产者的消息,为消息设置偏移量,并且提交消息到磁盘保存,broker为消费者提供服务,对读取分区的请求作出响应,返回已经提交到磁盘上的消息,单个broker可用轻松处理数千个分区以及每秒百万级的消息量

每个集群都有一个broker是集群控制器(自动从集群的活跃成员中选举出来)

控制器负责管理工作

将分区分配给broker

监控broker

集群中的一个分区属于一个broker,该broker称为分区首领

一个分区可以分配给多个broker,此时会发生分区复制

分区的复制提供了消息冗余,高可用。副本分区不负责处理消息的读写。

核心概念

Producer

生产者创建消息。该角色将消息发布到kafka的topic中,broker接收到生产者发送的消息后,broker将该消息追加到当前用于追加数据的segment文件中

一般情况下一个消息会被发布到一个特定的主题上

默认情况下,通过轮询吧消息均衡的发布到主题的所有分区上

在某些情况下,生产者会把消息直接写到指定的分区上,这通常是通过消息键和分区器来实现的,分区器为键生成一个散列值,并将其映射到指定的分区上。这样可以保证包含同一个键的消息会被写到同一个分区上

生产者也可以使用自定义的分区器,根据不同的业务规则将消息映射到分区

Consumer

消费者读取消息

消费者订阅一个或多个主题,并按照消息生成的顺序读取它们

消费者通过检查消息的偏移量来区分已经读取过的消息。偏移量是另一种元数据,它是一个不断递增的整数值,在创建消息时,kafka会把它添加到消息里,在给定的分区里,每个消息的偏移量都是唯一的。消费者把每个分区最后读取的消息偏移量保存在Zookeeper或kafka上,如果消费者关闭或重启,它的读取状态不会丢失

消费者是消费组的一部分,群组保证每个分区只能被一个消费者使用

如果一个消费者失效,消费者里的其他消费者可以接管失效消费者的工作,再平衡,分区重新分配

Broker

一个独立的kafka服务器被称为broker

beoker为消费者提供服务,对读取分区的请求作出响应,返回已经提交到磁盘的消息

如果topic有N个partition,集群有N个broker,那么每个broker存储该topic的一个partition。

如果topic有N个partition,集群有(N+M)个broker,那么其中有N个broker存储该topic的一个partition,剩下的M个broker不存储该topic的partition数据

如果topic有N个partition,集群中的broker数目少于N个,那么一个broker存储该topic的一个或多个partition。在实际生产环境中,尽量避免这种情况发生,这种情况容易导致kafka集群数据不均衡

broker是集群的组成部分,每个集群都有一个broker,同时充当了集群控制器的角色(自动从集群的活跃成员中选举出来)

控制器负责管理工作,包括将分区分配给broker和监控broker

在集群中,一个分区从属于一个broker,该broker被称为分区首领

Topic

每条发布到kafka集群的消息都有一个类别,这个类别被称为topic

物理上不同的topic的消息分开存储

主题就好比数据库的表,尤其是分库分表之后的逻辑表

Partition

主题可以被分为若干个分区,一个分区就是一个提交日志

消息以追加的方式写入分区,然后以先入先出的顺序读取

无法在整个主题范围内保证消息的顺序,但可以保证消息在单个分区内的顺序

kafka通过分区来实现数据冗余和伸缩性

在需要严格保证消息的消费顺序的场景下,需要将partition的数目设为1

Replicas

kafka使用主题来组织数据,每个主题分为若干个分区,每个分区又有多个副本。哪些副本被保存在broker上,每个broker可以保存成千上百个属于不同主题和分区的副本

副本有以下俩种类型:

首领副本

每个分区都有一个首领副本,为了保证一致性,所有生产者请求和消费者请求都会经过这个副本

跟随者副本

首领以外的副本都是跟随者副本。跟随者副本不处理来自客户的的请求,它们唯一的任务就是从首领哪里复制消息,保持与首领一致的状态,如果首领发生崩溃,其中一个跟随者会被提升为新首领

Offset

生产者offset

消息写入的时候,每个分区都有一个offset,这个offset就是生产者offset,同时也是这个分区的最新最大的offset

有些时候没有指定某一个分区的offset,这个工作kafka帮我们完成

消费者offset

这是某一个分区offset情况,生产者写入的offset的最新最大值是12,而当客户a进行消费时,从0开始消费,一直消费到9,消费者的offset就是9,客户b消费到11,客户b的offset就是11,等他们下一次来消费时,他们可以选择从上次的offset接着向下消费,也可以选择从0开始消费,或者跳到最近的记录并从当前位置消费

名次解释

副本

Kafka通过副本保证⾼可⽤。副本分为⾸领副本(Leader)和跟随者副本(Follower)。

跟随者副本包括同步副本和不同步副本,在发⽣⾸领副本切换的时候,只有同步副本可以切换为⾸领副本。

AR

分区中的所有副本统称为AR(Assigned Repllicas)。

ISR

所有与leader副本保持⼀定程度同步的副本(包括Leader)组成ISR(In-Sync Replicas),ISR集合是AR集合中的⼀个⼦集。消息会先发送到leader副本,然后follower副本才能从leader副本中拉取消息进⾏同步,同步期间内 follower副本相对于leader副本⽽⾔会有⼀定程度的滞后。前⾯所说的“⼀定程度”是指可以忍受的滞后范围,这个范围 可以通过参数进⾏配置

OSR

与leader副本同步滞后过多的副本(不包括leader)副本,组成OSR(Out-Sync Relipcas)。在正常情况下,所有的follower副本都应该与leader副本保持⼀定程度的同步,即AR=ISR,OSR集合为空

HW

HW是High Watermak的缩写, 俗称⾼⽔位,它表示了⼀个特定消息的偏移量(offset),消费之只能拉取到这个offset之前的消息

LEO

LEO是Log End Offset的缩写,它表示了当前⽇志⽂件中下⼀条待写⼊消息的offset

标签:副本,分区,broker,kafka,初学,消息,offset,Kafka
From: https://www.cnblogs.com/java5wanping/p/18427435

相关文章

  • Kafka系列---【数据过期造成的假象,consumer不消费】
    一、问题背景周五的时候,推送了500万笔消息到kafka的TOPIC_TEST队列,使用EVENT_GROUP消费者组去消费,周一的时候,使用kafka-consumer命令查看消费者组的时候,发现,topic的6个分区都有大量的消息堆积,我把消费者应用重启了一下,发现剩余消息lag数还是不变,给人的感觉是不消费了,查看应用日志......
  • Office的部署与激活工具软件 - 初学者系列 - 学习者系列文章
    Office一直是笔者喜欢的办公软件,依托微软强大的开发实力以及人性化的操作界面,连WPS也是参考的Office的界面进行的研发。所以除了Windows操作系统,Office就是笔者的电脑里必安装的软件之一。以前笔者安装Office,都是先下载ISO文件,然后加载到虚拟光驱运行EXE文件进行安装,这个以......
  • 一个初学者小白怎么学习成为黑客?
    前言黑客从入门到精通需要经过深入的学习和实践,这是一个需要长时间投入和大量精力的过程。在这份学习路线中,下面我将为你介绍黑客学习的基本知识和技能,帮助你逐步掌握黑客技能。一、入门阶段1.了解计算机基础知识学习计算机基础知识,如操作系统、计算机网络、数据结构等......
  • python获取kafka队列长度
    #pipinstallkafka-pythonfromkafkaimportKafkaConsumerfromkafka.structsimportTopicPartitiondefget_queue_length(topic_list,kafka_host,kafka_group):partition_list=[TopicPartition(it[1],0)foritintopic_list]consumer=KafkaCons......
  • c练习初学者初学者
    c语言输入成绩评等级  if(条件){  内容}elseif{   内容}else{    内容}1#include<stdio.h>2intmain(){34floatscore;5while(1){6printf("Pleaseenteryourscore:");7scanf("%f",&score);8if(score>=90&am......
  • 初学者学scala
    Scala是一种多范式编程语言,它结合了面向对象编程和函数式编程的特点。Scala运行在Java虚拟机(JVM)上,并且可以与Java代码无缝集成。Scala的设计目标是提供一种更加简洁、高效和类型安全的编程语言,同时保持与现有Java生态系统的兼容性。对于初学者来说,Scala可能有一些学......
  • 初学者学ruby
    Ruby是一种面向对象的、解释型的编程语言,由日本程序员松本行弘(Yukihiro"Matz"Matsumoto)在1995年开发。Ruby的设计哲学强调简洁性和生产力,它有着非常直观和灵活的语法,使得代码阅读和编写都非常自然。Ruby在Web开发领域尤其流行,尤其是通过RubyonRails框架。学习路......
  • 初学者学SQL
    对于初学者来说,学习SQL(StructuredQueryLanguage)是进入数据管理和数据库领域的一个重要步骤。SQL是一种用于管理关系型数据库的标准语言,它允许用户查询、更新和管理数据库中的数据。以下是一些帮助你开始学习SQL的建议:###1.理解基本概念-**了解什么是关系型数据库**:理解......
  • 初学者学node.js
    对于初学者来说,学习Node.js是一个很好的选择,因为它可以帮助你理解后端开发,并且由于其基于JavaScript,如果你已经有了一些前端开发的基础,那么学习曲线会相对平缓一些。以下是一些建议帮助你开始学习Node.js:1.**了解基础**:  -确保你已经熟悉了JavaScript的基本语法和概念。......
  • 初学者 JavaScript
    JavaScript是一种高级编程语言,广泛应用于Web开发。它由BrendanEich于1995年创建,现已成为世界上最流行的编程语言之一。JavaScript主要用于前端Web开发,用于创建交互式用户界面和动态网页。它还可以在Node.js的帮助下用于后端Web开发,Node.js是一个运行时环境,允许开......