首页 > 其他分享 >Apache Kafka 使用详解

Apache Kafka 使用详解

时间:2024-07-23 21:58:11浏览次数:11  
标签:示例 Kafka Topic 详解 streams 消息 Apache kafka

文章目录

引言

Apache Kafka 是一个分布式流处理平台,由LinkedIn开发,后成为Apache软件基金会下的一个顶级项目。它主要用于构建实时数据管道和流应用程序。Kafka 以其高吞吐量、可扩展性、持久性和容错性而闻名,被广泛应用于日志收集、消息系统、用户行为追踪、实时数据分析等领域。

官网链接

Apache Kafka 官网

Kafka 原理

核心概念

  • Broker:Kafka 集群中的一个或多个服务器,用于存储消息。
  • Topic:消息的分类,生产者向特定主题发送消息,消费者从特定主题订阅消息。
  • Partition:Topic 的物理分区,每个Partition 是一个有序的、不可变的消息序列,可以分布在多个Broker上。
  • Producer:消息生产者,负责向Kafka集群发送消息。
  • Consumer:消息消费者,从Kafka集群订阅并消费消息。
  • Consumer Group:消费者组,同一个组内的消费者共同消费一个Topic的不同分区,实现负载均衡和容错。

工作原理

Kafka 通过分区和副本机制实现高吞吐量和数据可靠性。生产者发送消息到指定的Topic,Kafka根据分区规则(如轮询、随机、基于key的哈希等)将消息分配到不同的Partition中。每个Partition有多个副本,以提高数据的可用性和容错性。消费者通过订阅Topic并从其分配的Partition中读取消息来消费数据。

基础使用

安装与启动

  1. 下载Kafka并解压。
  2. 配置server.properties(如设置broker.id、listeners等)。
  3. 启动ZooKeeper(Kafka依赖ZooKeeper进行集群管理)。
  4. 启动Kafka Server。

生产者示例

使用Kafka自带的命令行工具发送消息:

bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test
> Hello Kafka

消费者示例

使用Kafka自带的命令行工具消费消息:

bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning

高级使用

Kafka Streams

Kafka Streams 是一个用于构建实时流处理应用程序的客户端库,它允许开发者以声明式的方式处理Kafka中的数据流。

示例:单词计数
import org.apache.kafka.streams.KafkaStreams;
import org.apache.kafka.streams.StreamsBuilder;
import org.apache.kafka.streams.kstream.KStream;
import org.apache.kafka.streams.kstream.KTable;

public class WordCountApp {
    public static void main(String[] args) {
        StreamsBuilder builder = new StreamsBuilder();
        KStream<String, String> source = builder.stream("streams-plaintext-input");
        KTable<String, Long> wordCounts = source
            .flatMapValues(value -> Arrays.asList(value.toLowerCase().split("\\s+")))
            .groupBy((key, word) -> word)
            .count();

        wordCounts.toStream().to("streams-wordcount-output", Produced.with(Serdes.String(), Serdes.Long()));

        KafkaStreams streams = new KafkaStreams(builder.build(), props);
        streams.start();
        // 添加关闭钩子
        Runtime.getRuntime().addShutdownHook(new Thread(streams::close));
    }
}

Kafka Connect

Kafka Connect 是一个可扩展的工具,用于在Kafka和其他系统之间双向传输数据。它支持连接多种数据源,如数据库、文件系统、云存储等。

示例:使用Kafka Connect将MySQL数据导入Kafka

需要配置一个Kafka Connect的Connector,指定源数据库和目标Kafka Topic等参数。

优缺点

优点

  • 高吞吐量:能够处理大量的数据。
  • 可扩展性:通过增加更多的Broker可以水平扩展。
  • 持久性:消息被持久化到磁盘,支持数据恢复。
  • 容错性:通过副本机制保证数据的高可用性。
  • 解耦:生产者和消费者之间无需直接交互。

缺点

  • 依赖ZooKeeper:虽然ZooKeeper增强了Kafka的集群管理能力,但也引入了额外的复杂性和潜在的故障点。
  • 学习曲线:Kafka的配置和使用相对复杂,需要一定的学习和实践。
  • 消息顺序:在单个分区内保证消息的顺序,但跨分区则不保证。

结论

Apache Kafka 凭借其高吞吐量、可扩展性、持久性和容错性等优势,已成为现代大数据和实时数据处理领域不可或缺的一部分。无论是作为消息系统、日志收集平台,还是实时数据分析的基石,Kafka 都展现出了其卓越的性能和灵活性。尽管它存在一定的学习曲线,并且依赖于ZooKeeper进行集群管理,但这些挑战并没有阻止Kafka在业界的广泛应用和持续发展。随着技术的进步和社区的不断贡献,Kafka 的功能和性能将会进一步提升,为更多的实时数据处理场景提供强大的支持。因此,对于需要处理大规模实时数据的组织来说,学习和掌握Kafka 的使用是非常有价值的。

标签:示例,Kafka,Topic,详解,streams,消息,Apache,kafka
From: https://blog.csdn.net/Aaron_945/article/details/140647090

相关文章

  • 【分享】WinRAR五大实用功能详解:让文件管理更高效
    WinRAR作为一款功能强大的压缩和解压缩工具,拥有许多实用功能。今天来分享其中的5个功能,一起来看看这些功能如何设置吧!功能一:文件压缩文件压缩是WinRAR的基本功能,通过压缩文件可以减少存储空间和传输时间。1.选择要压缩的目标文件或文件夹,右键点击并选择【添加到压缩文件.........
  • Milvus 核心组件(3)--- MinIO详解
    目录背景MinIO安装dockerdesktop安装UbuntuUI在docker中的安装Minio下载及安装启动miniodockerimage保存启动minioweb网页下一次启动MinIO基本概念基本概述主要特性应用场景MinIO使用连接server创建bucket查询bucket上传文件到bucket一般用......
  • 使用poi操作excel报这个错 java.lang.NoSuchMethodError: org.apache.logging.log4j.L
    使用poi操作excel报这个错java.lang.NoSuchMethodError:org.apache.logging.log4j.Logger.atTrace()Lorg/apache/logging/log4j/经查发现poi、poi-ooxml引用了log4j-api,版本较低,没有atTrace()方法 解决办法:移除poi、poi-ooxml引用的log4j-api,重新引用高版本的依赖 ......
  • chmod命令详解
    chmod是Unix和Linux系统中用于更改文件或目录权限的命令。权限控制确保只有适当的用户可以读取、写入或执行文件。为了有效地使用chmod,需要理解文件权限的表示方法。权限表示方法文件权限由三组组成:用户(user),组(group),和其他(others)。每组有三种权限:读(read,r)写(writ......
  • 简化数据流:Apache SeaTunnel实现多表同步的高效指南
    ApacheSeaTunnel除了单表之间的数据同步之外,也支持单表同步到多表,多表同步到单表,以及多表同步到多表,下面简单举例说明如何实现这些功能。单表to单表一个source,一个sink。从mysql同步到mysql,中间不做区分env{#Youcansetflinkconfigurationhereexecution.parall......
  • Apache DolphinScheduler 3.2.2 版本正式发布!
    ApacheDolphinScheduler3.2.2版本正式发布!近日,ApacheDolphinScheduler发布了3.2.2版本。此版本主要基于3.2.1版本进行了bug修复,新增若干特性,并进行了众多改进和Bug修复,以及文档修复等。......
  • 力扣第二题——两数相加(链表的讲解与运用,含解决链表问题模板)(含思路详解、完整代码与知
    内容介绍给你两个 非空 的链表,表示两个非负的整数。它们每位数字都是按照 逆序 的方式存储的,并且每个节点只能存储 一位 数字。请你将两个数相加,并以相同形式返回一个表示和的链表。你可以假设除了数字0之外,这两个数都不会以0 开头。示例1:输入:l1=[2,4,3],......
  • Django视图与URLs路由详解
            在DjangoWeb框架中,视图(Views)和URLs路由(URLrouting)是Web应用开发的核心概念。它们共同负责将用户的请求映射到相应的Python函数,并返回适当的响应。本篇博客将深入探讨Django的视图和URLs路由系统,提供实际的代码示例和操作指导,确保读者能够具体而实际地了解如......
  • SQL 注入漏洞详解 - Union 注入
    1)漏洞简介SQL注入简介SQL注入即是指Web应用程序对用户输入数据的合法性没有判断或过滤不严,攻击者可以在Web应用程序中事先定义好的查询语句的结尾上添加额外的SQL语句,在管理员不知情的情况下实现非法操作,以此来实现欺骗数据库服务器执行非授权的任意查询,从而进一步得到......
  • C语言printf和scanf函数详解
    文章目录一、printf二、scanf一、printfprintf()的作⽤是将参数⽂本输出到屏幕。它名字⾥⾯的f代表format(格式化),表示可以定制输出⽂本的格式,并且它是一个库函数,要包含头文件<stdio.h>,具体包含方式如下:#include<stdio.h>printf最基本的用法:用双引号直接引起需要......