首页 > 其他分享 >Apache Kafka的生态

Apache Kafka的生态

时间:2024-10-14 22:35:19浏览次数:1  
标签:集成 支持 Kafka Connect 连接器 Apache 工具 生态

Kafka 生态系统

  • 微信公众号:阿俊的学习记录空间

  • 小红书:ArnoZhang

  • wordpress:arnozhang1994

  • 博客园:arnozhang

  • CSDN:ArnoZhang1994

以下是与 Kafka 集成的工具列表,涵盖了不同领域的工具和扩展。这些工具并非全部经过验证使用,部分可能不兼容或存在问题。

Kafka Connect

Kafka 提供了内置框架 Kafka Connect,用于编写数据源和数据接收器。该框架支持将数据持续写入 Kafka,或将 Kafka 中的数据写入外部系统。不同应用或数据系统的连接器是独立于 Kafka 主代码库维护的。Confluent Hub 提供了连接器的外部托管列表。

流处理

  • Kafka Streams: Kafka 内置的流处理库,包含丰富的文档和代码示例。
  • 其他流处理框架:
    • Storm: 流处理框架,支持通过 Kafka 作为消息源。
    • Samza: 基于 YARN 的流处理框架。
    • SparkStreaming: 支持 Kafka 0.8 及以上版本。
    • Flink: 与 Kafka 有集成。
    • IBM Streams: 支持 Kafka 消息的消费和生产。
    • Spring Cloud Stream: 用于构建事件驱动微服务的框架。
    • Apache Apex: 提供 Kafka 的源和接收器连接器。
    • Logstash: 提供 Kafka 输入和输出插件。
    • Logagent: 具有 Kafka 插件的日志处理工具。

Hadoop 集成

  • Confluent HDFS Connector: Kafka Connect 框架中的 HDFS 接收器。
  • Camus: LinkedIn 的 Kafka 到 HDFS 管道工具。
  • Flume: 提供 Kafka 作为数据源和接收器的支持。
  • KaBoom: 高性能的 HDFS 数据加载器。

数据库集成

  • Confluent JDBC Connector: 用于从 RDBMS(如 MySQL)向 Kafka 写入数据的 Kafka Connect 框架源连接器。
  • Oracle Golden Gate Connector: 通过 Golden Gate 采集 CDC 操作并写入 Kafka。

搜索与查询

  • Elasticsearch: 支持将 Kafka 消息处理并索引到 Elasticsearch,Kafka Connect 也提供 Elasticsearch 的连接器。
  • Presto: 允许使用 SQL 查询 Kafka 数据。
  • Hive: 使用 Hive SQL 查询 Kafka(目前仅支持 Avro)。
  • OpenMLDB Kafka Connector: 支持通过 SQL 定义和提取数据流中的特征,用于机器学习应用。

管理控制台

  • Kafka Manager: 管理 Kafka 的工具。
  • Kafka Web Console: 显示 Kafka 集群状态和主题信息。
  • Kafka Offset Monitor: 显示消费者的状态及其滞后情况。
  • Cruise Control: 自动化动态负载重新平衡和集群自愈工具。
  • Burrow: 提供消费者延迟检查服务。
  • Xinfra Monitor: 监控 Kafka 集群和镜像管道的可用性与性能。

AWS 集成

  • 自动化 AWS 部署: 相关工具支持 Kafka 与 AWS S3 的镜像工具。

日志记录

  • syslog 集成: 提供 syslog 生产者支持,常见的日志收集工具(如 syslog-ng、klogd 等)都可与 Kafka 集成。
  • Logstash 集成: Logstash 和 Fluentd 插件支持 Kafka。

指标监控

  • Mozilla Metrics Service: 基于 Kafka 和 Protocol Buffers 的指标和日志系统。
  • Ganglia Integration: Ganglia 与 Kafka 的集成。
  • Sematext Kafka 监控集成: 提供 200+ Kafka 指标的收集和图表展示。
  • Dropwizard Metrics 集成: 支持将 Kafka 客户端和流处理的内建指标注册到 Dropwizard Metrics。

打包与部署

  • RPM 和 Debian 打包: 提供 Kafka 的 RPM 和 Debian 打包支持。
  • Puppet 集成: 提供 Puppet 模块管理 Kafka 的配置和部署。

Kafka Camel 集成

  • 提供与 Apache Camel 的 Kafka 集成,支持 Camel-Kafka 组件。

其他工具

  • Kafka Websocket: 支持通过 Websocket 与浏览器通信的 Kafka 代理。
  • KafkaCat: 原生命令行生产者和消费者工具。
  • Kafka Mirror: 替代内置镜像工具的 Kafka 镜像工具。
  • uReplicator: 跨数据中心的 Kafka 集群复制工具。
  • Mirus: 基于 Kafka Connect 的分布式高容量复制工具。

标签:集成,支持,Kafka,Connect,连接器,Apache,工具,生态
From: https://www.cnblogs.com/arnozhang/p/18466139

相关文章

  • Apache Kafka各Api模块说明
    KafkaAPI微信公众号:阿俊的学习记录空间小红书:ArnoZhangwordpress:arnozhang1994博客园:arnozhangCSDN:ArnoZhang1994Kafka包含五个核心API:ProducerAPI允许应用程序将数据流发送到Kafka集群中的topic。ConsumerAPI允许应用程序从Kafka集群中的topic读取数据流......
  • 微服务02 Kafka消息队列, Dubbo, Springcloud微服务框架, Nacos
    3.6Kafka部署kafka下载链接http://kafka.apache.org/downloads#清华源https://mirrors.tuna.tsinghua.edu.cn/apache/kafka/kafka版本格式kafka_<scala版本>_<kafka版本>#示例:kafka_2.13-2.7.0.tgz官方文档:http://kafka.apache.org/quickstart#二进制安装......
  • 微服务01 ZooKeeper, Kafka
    1.4微服务1.4.6SpringCloudJAVA微服务技术Dubbo是2014年之前阿里退出的分布式系统的技术(不属于微服务)。现在主流是SpringCloudSpringCloud 官网地址:https://spring.io/projects/spring-cloud官网上实现方法有很多种,目前主流是阿里巴巴实现的方法Sprin......
  • Apache 设置端口重定向
    1.背景今天收到了云服务商的邮件,说是根据历史的备案信息网站无法访问,突然想起在此之前配置apache时,默认的访问路径是不完整的,需要添加后缀才能访问到站点。同时,由于配置SSL证书后没有进行重定向,导致http访问时会被定向到php的测试界面。2.修改2.1更新默认站点的访问......
  • 如何在 Ubuntu 16.04 上将 Apache Web 根目录移动到新位置
    前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家。点击跳转到网站。简介在Ubuntu上,默认情况下,Apache2Web服务器将其文档存储在/var/www/html目录中,通常位于与操作系统其余部分相同的根文件系统上。然而,有时将文档根目录移动到另一个位......
  • Meta分析在生态环境领域里的应用
       Meta分析(MetaAnalysis)是当今比较流行的综合具有同一主题的多个独立研究的统计学方法,是较高一级逻辑形式上的定量文献综述。20世纪90年代后,Meta分析被引入生态环境领域的研究,并得到高度的重视和长足的发展,尤其是在生态系统对CO2浓度升高、全球变暖、O3浓度升高等的响应,以......
  • kafka启动错误
    说明:记录一次kafka启动多个错误,如下,提示kafka的数据文件夹里没有“meta.properties”[2024-10-0819:03:08,009]INFORegisteredkafka:type=kafka.Log4jControllerMBean(kafka.utils.Log4jControllerRegistration$)[2024-10-0819:03:08,386]INFOSetting-Djdk.tls......
  • Kafka 消费者位置提交方式及适用场景
    《Kafka消费者位置提交方式及适用场景》在使用Kafka进行消息处理时,消费者的位置提交是一个非常重要的环节。它决定了消费者在下次启动时从哪里开始读取消息。今天,我们就来深入探讨一下Kafka消费者位置提交方式有哪些,以及在什么场景下使用。一、Kafka消费者位置提交的重要性......
  • Kafka 的 Producer 如何实现幂等性
    在分布式系统中,消息队列Kafka扮演着重要的角色。而确保Kafka的Producer(生产者)的消息发送具有幂等性,可以极大地提高系统的可靠性和稳定性。那么,Kafka的Producer是如何实现幂等性的呢?让我们一起来深入探讨。一、什么是幂等性?在数学中,幂等性是指一个操作执行多次与执......
  • Kafka 消费者位置提交方式及适用场景
    在使用Kafka进行消息处理时,消费者的位置提交是一个非常重要的环节。它决定了消费者在下次启动时从哪里开始读取消息。今天,我们就来深入探讨一下Kafka消费者位置提交方式有哪些,以及在什么场景下使用。一、Kafka消费者位置提交的重要性在Kafka中,消费者会不断地从主题......