首页 > 其他分享 >K8S环境快速部署Kafka(K8S外部可访问)

K8S环境快速部署Kafka(K8S外部可访问)

时间:2022-12-19 20:35:53浏览次数:76  
标签:kubectl 50.135 -- zookeeper kafka 访问 test K8S Kafka

欢迎访问我的GitHub

这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos

如何快速部署

  1. 借助Helm,只需少量操作即可部署kafka;
  2. kafka和zookeeper对存储都有需求,若提前准备了StorageClass,存储一事则变得十分简单

环境信息

  • 本次实战的操作系统和软件的版本信息如下:
  1. Kubernetes:1.15
  2. Kubernetes宿主机:CentOS Linux release 7.7.1908
  3. NFS服务:IP地址 192.168.50.135 ,文件夹 /volume1/nfs-storageclass-test
  4. Helm:2.16.1
  5. Kafka:2.0.1
  6. Zookeeper:3.5.5
  • 接下来的实战之前,请您准备好:K8S、Helm、NFS、StorageClass;

操作

  • 添加helm仓库(该仓库中有kafka): helm repo add incubator http://storage.googleapis.com/kubernetes-charts-incubator
  • 下载kafka的chart: helm fetch incubator/kafka
  • 下载成功后当前目录有个压缩包: kafka-0.20.8.tgz ,解压: tar -zxvf kafka-0.20.8.tgz
  1. 进入解压后的kafka目录,编辑 values.yaml 文件,下面是具体的修改点:
  • 首先要设置在K8S之外的也能使用kafka服务,修改 external.enabled 的值,改为 true在这里插入图片描述
  • 找到 configurationOverrides ,下图两个黄框中的内容原本是注释的,请删除注释符号,另外,如果您之前设置过跨网络访问kafka,就能理解下面写入K8S宿主机IP的原因了: 在这里插入图片描述
  • 接下来设置数据卷,找到 persistence ,按需要调整大小,再设置已准备好的 storageclass 的名称: 在这里插入图片描述
  • 再设置zookeeper的数据卷: 在这里插入图片描述
  • 设置完成,开始部署,先创建namespace,执行: kubectl create namespace kafka-test
  • 在kafka目录下执行: helm install --name-template kafka -f values.yaml . --namespace kafka-test
  • 如果前面的配置没有问题,控制台提示如下所示: 在这里插入图片描述
  • kafka启动依赖zookeeper,整个启动会耗时数分钟,期间可见zookeeper和kafka的pod逐渐启动: 在这里插入图片描述
  • 查看服务:kubectl get services -n kafka-test,如下图红框所示,通过 宿主机IP:31090、宿主机IP:31091、宿主机IP:31092 即可从外部访问kafka: 在这里插入图片描述
  • 查看kafka版本: kubectl exec kafka-0 -n kafka-test -- sh -c 'ls /usr/share/java/kafka/kafka_*.jar' ,如下图红框所示,scala版本 2.11 ,kafka版本 2.0.1在这里插入图片描述
  • kafka启动成功后,咱们来验证服务是否正常;

对外暴露zookeeper

  • 为了远程操作kafka,有时需要连接到zookeeper,所以需要将zookeeper也暴露出来;
  • 创建文件 zookeeper-nodeport-svc.yaml ,内容如下:
apiVersion: v1
kind: Service
metadata:
  name: zookeeper-nodeport
  namespace: kafka-test
spec:
  type: NodePort
  ports:
       - port: 2181
         nodePort: 32181
  selector:
    app: zookeeper
    release: kafka
  • 执行命令: kubectl apply -f zookeeper-nodeport-svc.yaml
  • 查看服务,发现已经可以通过 宿主机IP:32181 访问zookeeper了,如下图: 在这里插入图片描述

验证kafka服务

  • 找一台电脑安装kafka包,就能通过里面自带的命令远程连接和操作K8S的kafka了:

  • 访问kafka官网: http://kafka.apache.org/downloads ,刚才确定了scala版本 2.11 ,kafka版本 2.0.1 ,因此下载下图红框中的版本: 在这里插入图片描述

  • 下载后解压,进入目录 kafka_2.11-2.0.1/bin

  • 查看当前topic:

./kafka-topics.sh --list --zookeeper 192.168.50.135:32181
  • 如下图,空空如也: 在这里插入图片描述
  • 创建topic:
./kafka-topics.sh --create --zookeeper 192.168.50.135:32181 --replication-factor 1 --partitions 1 --topic test001

如下图,创建成功后再查看topic终于有内容了: 在这里插入图片描述

  • 查看名为test001的topic:
./kafka-topics.sh --describe --zookeeper 192.168.50.135:32181 --topic test001

在这里插入图片描述

  • 进入创建消息的交互模式:
./kafka-console-producer.sh --broker-list 192.168.50.135:31090 --topic test001

进入交互模式后,输入任何字符串再输入回车,就会将当前内容作为一条消息发送出去: 在这里插入图片描述

  • 再打开一个窗口,执行命令消费消息:
./kafka-console-consumer.sh --bootstrap-server 192.168.50.135:31090 --topic test001 --from-beginning

在这里插入图片描述

  • 再打开一个窗口,执行命令查看消费者group:
./kafka-consumer-groups.sh --bootstrap-server 192.168.50.135:31090 --list

如下图可见groupid等于 console-consumer-21022 在这里插入图片描述

  • 执行命令查看groupid等于console-consumer-21022的消费情况:
./kafka-consumer-groups.sh --group console-consumer-21022 --describe --bootstrap-server 192.168.50.135:31090
  • 如下图所示: 在这里插入图片描述
  • 远程连接kafka体验基本功能完毕,查看、收发消息都正常,证明本次部署成功;

kafkacat连接

  • afkacat是个客户端工具,我这里是在MacBook Pro上用brew安装的;
  • 我这里K8S服务器IP是 192.168.50.135 ,因此执行此命令查看kafka信息: kafkacat -b 192.168.50.135:31090 -L ,如下图,可以看到broker信息,以及topic信息(一个是test001,还有一个是consumer的offset),把端口换成 3109131092 会连接到另外两个broker,也能得到相同信息: 在这里插入图片描述

清理资源

  • 本次实战创建了很多资源:rbac、role、serviceaccount、pod、deployment、service,下面的脚本可以将这些资源清理掉(只剩NFS的文件没有被清理掉):
helm del --purge kafka
kubectl delete service zookeeper-nodeport -n kafka-test
kubectl delete storageclass managed-nfs-storage
kubectl delete deployment nfs-client-provisioner -n kafka-test
kubectl delete clusterrolebinding run-nfs-client-provisioner
kubectl delete serviceaccount nfs-client-provisioner -n kafka-test
kubectl delete role leader-locking-nfs-client-provisioner -n kafka-test
kubectl delete rolebinding leader-locking-nfs-client-provisioner -n kafka-test
kubectl delete clusterrole nfs-client-provisioner-runner
kubectl delete namespace kafka-test
  • 至此,K8S环境部署和验证kafka的实战就完成了,希望能给您提供一些参考;

欢迎关注51CTO博客:程序员欣宸

学习路上,你不孤单,欣宸原创一路相伴...

标签:kubectl,50.135,--,zookeeper,kafka,访问,test,K8S,Kafka
From: https://blog.51cto.com/zq2599/5948848

相关文章

  • Kubernetes(k8s) kubectl certificate常用命令
    kubectl在$HOME/.kube目录中查找一个名为config的配置文件。可以通过设置KUBECONFIG环境变量或设置--kubeconfig参数来指定其它kubeconfig文件。本文主要介绍K......
  • Java笔记(5)——类的继承、访问控制、super关键字
      在类中,不写构造方法,相当于执行了默认的无参构造方法;写了有参构造方法,则只执行有参构造方法,默认的无参构造方法则会被屏蔽掉;若想拥有有参和无参构造方法,则同时显示地写出......
  • 使用Akka、Kafka和ElasticSearch等构建分析引擎 -- good
    本文翻译自​​BuildingAnalyticsEngineUsingAkka,Kafka&ElasticSearch​​,已获得原作者SatendraKumar和网站授权。在这篇文章里,我将和大家分享一下我用Scala、Akka......
  • k8s的ConfigMap使用
    1环境变量模式结论:不会自动更新,只能重启pod。cm.yamlapiVersion:v1kind:ConfigMapmetadata: name:cm-test namespace:defaultdata: allowed:'"true"' lives:......
  • 基于KubeSphere玩转k8s安装手册
    基于KubeSphere玩转k8s-KubeSphere安装手记KubeSphereKubernetes 转自  Githubhttps://github.com/devops/z-notes 1.本文简介本文是基于KubeSphere玩转k8s的开......
  • kafka集群缩容
    #获取kafka主题列表/data01/server/kafka/bin/kafka-topics.sh--zookeeperoffline-op-kafka-ali-01:2181--list>topics.txt#通过py脚本格式化一下主题列表,生成to......
  • 消息中间件kafka之客户端操作
    消息中间件Kafka之客户端操作一、客户端API类型​​AdminClientAPI​​:允许管理和检测Topic、broker以及其他Kafka对象​​ProducerAPI​​:发布消息到一个或者多个Topic......
  • Kafka知识总结之集群环境搭建
    简述Kafka是一个分布式流平台,本质是一个消息队列。消息队列的三个作用:异步、消峰和解耦。一.安装zookeeper1.1.下载并解压#下载wgethttps://mirror.bit.edu.cn/apache/z......
  • Kafka知识总结之Broker原理总结
    简介这篇文章介绍Kafka的Broker工作流程,包括其中控制器的选举过程;kafka副本的leader选举以及leader和follower故障流程;简单讲述了生产环境中如何调整分区副本;kafka的文件存......
  • Kafka知识总结之生产者简单使用
    一.测试环境搭建引入依赖:<dependency><groupId>org.apache.kafka</groupId><artifactId>kafka-clients</artifactId><version>2.8.0</version></dependency>创......