首页 > 其他分享 >Kafka 快速入门-安装部署

Kafka 快速入门-安装部署

时间:2024-11-07 19:14:57浏览次数:3  
标签:opt 入门 部署 kafka3 kafka installs sh 集群 Kafka

目录

1.1 安装部署

1.1.1 集群规划

1.1.2集群规划

1.1.3 集群启停脚本


1.1 安装部署

1.1.1 集群规划

bigdata01

bigdata02

bigdata03

zk

zk

zk

kafka

kafka

kafka

1.1.2集群规划

每次进入 linux 都会自动进入 base 环境,如何关闭 base

conda deactivate  手动关闭
conda config --set auto_activate_base false  关闭自动进入

0官方下载地址:http://kafka.apache.org/downloads.html

检查三台zk是否启动:

zkServer.sh start 默认启动方式

也可以使用脚本启动 zk.sh start

1解压安装包

kafka中 2.12 是scala语言的版本,3.0.0是kafka版本

tar -zxvf kafka_2.12-3.0.0.tgz -C /opt/installs/

2修改解压后的文件名称

 mv kafka_2.12-3.0.0/ kafka3

 版本号解读:2.12 是scala版本,3.0.0是kafka版本

3)进入到/opt/installs/kafka3 目录,修改配置文件

cd config/ 
vi server.properties

修改红色部分:

#broker 的全局唯一编号,不能重复,只能是数字。

broker.id=0

#处理网络请求的线程数量

num.network.threads=3

#用来处理磁盘 IO 的线程数量

num.io.threads=8

#发送套接字的缓冲区大小

socket.send.buffer.bytes=102400

#接收套接字的缓冲区大小

socket.receive.buffer.bytes=102400

#请求套接字的缓冲区大小

socket.request.max.bytes=104857600

#kafka 运行日志(数据)存放的路径,路径不需要提前创建,kafka 自动帮你创建,可以

配置多个磁盘路径,路径与路径之间可以用","分隔

log.dirs=/opt/installs/kafka3/datas

#topic 在当前 broker 上的分区个数

num.partitions=1

#用来恢复和清理 data 下数据的线程数量

num.recovery.threads.per.data.dir=1

# 每个 topic 创建时的副本数,默认时 1 个副本

offsets.topic.replication.factor=1

#segment 文件保留的最长时间,超时将被删除

log.retention.hours=168

#每个 segment 文件的大小,默认最大 1G

log.segment.bytes=1073741824

# 检查过期数据的时间,默认 5 分钟检查一次是否数据过期

log.retention.check.interval.ms=300000

#配置连接 Zookeeper 集群地址(在 zk 根目录下创建/kafka,方便管理)

zookeeper.connect=bigdata01:2181,bigdata02:2181,bigdata03:2181/kafka

/kafka的意思是:在zk中创建一个文件夹叫做kafka

4分发安装包

xsync.sh kafka3/      也可以使用scp

scp /opt/installs/kafka3 root@hadoop12:/opt/installs

5)分别在 bigdata02 和 bigdata03上修改配置文件/opt/installs/kafka/config/server.properties 中的 broker.id=1、broker.id=2

注:broker.id 不得重复,整个集群中唯一。

6配置环境变量

(1)修改bigdata01的环境变量,增加如下内容:

#KAFKA_HOME 

export KAFKA_HOME=/opt/installs/kafka3
export PATH=$PATH:$KAFKA_HOME/bin

分发一下:
xsync.sh /etc/profile

(2)刷新一下环境变量。

 xcall.sh source /etc/profile 

7启动集群

(1)先启动 Zookeeper 集群,然后启动 Kafka。 【如果启动过就跳过】

xcall.sh zkServer.sh start

(2)依次在 bigdata01、bigdata02、bigdata03 节点上启动 Kafka。

先进入到kafka3 这个文件夹中,在三台服务器上分别运行启动命令:
bin/kafka-server-start.sh -daemon config/server.properties

关闭集群 :

bin/kafka-server-stop.sh

1.1.3 集群启停脚本

1)在/usr/local/sbin 目录下创建文件 kf.sh 脚本文件
vim kf.sh
2) 编写脚本
 

#! /bin/bash
case $1 in
"start"){
 for i in bigdata01 bigdata02 bigdata03
 do
 echo " --------启动 $i Kafka-------"
 ssh $i "source /etc/profile; /opt/installs/kafka3/bin/kafka-server-start.sh -daemon /opt/installs/kafka3/config/server.properties"
 done
};;
"stop"){
 for i in bigdata01 bigdata02 bigdata03
 do
 echo " --------停止 $i Kafka-------"
 ssh $i "source /etc/profile; /opt/installs/kafka3/bin/kafka-server-stop.sh"
 done
};;
esac

3)添加权限

chmod u+x kf.sh

如何使用:
kf.sh start
kf.sh stop

注意:停止 Kafka 集群时,一定要等 Kafka 所有节点进程全部停止后再停止 Zookeeper 集群。因为 Zookeeper 集群当中记录着 Kafka 集群相关信息,Zookeeper 集群一旦先停止, Kafka 集群就没有办法再获取停止进程的信息,只能手动杀死 Kafka 进程了。

标签:opt,入门,部署,kafka3,kafka,installs,sh,集群,Kafka
From: https://blog.csdn.net/weixin_53709379/article/details/143605633

相关文章

  • 训练好的模型怎么使用(非常详细),零基础入门到精通,看这一篇就够了
    前言“训练大模型的目的,就是为了解决业务问题”学习机器学习的人大部分都知道怎么设计并训练一个模型,但开发模型的目的是为了解决业务问题,所以怎么使用大模型也是重中之重。刚训练好的大模型事实上虽然可以用,但由于没有用户接口,所以只能自己用,无法对外提供服务;所以,刚训......
  • nginx 部署2个相同的vue
    起因:最近遇到一个问题,在前端用nginx部署vue,发现如果前端有改动,如果不适用热更新,而是直接复制项目过去,会404因此想到用nginx负载两套相同vue项目,然后一个个复制vue项目就可以了。 废话不多:一在nginx下创建两个vue的路径 二修改nginx的配置文件worker_processes......
  • 基于Centos7.X部署mysql8.4集群(主备)
    1、目标    将在主库的数据变更同步到从库,从而保证主库和从库的数据一致。2、原理    2.1主库会把数据变更记录在二进制日志文件Binlog中    2.2从库连接主库,读取binlog日志,并写入自身中继日志relaylog    2.3slave重做中继日志,将改变......
  • Springboot游戏网站322mj(程序+源码+数据库+调试部署+开发环境)
    本系统(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。系统程序文件列表用户,游戏信息,游戏分类,拍卖行,卖家,装备购买,游戏周边,周边购买,点卡充值,充值信息,处罚公示,处罚申诉,商品分类开题报告内容一、研究背景与意义随着信息技术......
  • 大模型-大模型推理部署-08
    目录大模型常见推理框架:Transformers、Llama.cpp、Llamafile、Ollama、vLLM、TGI(TextGenerationInference)、DeepSpeed。vLLM,deepspeed是重点HuggingFace的Transformers强大的Python库,专为简化本地运行LLM而设计。其优势在于自动模型下载、提供丰富的代码片段,以及非常适合......
  • pyspark 解析kafka数组结构数据
    frompyspark.sql.functionsimportget_json_object,col,from_unixtime,instr,length,regexp_replace,explode,from_jsonfrompyspark.sql.typesimport*#定义数组结构schema=ArrayType(StructType([StructField("home",StringType()),S......
  • kservert安装部署
    1.版本要求KubernetesVersionRecommendedIstioVersion1.271.18,1.191.281.19,1.201.291.20,1.212.安装istio,certmanager(master1)#安装istio wgethttps://github.com/istio/istio/releases/download/1.23.3/istioctl-1.23.3-linux-a......
  • Oracle 19c Rac环境部署
    Oracle19cRac环境部署前言搭建Oracle19cRac环境部署,使用dns进行解析。一、软件包linuxx64_193000_grid_home.ziplinuxx64_193000_db_home.zip二、配置信息1.IP地址规划编辑/etc/hosts#publicip10.1.50.213kezcc1kezcc1.zcc.com10.1.50.214kezcc......
  • linux部署本地测试服务器,部署showdoc,并挂载额外硬盘用于windows共享文件
    过程中坑还是挺多的,在这里做个记录,方便他人也方便自己一、安装linux系统下载镜像使用rufus制作启动盘(linux系统不能使用大白菜等软件)更改网络配置(ifcfg-ens33是网卡名,看个人主机配置而定)vi/etc/sysconfig/network-scripts/ifcfg-ens33将ONBOOT="no"改为ONBOOT=“yes......
  • CTF入门教程(非常详细)从零基础入门到竞赛,看这一篇就够了
    ![](https://img-blog.csdnimg.cn/direct/40c12407163545e89a5730feb5c1b5ad.png)一、CTF简介CTF(CaptureTheFlag)中文一般译作夺旗赛,在网络安全领域中指的是网络安全技术人员之间进行技术竞技的一种比赛形式。CTF起源于1996年DEFCON全球黑客大会,以代替之前黑客们通过互......