首页 > 其他分享 >银河麒麟高级服务器操作系统V10 SP3安装kafka_2.12-2.3.1

银河麒麟高级服务器操作系统V10 SP3安装kafka_2.12-2.3.1

时间:2023-04-21 12:44:56浏览次数:44  
标签:10 -- V10 SP3 kafka root properties localhost

银河麒麟高级服务器操作系统V10 SP3安装kafka_2.12-2.3.1

 

1.安装环境设置

1关闭Selinux

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 [root@localhost ~]# vim /etc/selinux/config   # This file controls the state of SELinux on the system. # SELINUX= can take one of these three values: #     enforcing - SELinux security policy is enforced. #     permissive - SELinux prints warnings instead of enforcing. #     disabled - No SELinux policy is loaded. SELINUX=disabled #SELINUX=enforcing # SELINUXTYPE= can take one of these three values: #     targeted - Targeted processes are protected, #     minimum - Modification of targeted policy. Only selected processes are protected. #     ukmls - Multi Level Security protection. #     ukmcs -ukmcs variants of the SELinux policy. #SELINUXTYPE=targeted SELINUXTYPE=targeted   # SETLOCALDEFS= Check local definition changes SETLOCALDEFS=0

  将selinux配置文件中的“SELINUX=enforcing”更改为“SELINUX=disabled”并注释“#SELINUXTYPE=ukmcs”

1 2 [root@localhost ~]# setenforce 0  #使配置立即生效 setenforce: SELinux is disabled

1.2打开防火墙9092端口

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [root@localhost ~]# vim /etc/sysconfig/iptables   # sample configuration for iptables service # you can edit this manually or use system-config-firewall # please do not ask us to add additional ports/services to this default configuration *filter :INPUT ACCEPT [0:0] :FORWARD ACCEPT [0:0] :OUTPUT ACCEPT [0:0] -A INPUT -m state --state RELATED,ESTABLISHED -j ACCEPT -A INPUT -p icmp -j ACCEPT -A INPUT -i lo -j ACCEPT -A INPUT -p tcp -m state --state NEW -m tcp --dport 22 -j ACCEPT -A INPUT -p tcp -m state --state NEW -m tcp --dport 9092 -j ACCEPT     ##增加9092端口放行规则 -A INPUT -j REJECT --reject-with icmp-host-prohibited -A FORWARD -j REJECT --reject-with icmp-host-prohibited COMMIT
1 [root@localhost ~]# systemctl restart iptables   #重启防火墙

3、安装kafka

[root@localhost kafka]# find ./libs/ -name *kafka_* | head -1 | grep -o 'kafka[^ ]*'   # 查看kafka版本信息
kafka_2.11-1.0.0.jar

[root@localhost 桌面]# wget https://archive.apache.org/dist/kafka/1.0.1/kafka_2.11-1.0.1.tgz   #下载kafka
--2023-02-16 16:12:10-- https://archive.apache.org/dist/kafka/1.0.1/kafka_2.11-1.0.1.tgz
正在解析主机 archive.apache.org (archive.apache.org)... 138.201.131.134, 2a01:4f8:172:2ec5::2
正在连接 archive.apache.org (archive.apache.org)|138.201.131.134|:443... 已连接。
已发出 HTTP 请求,正在等待回应... 200 OK
长度:49766096 (47M) [application/x-gzip]
正在保存至: “kafka_2.11-1.0.1.tgz”

kafka_2.11-1.0.1.tgz 100%[===============================>] 47.46M 18.8KB/s 用时 60m 58s

2023-02-16 17:13:11 (13.3 KB/s) - 已保存 “kafka_2.11-1.0.1.tgz” [49766096/49766096

1 <br>[root@localhost data]# tar -zxvf kafka_2.11-1.0.1.tgz

  [root@localhost 桌面]# mv kafka_2.11-1.0.1 /opt/kafka

[root@localhost 桌面]# cd /opt/kafka

[root@localhost kafka]# mkdir -p kafka_data/zookeeper     # zookeeper数据
[root@localhost kafka]# mkdir -p kafka_data/log/zookeeper
[root@localhost kafka]# mkdir -p kafka_data/log/kafka        # kafka日志 # zookeeper日志

在kafka解压目录同一路径下:创建一个kafka_data,用于装kafka和zookeeper的log和数据。

 

[root@localhost ~]# cd /opt/kafka
[root@localhost kafka]# ll
总用量 48
drwxr-xr-x 3 root root 4096 10月 28 2017 bin
drwxr-xr-x 2 root root 4096 10月 28 2017 config
drwxr-xr-x 2 root root 4096 2月 20 17:09 libs
-rw-r--r-- 1 root root 28824 10月 27 2017 LICENSE
-rw-r--r-- 1 root root 336 10月 27 2017 NOTICE
drwxr-xr-x 2 root root 44 10月 28 2017 site-docs

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 <br>[root@localhost kafka]# cd config [root@localhost config]# ll 总用量 64 -rw-r--r-- 1 root root  906 10月 27  2017 connect-console-sink.properties -rw-r--r-- 1 root root  909 10月 27  2017 connect-console-source.properties -rw-r--r-- 1 root root 5807 10月 27  2017 connect-distributed.properties -rw-r--r-- 1 root root  883 10月 27  2017 connect-file-sink.properties -rw-r--r-- 1 root root  881 10月 27  2017 connect-file-source.properties -rw-r--r-- 1 root root 1111 10月 27  2017 connect-log4j.properties -rw-r--r-- 1 root root 2730 10月 27  2017 connect-standalone.properties -rw-r--r-- 1 root root 1221 10月 27  2017 consumer.properties -rw-r--r-- 1 root root 4727 10月 27  2017 log4j.properties -rw-r--r-- 1 root root 1919 10月 27  2017 producer.properties -rw-r--r-- 1 root root 6852 10月 27  2017 server.properties -rw-r--r-- 1 root root 1032 10月 27  2017 tools-log4j.properties -rw-r--r-- 1 root root 1023 10月 27  2017 zookeeper.properties [root@localhost config]# sudo cp server.properties server-1.properties [root@localhost config]# sudo cp server.properties server-2.properties [root@localhost config]# sudo chmod -R 777 /opt/kafka [root@localhost config]# cd /opt/kafka/bin [root@localhost bin]# nohup ./zookeeper-server-start.sh ../config/zookeeper.properties & [1] 13293 [root@localhost bin]# nohup: 忽略输入并把输出追加到'nohup.out'

  

3.2配置kafka服务

1 2 [root@localhost kafka]# cd config [root@localhost config]# vim server.properties<br><br>编辑修改相应的参数,内容改动和添加如下:

broker.id=0
port=9092                                                      #端口号
host.name=192.168.65.130                             #服务器IP地址,修改为自己的服务器IP
log.dirs=/data/kafka/kafka_data/log/kafka                      #日志存放路径,上面创建的目录
zookeeper.connect=localhost:2181                                      #zookeeper地址和端口,单机配置部署,localhost:2181

  

3.3配置zookeeper服务

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 [root@localhost data]# cd kafka [root@localhost kafka]# ll 总用量 56 drwxr-xr-x 3 root root  4096  2月 22  2018 bin drwxr-xr-x 2 root root  4096  2月 16 17:33 config drwxr-xr-x 4 root root  4096  2月 16 17:28 kafka_data drwxr-xr-x 2 root root  4096  2月 16 17:14 libs -rw-r--r-- 1 root root 28824  2月 22  2018 LICENSE -rw-r--r-- 1 root root   336  2月 22  2018 NOTICE drwxr-xr-x 2 root root  4096  2月 22  2018 site-docs [root@localhost kafka]# cd config [root@localhost config]# [root@localhost config]# vim zookeeper.properties   编辑修改相应的参数,内容改动和添加如下: dataDir=/data/kafka/kafka_data/zookeeper dataLogDir=/data/kafka/kafka_data/log/zookeeper clientPort=2181 maxClientCnxns=100 tickTime=2000 initLimit=10 syncLimit=5

  

3.4启动停止服务

编辑kafka启动脚本

1 2 3 4 5 6 7 [root@localhost kafka]# vim kafka_start.sh   写入以下内容 #!/bin/sh /data/kafka/bin/zookeeper-server-start.sh /data/kafka/config/zookeeper.properties & sleep 3 /data/kafka/bin/kafka-server-start.sh  /data/kafka/config/server.properties &

  编辑kafka停止脚本[root@localhost kafka]# vim kafka_stop.sh

1 2 3 4 5 写入以下内容 #!/bin/sh /data/kafka/bin/zookeeper-server-stop.sh /data/kafka/config/zookeeper.properties & sleep 3 /data/kafka/bin/kafka-server-stop.sh  /data/kafka/config/server.properties &<br>

  为启动、停止脚本赋执行权限

[root@localhost kafka]# chmod +x kafka_start.sh kafka_stop.sh

4.kafka测试

创建生产者 topic 和 消费者 topic 简单示例

4.1 在一个终端执行创建生产者: (推消息到cqld_test)

标签:10,--,V10,SP3,kafka,root,properties,localhost
From: https://www.cnblogs.com/yaoyangding/p/17339959.html

相关文章

  • H3C 鲲鹏服务器 银河麒麟 V10 SP1 安装指南
    H3C 鲲鹏服务器 银河麒麟 V10SP1 安装指南     资料版本:6W100-20220331             注意 由于产品版本升级或其他原因,本文档内容会不定期进行......
  • kafka业务数据到ODS层处理小记
    kafka业务数据到ODS层处理小记1:kafka消息partition分区,应以表主键为key2:kafka消息落地后,同一批次数据中取主键+offset最大的一条,再删除基础数据中此批次数据,最后将此批次数据按数据处理类型(delete、insert、update),先insert、update,再delete。......
  • kafka
    首先配置好zookeeper修改kafka配置文件config/server.properties文件中broker.id=0port=9092host.name=192.168.112.91log.dirs=/usr/local/src/kafka/kafka-logszookeeper.connect=master:2181,slave1:2181,slave2:2181启动kafka./bin/kafka-server-start.sh-daemonc......
  • kafka、zookeeper配置运行的坑
    1、Windows安装zookeeper的时候,zookeeper.properties里dataDir=D:\\kafka_2.13-2.8.1\\data\\zookeeper路径要用双斜杠,否则报错2、idea里,application.yml里,bootstrap-servers:192.168.10.3:2181,192.168.10.50:2181,192.168.10.6:2181注意,冒号后面要有一个空格,否则报错......
  • 麒麟V10安装s3cmd工具
    操作系统:KylinV10环境:python2/3都有,但无pip模块需求:安装s3cmd工具,当前版本2.3.0问题:下载s3cmd-2.3.0.tar.gz计划编译安装。提前了解到依赖python-dateutil的包,用麒麟的文件yum源安装之但编译安装结束提示没有python-magic包。找厂商要了pip3的rpm包先装上(文件yu......
  • kafka
    安装kafka首先安装jdk,zookeeper,kafka将压缩包放进linux目录/opt/mySoftware下,并依次执行下面的命令tar-zxvfjdk-8u361-linux-x64.tar.gztar-zxvfzookeeper-3.4.12.tar.gztar-zxvfkafka_2.11-2.0.0.tgz解压后会生成文件夹jdk1.8.0_361``kafka_2.11-2.0.0zookeep......
  • SchemaRegestry组件原生的类和方法无法实现flink消费kafka的数据动态调整schema的情况
    0、前提知识储备Conflurent公司的SchemaRegestry组件的基本了解和使用一、背景:0.组件版本flink:1.141.链路调整情况原先链路:oracle-->OGG-->kafka-->flink-->数据库\湖\仓实现链路:oracle-->OGG-->kafka(搭配conflurent公司的SchemaRegestry组件使用)-->flink-->数据库\湖\仓2......
  • 提高kafka消费速度之从源码去了解Spring-kafka的concurrency参数
    网上看到这篇文章,觉得很不错,这里转载记录一下。转自:提高kafka消费速度之从源码去了解Spring-kafka的concurrency参数-简书第一部分、引言    在spring应用中,如果我们需要订阅kafka消息,通常情况下我们不会直接使用kafka-client,而是使用了更方便的一层封装spring-kafk......
  • Kafka的研究&实战
    一、Kafka简介Kafka是一个高吞吐量的分布式的发布--订阅消息系统,可以处理大量的数据,并将消息从一个端点传递到另一个端点。同时Kafka还能将消息保存在磁盘上并在集群内复制以防数据丢失。二、Kafka的优势可靠性:Kafka是分布式、分区、复制和容错的。扩展性:可结合Zookeeper实现动态扩......
  • Go接入kafka
    需要借助的库github.com/Shopify/sarama//kafka主要的库*github.com/bsm/sarama-cluster//kafka消费组生产者packageproducerimport( "fmt" "github.com/HappyTeemo7569/teemoKit/tlog" "github.com/Shopify/sarama" "kafkaDemo/define"......