一、角色规划
主机名 | node01 | node02 | node03 | node04 |
Zookeeper | ○ | ○ | ○ | |
NameNode | ○ | ○ | ||
JournalNode | ○ | ○ | ○ | |
DataNode | ○ | ○ | ○ | ○ |
ResourceManager | ○ | ○ | ||
NodeManager | ○ | ○ | ○ | ○ |
Master | ○ | ○ | ○ | |
RegionServer | ○ | ○ | ○ | ○ |
二、前期准备
1、集群安装部署了Zookeeper、Hadoop
2、集群节点之间配置了SSH免密登录
三、配置
将hbase的安装包上传到node01节点/opt/module/目录下并解压
1、指定Backup Manager节点(编辑conf/backup-masters)
node01
node02
node03
node04
2、指定Region Server节点(编辑conf/regionservers)
node02
node03
3、不使用自带的Zookeeper(编辑conf/hbase-env.sh)
export HBASE_MANAGES_ZK=false
4、关联NameNode、Zookeeper
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- hadoop的数据存储位置 -->
<property>
<name>hbase.rootdir</name>
<!-- hdfs的路径,得是ActiveNN; -->
<value>hdfs://node01:8020/hbase/data</value>
</property>
<!--
zookeeper的目录
hbase必须得有一个zookeepr;
hbase自带了一个zookeeper
-->
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/data/hbase/zookeeper</value>
</property>
<!-- hbase自带的一个安全机制 -->
<property>
<name>hbase.unsafe.stream.capability.enforce</name>
<value>false</value>
</property>
<!-- zookeeper的相关配置 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>node01:2181,node02:2181,node03:2181</value>
</property>
<!-- 开启Hbase的集群模式 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
</configuration>
5、将hbase的文件夹分发到node02、node03、node04
6、启动hbase(/opt/module/hbase)
[root@node01 hbase]# bin/start-hbase.sh
7、网页访问Master:http://node01:16010/master-status
8、访问hbase client:hbase shell
— 要养成终生学习的习惯 —
标签:02,node03,node01,node02,Zookeeper,hbase,节点,分布式 From: https://www.cnblogs.com/houhuilinblogs/p/18101544