首页 > 其他分享 >VM部署HDFS集群

VM部署HDFS集群

时间:2023-10-19 15:56:27浏览次数:32  
标签:HDFS VM dfs hadoop export namenode node1 集群 data

上传hadoop-3.3.4.tar.gz到/export/server

解压

tar -zxvf hadoop-3.3.4.tar.gz -C /export/server/
# 快捷方式
ln -s /export/server/hadoop-3.3.4 hadoop

Hadoop安装包目录结构

目录 说明
bin 存放Hadoop的各类程序(命令)
etc 存放Hadoop的配置文件
sbin 管理员程序(super bin)
include C语言的一些头文件
lib 存放Linux系统的动态链接库(.so文件)
libexec 存放配置Hadoop系统的脚本文件(.sh和.cmd)
licenses-binary 存放许可证文件
share 存放二进制源码(Java jar包)

配置集群

  1. workers:配置从节点(DataNode)有哪些
  2. hadoop-env.sh:配置Hadoop的相关环境变量
  3. core-site.xml:Hadoop核心配置文件
  4. hdfs-site.xml:HDFS核心配置文件

这些文件均存在与 HADOOP_HOME/etc/hadoop文件夹中。
HADOOP_HOME:/export/server/hadoop, 这个后期配置成环境变量

cd /export/server/hadoop/etc/hadoop/
# 配置workers文件
vim workers
# 填入node1 node2 node 3

image

# 配置hadoop-env.sh文件
# 填入以下内容
export JAVA_HOME=/export/server/jdk
export HADOOP_HOME=/export/server/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_LOG_DIR=$HADOOP_HOME/logs
# 配置core-site.xml文件
# 在文件内部填入如下内容
<configuration>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://node1:8020</value>
  </property>

  <property>
    <name>io.file.buffer.size</name>
    <value>131072</value>
  </property>
</configuration>

Key 含义 备注
fs.defaultFS HDFS文件系统的网络通讯路径 hdfs://node1:8020 协议为hdfs://,namenode为node1,namenode通讯端口为8020
io.file.buffer.size io操作文件缓冲区大小 131072 bit

hdfs://node1:8020为整个HDFS内部的通讯地址,应用协议为hdfs://(Hadoop内置协议)
表明DataNode将和node1的8020端口通讯,node1是NameNode所在机器
此配置固定了node1必须启动NameNode进程

# 配置hdfs-site.xml文件
# 在文件内部填入如下内容
<configuration>
  <property>
    <name>dfs.datanode.data.dir.perm</name>
    <value>700</value>
  </property>
  <property>
    <name>dfs.namenode.name.dir</name>
    <value>/data/nn</value>
  </property>
  <property>
    <name>dfs.namenode.hosts</name>
    <value>node1,node2,node3</value>
  </property>
<property>
    <name>dfs.blocksize</name>
    <value>268435456</value>
  </property>
  <property>
    <name>dfs.namenode.handler.count</name>
    <value>100</value>
  </property>
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>/data/dn</value>
  </property>
</configuration>

hdfs-site.xml 简单说明:

Key 含义
dfs.datanode.data.dir.perm hdfs文件系统,默认创建的文件权限设置 700,即:rwx------
dfs.namenode.name.dir NameNode元数据的存储位置 /data/nn,在node1节点的/data/nn目录下
dfs.namenode.hosts NameNode允许哪几个节点的DataNode连接(即允许加入集群) node1、node2、node3,这三台服务器被授权
dfs.blocksize hdfs默认块大小 268435456(256MB)
dfs.namenode.handler.count namenode处理的并发线程数 100,以100个并行度处理文件系统的管理任务
dfs.datanode.data.dir 从节点DataNode的数据存储目录 /data/dn,即数据存放在node1、node2、node3,三台机器的/data/dn内
# namenode数据存放node1的/data/nn
# datanode数据存放node1、node2、node3的/data/dn

# 在node1节点执行:
mkdir -p /data/nn
mkdir /data/dn
# 在node2和node3节点:
mkdir -p /data/dn

分发Hadoop文件夹

cd /export/server
scp -r hadoop-3.3.4 node2:$PWD
scp -r hadoop-3.3.4 node3:$PWD
# 登陆node2/3分别执行创建软连接命令
ln -s /export/server/hadoop-3.3.4 /export/server/hadoop

配置环境变量

# 为了方便以后的操作把常用的hadoop命令配置成环境变量 [node1/2/3都配置]
vim /etc/profile
# 在/etc/profile文件底部追加如下内容
export HADOOP_HOME=/export/server/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
# 环境变量配置好了可以执行 hadoop version看看效果
hadoop version
#输出如下
Hadoop 3.3.4
Source code repository https://github.com/apache/hadoop.git -r a585a73c3e02ac62350c136643a5e7f6095a3dbb
Compiled by stevel on 2022-07-29T12:32Z
Compiled with protoc 3.7.1
From source with checksum fb9dd8918a7b8a5b430d61af858f6ec
This command was run using /export/server/hadoop-3.3.4/share/hadoop/common/hadoop-common-3.3.4.jar

授权hadoop用户

# 为了确保安全,hadoop系统不以root用户启动,我们以普通用户hadoop来启动整个Hadoop服务
# (之前说过创建hadoop,并配置hadoop用户之间的免密登陆)
# 以root账户执行下面的命令,(node 1/2/3都要执行)
chown -R hadoop:hadoop /data
chown -R hadoop:hadoop /export

格式化文件系统

# 确保以hadoop用户执行
su - hadoop
# 格式化namenode
# 因为我们在前面配置了环境变量,因此可以直接hadoop命令来操作,简单粗暴
hadoop namenode -format

Hadoop 启动

# 一键启动hdfs集群
start-dfs.sh
# 一键关闭hdfs集群
stop-dfs.sh

windows下的hosts文件也映射下

192.168.88.131 node1
192.168.88.132 node2
192.168.88.133 node3

最后打开 http://node1:9870/
可以看到集群状态
image

快照

执行init 0 命令,把三台虚拟机关机在虚拟机上拍摄快照.

标签:HDFS,VM,dfs,hadoop,export,namenode,node1,集群,data
From: https://www.cnblogs.com/HandLoong/p/17774771.html

相关文章

  • 循序渐进介绍基于CommunityToolkit.Mvvm 和HandyControl的WPF应用端开发(10) -- 在Dat
    有时候,一些数据的录入可能需要使用表格直接录入会显得更加方便快捷,这种情况有时候也是由于客户使用习惯而提出,本篇随笔介绍在WPF应用端上使用DataGrid来直接新增、编辑、保存数据的处理。录入数据的时候,我们都采用在一个窗体界面中,根据不同内容进行录入,但是有时候涉及主从表的数......
  • Oracle集群升级迁移—老集群磁盘切割
    目录Oracle升级迁移剔除磁盘腾出存储LUNGRID用户登录,查询ASM磁盘剔除磁盘Oracle升级迁移目前有两套Oracle采用ADG+RAC架构,其中备库使用的为SUSE12.4目前已EOS,文件系统BFTFS与Oracle兼容性据说也有一定的问题,决定对现有的集群进行升级,升级后服务器统一采用SUSE12.5+EXT4文件系......
  • kubeadm安装k8s集群
    kubeadm安装k8s集群一、机器准备(所有的master和node节点需要执行)部署k8s集群的节点按照用途可以划分为如下2类角色:master:集群的master节点,集群的初始化节点,基础配置不低于2c4gslave:集群的slave节点,可以多台,基础配置不低于1c2g主机名、节点ip、部署组件k8s-master10.......
  • hadoop集群 大数据项目实战_电信用户行为分析_day03
    配置系统环境  Reis1.先把之前的dump.rdb删除掉rm-rfdump.rdb 2.把原始项目给的dump.rdb放进来,它里面包含了需要的数据,比如端口;在这部之前必须要进行关闭端口,随后传送文件,最后重启端口相关指令:   bin/redis-server conf/redis.conf   bin/redis-cli  bin......
  • Detected non-NVML platform: could not load NVML: libnvidia-ml.so.1: cannot open
    前言在kubernetes中配置https://github.com/NVIDIA/k8s-device-plugin时,报错:Detectednon-NVMLplatform:couldnotloadNVML:libnvidia-ml.so.1:cannotopensharedobject解决kubernetes使用运行时docker,需要编辑通常存在的配置文件/etc/docker/daemon.json,以......
  • nvm
    NVM,全称Node.jsVersionManager,是一个命令行应用,主要用于管理您的设备上的Node.js版本。它允许您在同一台机器上安装并切换多个Node.js版本,这对于同时进行多个项目开发,而这些项目可能需要不同版本的Node.js的情况特别有用。此外,NVM的使用也相对简单,只要在命令行中输入相应的命令,......
  • GraalVM进行spring boot的native编译报错 “returned non-zero result”解决方法
    使用GraalVM对springboot工程进行native编译:系统:CentosJDK:GraalVMJDK21报错:Ifyouareunabletoresolvethisproblem,pleasefileanissuewiththeerrorreportat:https://graalvm.org/support[INFO]---------------------------------------------------------......
  • LLVM IR代码生成codegen分析
    LLVMIR代码生成codegen分析常用指令1.从源码生成.llclangmain.c-emit-llvm-S-c-omain.ll2.运行.llllimain.ll3.编译汇编llcmain.ll4.生成dot,得到可视化的DAGllc-view-dag-combine1-dagsmain.ll5.将源文件分别编译为LLVM二进制代码clang-emit-llvm-cmai......
  • ES集群调优建议
    9 ES集群调优建议9.1内核参数优化#对于操作系统,需要调整几个内核参数[root@node~]#vim/etc/sysctl.conffs.file-max=655360#设定系统最大打开文件描述符数,建议修改为655360或者更高,vm.max_map_count=262144#用于限制一个进程可以拥有的虚拟内存大小,建议修改成262144......
  • 如何查看Kubernetes集群中哪个Pod占用CPU最高?
    下载MetricsServer的部署文件:wgethttps://github.com/kubernetes-sigs/metrics-server/releases/latest/download/components.yaml编辑下载的components.yaml文件,以便MetricsServer可以与kubelet进行安全通信。spec:containers:-args:......