安装包版本
JDK1.8.0.232(java1.8就可以,小版本号不强求)
链接:https://pan.baidu.com/s/1ZpMEtomkT1nvY_0qTbwcjg
提取码:ei07
Hadoop2.7.7
链接:https://pan.baidu.com/s/1oL61X921-4Urd3UCwbrKKQ
提取码:9aln
Hive2.2.1
链接:https://pan.baidu.com/s/1fPkeEJSImStlcCbYnCUy4g
提取码:02hg
mysql-connector-java-5.1.46.jar
链接:https://pan.baidu.com/s/13ICebpZljlb39w9sm4O-pA
提取码:ae9a
JDK安装
下载解压,安装到非默认路径
JDK环境变量配置
配置JDK环境变量,依次点击我的电脑-属性-高级系统设置-环境变量-新建系统变量,如下图所示:
编辑系统变量Path
,添加如下图所示两个值
Hadoop安装
下载解压即可
Hadoop环境变量配置
参考JDK环境变量配置,如下图所示:
编辑系统变量Path
,添加如下图所示一个值
环境变量配置完成后打开cmd
进行测试,输入hadoop
,正常应如下所示:
修改配置文件
新建目录
新建namenode和datanode目录,新建data目录,在下面新增dfs目录,再在下面新增namenode和datannode目录
修改core-site.xml文件
文件目录E:\tools\Hadoop\hadoop-2.7.7\etc\hadoop
,将下面的代码复制到core_site.xml,并保存
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
修改hdfs-site.xml(目录和core_site一致),datanode和namenode改为自己的目录
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/E:/tools/Hadoop/hadoop-2.7.7/data/dfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/E:/tools/Hadoop/hadoop-2.7.7/data/dfs/datanode</value>
</property>
</configuration>
修改mapred-site.xml.template文件(目录和core_site一致),修改完重命名为mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
修改yarn-site.xml文件(目录和core_site一致)
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
修改hadoop-env.cmd文件(目录和core_site一致)
其实就是设置java的目录
@rem set JAVA_HOME=%JAVA_HOME%
set JAVA_HOME=D:\tools\java\jdk1.8.0.232
格式化HDFS,打开Hadoop
至此,hadoop配置基本结束,接下来就需要测试hadoop是否安装成功
格式化HDFS,打开cmd,输入hdfs namenode -format
,结果如下即为成功
切换到E:\tools\Hadoop\hadoop-2.7.7\sbin
目录,执行start-all.cmd
,会打开4个窗口即为成功
然后,输入jps
命令测试是否成功,如下图
结果测试
在E:\tools\Hadoop\hadoop-2.7.7\sbin
目录下创建新的文件,然后在http://localhost:50070/explorer.html#/
查看结果
hadoop fs -mkdir /tmp
hadoop fs -mkdir /user/
hadoop fs -mkdir /user/hive/
hadoop fs -mkdir /user/hive/warehouse
hadoop fs -chmod g+w /tmp
hadoop fs -chmod g+w /user/hive/warehouse
HVIE安装
环境变量配置
参考JDK环境变量配置,如下图所示:
编辑系统变量Path
,添加如下图所示一个值
环境变量配置完成后打开cmd
进行测试,输入hive
,正常应如下所示:
文件配置
目录更改
修改目录E:\tools\hive\conf
中的4个默认的配置文件模板拷贝成新的文件名
hive-default.xml.template -----> hive-site.xml
hive-env.sh.template -----> hive-env.sh
hive-exec-log4j.properties.template -----> hive-exec-log4j2.properties
hive-log4j.properties.template -----> hive-log4j2.properties
创建新目录
创建以下几个空目录
E:\tools\hive\my_hive\operation_logs_dir
E:\tools\hive\my_hive\querylog_dir
E:\tools\hive\my_hive\resources_dir
E:\tools\hive\my_hive\scratch_dir
如下图所示
mysql驱动配置
将mysql-connector-java-5.1.46-bin.jar复制到E:\tools\hive\lib
目录下
如下图所示
修改hive-env.sh文件
新增以下内容,路径注意修改为自己的
# Set HADOOP_HOME to point to a specific hadoop install directory
HADOOP_HOME=E:\tools\Hadoop\hadoop-2.7.7
# Hive Configuration Directory can be controlled by:
export HIVE_CONF_DIR=E:\tools\hive\conf
# Folder containing extra ibraries required for hive compilation/execution can be controlled by:
export HIVE_AUX_JARS_PATH=E:\tools\hive\lib
修改hive-site.xml文件
文件内容比较多,可以直接用我的,然后替换路径和mysql的账密即可
链接:https://pan.baidu.com/s/1PqtKV8Filn7DSwmqssSlTw
提取码:12gz
按照下图所示,查找修改即可
创建数据库
配置文件完成后,创建数据库,注意字符集和排序规则的设置属性
启动hive,结果测试
启动hadoop
打开windows命令窗口,切换目录到E:\tools\Hadoop\hadoop-2.7.7\sbin
,输入命令start-dfs.cmd
并回车,启动两个窗口服务即成功
启动hive metastore
在目录E:\tools\Hadoop\hadoop-2.7.7\sbin
的命令窗口输入hive -service meatstore
,如果在hive数据库中出现如下所示众多表,则说明开启成功
上述方式启动结果如下
此外,如果要操作hive,需要使用命令hive Starting Hive Metastore Server
,进入hive操作系统
此时,可以直接执行HQL语句进行测试,例如执行create table stu(id int, name string);
,然后去
http://localhost:50070/explorer.html#/user/hive/warehouse查看结果,
如上所示,则hive在windows的安装成功。
标签:Windows,安装,Hadoop,hadoop,hive,site,Hive,tools,目录 From: https://www.cnblogs.com/GardenofEden/p/16951766.html