首页 > 系统相关 >Windows安装Hive

Windows安装Hive

时间:2022-12-05 11:13:01浏览次数:56  
标签:Windows 安装 Hadoop hadoop hive site Hive tools 目录

安装包版本

JDK1.8.0.232(java1.8就可以,小版本号不强求)
链接:https://pan.baidu.com/s/1ZpMEtomkT1nvY_0qTbwcjg
提取码:ei07
Hadoop2.7.7
链接:https://pan.baidu.com/s/1oL61X921-4Urd3UCwbrKKQ
提取码:9aln
Hive2.2.1
链接:https://pan.baidu.com/s/1fPkeEJSImStlcCbYnCUy4g
提取码:02hg
mysql-connector-java-5.1.46.jar
链接:https://pan.baidu.com/s/13ICebpZljlb39w9sm4O-pA
提取码:ae9a

JDK安装

下载解压,安装到非默认路径

JDK环境变量配置

配置JDK环境变量,依次点击我的电脑-属性-高级系统设置-环境变量-新建系统变量,如下图所示:

avatar

编辑系统变量Path,添加如下图所示两个值

avatar

Hadoop安装

下载解压即可

Hadoop环境变量配置

参考JDK环境变量配置,如下图所示:
avatar

编辑系统变量Path,添加如下图所示一个值

avatar

环境变量配置完成后打开cmd进行测试,输入hadoop,正常应如下所示:

avatar

修改配置文件

新建目录

新建namenode和datanode目录,新建data目录,在下面新增dfs目录,再在下面新增namenode和datannode目录

avatar

修改core-site.xml文件

文件目录E:\tools\Hadoop\hadoop-2.7.7\etc\hadoop,将下面的代码复制到core_site.xml,并保存

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

修改hdfs-site.xml(目录和core_site一致),datanode和namenode改为自己的目录

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/E:/tools/Hadoop/hadoop-2.7.7/data/dfs/namenode</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/E:/tools/Hadoop/hadoop-2.7.7/data/dfs/datanode</value>
    </property>
</configuration>

修改mapred-site.xml.template文件(目录和core_site一致),修改完重命名为mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

修改yarn-site.xml文件(目录和core_site一致)

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
</configuration>

修改hadoop-env.cmd文件(目录和core_site一致)

其实就是设置java的目录

@rem set JAVA_HOME=%JAVA_HOME%
set JAVA_HOME=D:\tools\java\jdk1.8.0.232

格式化HDFS,打开Hadoop

至此,hadoop配置基本结束,接下来就需要测试hadoop是否安装成功

格式化HDFS,打开cmd,输入hdfs namenode -format,结果如下即为成功

avatar

切换到E:\tools\Hadoop\hadoop-2.7.7\sbin目录,执行start-all.cmd,会打开4个窗口即为成功
然后,输入jps命令测试是否成功,如下图
avatar

结果测试

E:\tools\Hadoop\hadoop-2.7.7\sbin目录下创建新的文件,然后在http://localhost:50070/explorer.html#/查看结果

    hadoop fs -mkdir /tmp
    hadoop fs -mkdir /user/
    hadoop fs -mkdir /user/hive/
    hadoop fs -mkdir /user/hive/warehouse
    hadoop fs -chmod g+w /tmp
    hadoop fs -chmod g+w /user/hive/warehouse

avatar

HVIE安装

环境变量配置

参考JDK环境变量配置,如下图所示:
avatar

编辑系统变量Path,添加如下图所示一个值

avatar

环境变量配置完成后打开cmd进行测试,输入hive,正常应如下所示:

avatar

文件配置

目录更改

修改目录E:\tools\hive\conf中的4个默认的配置文件模板拷贝成新的文件名

    hive-default.xml.template -----> hive-site.xml
    hive-env.sh.template -----> hive-env.sh
    hive-exec-log4j.properties.template -----> hive-exec-log4j2.properties
    hive-log4j.properties.template -----> hive-log4j2.properties

创建新目录

创建以下几个空目录

    E:\tools\hive\my_hive\operation_logs_dir
    E:\tools\hive\my_hive\querylog_dir
    E:\tools\hive\my_hive\resources_dir
    E:\tools\hive\my_hive\scratch_dir

如下图所示
avatar

mysql驱动配置

将mysql-connector-java-5.1.46-bin.jar复制到E:\tools\hive\lib目录下
如下图所示
avatar

修改hive-env.sh文件

新增以下内容,路径注意修改为自己的

# Set HADOOP_HOME to point to a specific hadoop install directory
HADOOP_HOME=E:\tools\Hadoop\hadoop-2.7.7

# Hive Configuration Directory can be controlled by:
export HIVE_CONF_DIR=E:\tools\hive\conf

# Folder containing extra ibraries required for hive compilation/execution can be controlled by:
export HIVE_AUX_JARS_PATH=E:\tools\hive\lib

修改hive-site.xml文件

文件内容比较多,可以直接用我的,然后替换路径和mysql的账密即可

链接:https://pan.baidu.com/s/1PqtKV8Filn7DSwmqssSlTw
提取码:12gz

按照下图所示,查找修改即可
avatar
avatar

创建数据库

配置文件完成后,创建数据库,注意字符集和排序规则的设置属性
avatar

启动hive,结果测试

启动hadoop

打开windows命令窗口,切换目录到E:\tools\Hadoop\hadoop-2.7.7\sbin,输入命令start-dfs.cmd并回车,启动两个窗口服务即成功

启动hive metastore

在目录E:\tools\Hadoop\hadoop-2.7.7\sbin的命令窗口输入hive -service meatstore,如果在hive数据库中出现如下所示众多表,则说明开启成功

avatar
avatar

上述方式启动结果如下
avatar

此外,如果要操作hive,需要使用命令hive Starting Hive Metastore Server,进入hive操作系统
avatar

此时,可以直接执行HQL语句进行测试,例如执行create table stu(id int, name string);,然后去
http://localhost:50070/explorer.html#/user/hive/warehouse查看结果,
avatar

如上所示,则hive在windows的安装成功。

标签:Windows,安装,Hadoop,hadoop,hive,site,Hive,tools,目录
From: https://www.cnblogs.com/GardenofEden/p/16951766.html

相关文章

  • Ubuntu 18.04安装fast-dds
    提纲1、概述2、foonathan_memory_vendor3、fast-cdr4、fast-dds5、编译HelloWorldExample6、安装fast-dds-gen,使用IDL文件构建代码1、概述fastdds是干什么,就不重......
  • ubuntu18.04安装jdk和gradle
    提纲1、安装jdk2、安装gradle1、安装jdk安装jdk很简单,只要一条命令就可以了,命令如下:sudoaptinstallopenjdk-8-jdkjava-version2、安装gradle#下载gradle......
  • VMware ESXi 6.7安装win10EFI Network获取不到数据
    错误信息如下图:接着出现以下画面解决方法如下:1.首先将虚拟机关机2.将固件由EFI改为BIOS3.再次启动虚拟机,此时就可以安装win10了......
  • centos7安装varnish
    1、下载安装包官网地址:http://varnish-cache.org/wgethttp://varnish-cache.org/downloads/varnish-7.2.1.tgz2、在线安装依赖工具yum-yinstallgccreadline-de......
  • 类项目中的配置文件app.config在打包安装后的信息获取的问题
    在一个项目中碰到这样的一个问题,做一个WORD插件,功能在类库项目中实现了,配置信息存在类库项目的配置文件app.config中,在进行打包后,获取的配置文件中的DocType节点信息时,使用......
  • Threejs:安装及其环境
    vue3框架安装:npminstallthree导入://方式1:导入整个three.js核心库import*asTHREEfrom'three';constscene=newTHREE.Scene(); //方式2:仅导......
  • 谈谈 Qt 程序安装包的大小,以及简要打包指南
    经常看到网上有些论调说Qt程序无比庞大,甚至拿.NET程序来比,说Qt程序打包以后跟.NET安装包差不多大。由此影响了很多人对Qt的选择。我觉得有必要对此做一些澄清—......
  • 关于sqlservice 2019的安装
    目录一、安装SQLServer。下载地址:https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads二、安装SSMS。 下载地址:https://learn.microsoft.com/zh-cn/sql/......
  • linux基础-03-linux系统安装
    安装前提下载centOS-7镜像文件官网:https://www.centos.org/1. 官网进入后,点击Download。 2. 进去后,64位机选x86-64 3. 选择国内的阿里云镜像下载地址  4......
  • MySQL最简安装 - 开发人员用
    搭建开发用的单机、单实例mysql数据库,基于mysql5.7.39。一、规划1目录规划mysql配置文件-/etc/my.cnfmysql软件目录-/opt/zbt/mysql5.7.39mysql数据目录-/opt/......