Hive基础
了解Hive
Hive就像一个超级聪明的图书管理员,它住在一个很大的图书馆里(这个图书馆就是Hadoop),能帮助人们找到他们想要的信息。它用一种特别的语言(Hive SQL)来理解人们的问题,然后帮他们找到答案。但是,Hive不擅长做那些需要立刻回答的问题,它更喜欢帮助人们处理很多信息,然后慢慢找出答案。它很擅长和很多不同的电脑朋友一起工作,这样即使图书馆变大了,它也能处理更多的书。不过,它不太喜欢处理那些经常变化的信息。
Hive基础
了解Hive
Hive就像一个超级聪明的图书管理员,它住在一个很大的图书馆里(这个图书馆就是Hadoop),能帮助人们找到他们想要的信息。它用一种特别的语言(Hive SQL)来理解人们的问题,然后帮他们找到答案。但是,Hive不擅长做那些需要立刻回答的问题,它更喜欢帮助人们处理很多信息,然后慢慢找出答案。它很擅长和很多不同的电脑朋友一起工作,这样即使图书馆变大了,它也能处理更多的书。不过,它不太喜欢处理那些经常变化的信息。
Hive安装
注意:在hive安装前电脑必须安装有mysql(mysql5.7.x)7.X版本而不是8.X
上传hive软件
tips:File Zilla Client 下载:FileZilla FTP Client.zip官方版下载丨最新版下载丨绿色版下载丨APP下载-123云盘
解压文件并重命名
解压命令:
tar -zxf 文件名
删除命令:
rm -rf 文件名
重命名命令:
mv 原文件名 新文件名
配置环境变量
配置环境变量命令:
vi /etc/profile
按 i 键进入插入模式,并在末尾添加:
export JAVA_HOME=/home/softwares/jdk
export HADOOP_HOME=/home/softwares/hadoop
export ZOOKEEPER_HOME=/home/softwares/zookeeper
export HIVE_HOME=/home/softwares/hive
export JRE_HOME=$JAVA_HOME/jre
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$ZOOKEEPER_HOME/bin:$HIVE_HOME/bin
export PATH=$PATH:/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin
配置文件修改
修改文件名:
hive-env.sh.template 改为: hive-env.sh
hive-default.xml.template 改为: hive-site.xml
修改hive-env.sh
export JAVA_HOME=/home/softwares/jdk
export HADOOP_HOME=/home/softwares/hadoop
export HIVE_HOME=/home/softwares/hive
配置hive-site.xml
此文件有7项基本设置
查看本机的ip地址:ipconfig/all****vm8
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.234.1:3306/hive?characterEncoding=utf-8&useSSL=false</value>
<description>
JDBC connect string for a JDBC metastore.
To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL.
For example, jdbc:postgresql://myhost/db?ssl=true for postgres database.
</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>Username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>rootpassword</value>
<description>password to use against metastore database</description>
</property>
<property>
<name>hive.querylog.location</name>
<value>/home/softwares/hive/querylog</value>
<description>Location of Hive run time structured log file</description>
</property>
<property>
<name>hive.exec.local.scratchdir</name>
<value>/home/softwares/hive/scratchdir</value>
<description>Local scratch space for Hive jobs</description>
</property>
<property>
<name>hive.downloaded.resources.dir</name>
<value>/home/softwares/hive/resources</value>
<description>Temporary local directory for added resources in the remote file system.</description>
</property>
初始化mysql数据库类型
-dbType:derby数据库-->mySql,所以要初始化操作(肯定会报错)
[root@bigdata01 hive]# bin/schematool -dbType mysql -initSchema
报错处理:1.删除3215行部分代码,留下如下面代码即可
<description>
are not hidden by the INSERT OVERWRITE.
</description>
把本地mysql驱动拷贝到/home/softwares/hive/lib/
重新初始化
hadoop必须启动:start-all.sh
标签:基础,hive,export,Hive,HOME,home,安装,softwares From: https://blog.csdn.net/qq_36922376/article/details/140091748