首页 > 其他分享 >【大数据】HIVE部署(文档版本)

【大数据】HIVE部署(文档版本)

时间:2023-10-07 12:45:15浏览次数:30  
标签:test1 hadoop hive server 文档 HIVE 版本 mysql export

Mysql 安装配置远程登录


# 更新密钥
rpm --import https://repo.mysql.com/RPM-GPG-KEY-mysql-2022

# 安装Mysql yum库
rpm -Uvh http://repo.mysql.com//mysql57-community-release-el7-7.noarch.rpm

# yum安装Mysql
yum -y install mysql-community-server

# 启动Mysql设置开机启动
systemctl start mysqld
systemctl enable mysqld

# 检查Mysql服务状态
systemctl status mysqld

# 第一次启动mysql,会在日志文件中生成root用户的一个随机密码,使用下面命令查看该密码
grep 'temporary password' /var/log/mysqld.log
 
# 修改root用户密码
mysql -u root -p -h localhost
mysql> ALTER USER 'root'@'localhost' IDENTIFIED BY '登录密码';

# 如果你想设置简单密码,需要降低Mysql的密码安全级别
# set global validate_password_policy=LOW; # 密码安全级别低
# set global validate_password_length=4;	 # 密码长度最低4位即可
# ALTER USER 'root'@'localhost' IDENTIFIED BY '123456';

# 授权用户登录密码
grant all privileges on *.* to root@"%" identified by '远程密码' with grant option;  
flush privileges;



Hadoop 配置代理权限


# 配置core-site.xml配置权限

[root@test1 /]# su - hadoop
[hadoop@test1 ~]$ cd /export/server/hadoop/etc/hadoop/
[hadoop@test1 hadoop]$ vim core-site.xml

# 在<configuration>里面追加以下配置
<property>
    <name>hadoop.proxyuser.hadoop.hosts</name>
    <value>*</value>
</property>
<property>
    <name>hadoop.proxyuser.hadoop.groups</name>
    <value>*</value>
</property>


# 重启hdfs
[hadoop@test1 hadoop]$ stop-dfs.sh
[hadoop@test1 hadoop]$ start-dfs.sh



Hive 配置


hive文件包:https://pan.baidu.com/s/1JovpsjZZ9dmwR-NtV8gv-Q?pwd=cd9t 
mysql驱动包:链接:https://pan.baidu.com/s/1vkie0sVPxsgqL2lup6pWig?pwd=fwt4 


# (1):上传解压 Hive与mysql 驱动包
[hadoop@test1 hadoop]$ cd ~ 
[hadoop@test1 hadoop]$ rz           # 上传HIVE文件夹包
[hadoop@test1 hadoop]$ rz           # 上传mysql驱动包
[hadoop@test1 hadoop]$ tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /export/server/   # 解压HIVE
[hadoop@test1 hadoop]$ ln -s /export/server/apache-hive-3.1.3-bin /export/server/hive  # 软连接
[hadoop@test1 ~]$ mv mysql-connector-java-5.1.34.jar  /export/server/apache-hive-3.1.3-bin/lib/ # 移动mysql驱动到hive的lib目录下



# (2): 配置 hive-env.sh文件
[hadoop@test1 ~]$ cd /export/server/apache-hive-3.1.3-bin/conf/  # 进入conf的包
[hadoop@test1 conf]$ mv hive-env.sh.template hive-env.sh		# 修改名称
[hadoop@test1 conf]$ vim hive-env.sh

export HADOOP_HOME=/export/server/hadoop
export HIVE_CONF_DIR=/export/server/hive/conf
export HIVE_AUX_JARS_PATH=/export/server/hive/lib



# (3): 创建 hive-site.xml文件   test1 -自定义,数据库配置(用户名与密码)也是自定义
[hadoop@test1 conf]$ vim hive-site.xml

<configuration>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://test1:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false&amp;useUnicode=true&amp;characterEncoding=UTF-8</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
  </property>
  <property>
    <name>hive.server2.thrift.bind.host</name>
    <value>test1</value>
  </property>
  <property>
    <name>hive.metastore.uris</name>
    <value>thrift://test1:9083</value>
  </property>
  <property>
    <name>hive.metastore.event.db.notification.api.auth</name>
    <value>false</value>
  </property>
</configuration>


# (4): 初始化元数据库(创建hive数据库)
[hadoop@test1 conf]$ mysql -u root -p
mysql> CREATE DATABASE hive CHARSET UTF8;      		# 创建hive数据库
[hadoop@test1 hive]$ cd /export/server/hive/bin 
[hadoop@test1 bin]$ ./schematool -initSchema -dbType mysql -verbose  # 初始化-创建hive所需要的表
[hadoop@test1 bin]$ mysql -u root -p       # 登录mysql后查看
mysql> use hive;
Database changed
mysql> show tables;
+-------------------------------+
| Tables_in_hive                |
+-------------------------------+
| AUX_TABLE                     |
| BUCKETING_COLS                |
| CDS                           |
...

# (5): 创建hive日志文件
[hadoop@test1 hive]$ mkdir /export/server/hive/logs   



Hive 启动方式一

# 前台启动:/export/server/hive/bin/hive --service metastore 
# 后台启动:nohup /export/server/hive/bin/hive --service metastore >> logs/metastore.log 2>&1 &
# 后台启动hive
[hadoop@test1 hive]$ nohup /export/server/hive/bin/hive --service metastore >> logs/metastore.log 2>&1 &
# 启动shell方式一:
[hadoop@test1 hive]$ cd /export/server/hive
[hadoop@test1 hive]$ bin/hive
hive> show databases;
OK
default



Hive 启动方式二(推荐)


#先启动metastore服务 然后启动hiveserver2服务
nohup /export/server/hive/bin/hive --service metastore >> logs/metastore.log 2>&1 &
nohup /export/server/hive/bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &
[hadoop@test1 hive]$ netstat -anp|grep 10000  # 确保 10000端口是有在监听的


# (1) beeline   如果登录报错重启hdfs
[hadoop@test1 hive]$ bin/beeline
beeline> !connect jdbc:hive2://test1:10000             # 连接到test1的端口,hive2使用HiveServer2
Enter username for jdbc:hive2://test1:10000: hadoop    # 用户是启动用户名
Enter password for jdbc:hive2://test1:10000:           # 密码直接回车
0: jdbc:hive2://test1:10000> show databases;
+----------------+
| database_name  |
+----------------+
| default        |
+----------------+


# (2) DataGrip连接(推荐)
创建连接:File -> new -> Data Source -> Apache Hive 
Name: 自定义
Host: 192.168.88.101
Port: 10000
User: hadoop
点击Test Connection
OK



标签:test1,hadoop,hive,server,文档,HIVE,版本,mysql,export
From: https://www.cnblogs.com/wanghong1994/p/17746005.html

相关文章

  • 【大数据】Hadoop配置(文档版本)
    主机配置:192.168.88.101test1192.168.88.102test2192.168.88.103test3Hadoop上传压缩包并且解压hadoop百度云:链接:https://pan.baidu.com/s/1DRV_x7Q_ZTUO4KMkr2-6Qg?pwd=not3#先配置NameNode主机:#上传hadoop文件压缩包到NameNode主机,并且解压到/exp......
  • 使用screw 生成表结构文档
    第一步引入依赖<!--数据库表结构文档--><dependency><groupId>cn.smallbun.screw</groupId><artifactId>screw-core</artifactId><version>1.0.4</version></depen......
  • Strimzi Kafka Bridge(桥接)实战之三:自制sdk(golang版本)
    欢迎访问我的GitHub这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos本篇概览本文是《StrimziKafkaBridge(桥接)实战》的第三篇,前文咱们掌握了StrimziKafkaBridge的基本功能:基于http提供各种kafka消息的服务此刻,如果想通过http接口调......
  • Apple开发_swift版本发展进化史
    Swift1.02014-08-18Swift1.12014-10-16Swift1.22015-04-08Swift2.02015-09-16Swift2.12015-10-20Swift2.22016-03-21Swift3.02016-09-13Swift3.0.12016-10-27Swift......
  • PHP-redis中文文档
    phpredis是php的一个扩展,效率是相当高有链表排序功能,对创建内存级的模块业务关系 很有用;以下是redis官方提供的命令使用技巧:   下载地址如下: https://github.com/owlient/phpredis(支持redis2.0.4)Redis::__construct构造函数$redis=newRedis();connect,open ......
  • 领导临时要数据库文档怎么办?
    很多时候,我们为了着急忙慌赶项目进度,很容易忽略整理文档这件事某一天,领导心血来潮,要搞一次突击检查,想看看我们的数据库设计的是否规范,但他又不想亲自去数据库查验(毕竟这么大领导)那么,我们该怎么办?第一种方法:离职,世界那么大,我想去看看(我相信一般人不会这么做)也许你可以试试下......
  • 202310061227-《心得:低版本mysql配置一,些轮子插件》
    1.对于mysql5.7.42,驱动(connector)选择:5.1.46。2.测试链接时:useSSL=true&enabledTLSProtocols=TLSv1.1 驱动链接字符串上要拼接上。3.驱动链接字符串:高版本mysql,意味着高版本connector,选>=8;低版本,选择5.x;               高版本mysql,com.my......
  • sv的LSB 使用+SV的protect类型+RAL模型的lock原因+C语言结构体中的冒号用法+uvm版本在
    sv的LSB使用https://blog.csdn.net/gsjthxy/article/details/90722378等价关系[LSB+:STEP]=[LSB+STEP:LSB]伪代码:bit[1023:0]mem;bit[7:0]data;j=0..100mem[j*8+:8]=data;//[7:0],[15:8],[23:16]SV的protect类型https://blog.csdn.net/qq_37573794/ar......
  • 【创新项目探索】大数据服务omnidata-hive-connector介绍
    omnidata-hive-connector介绍omnidata-hive-connector是一种将大数据组件Hive的算子下推到存储节点上的服务,从而实现近数据计算,减少网络带宽,提升Hive的查询性能。目前支持HiveonTez。omnidata-hive-connector已在openEuler社区开源。OmniData架构OmniData是算子下推的总称。OmniD......
  • 基于python的食力派网上订餐系统-计算机毕业设计源码+LW文档
    摘 要在各学校的教学过程中,食力派网上订餐系统是一项非常重要的事情。随着计算机多媒体技术的发展和网络的普及。采用当前流行的B/S模式以及3层架构的设计思想通过Python技术来开发此系统的目的是建立一个配合网络环境的食力派网上订餐系统,这样可以有效地解决食力派网上订餐管理......