首页 > 其他分享 >Hive学习2(hive部署启动,DataGrip连接hiveserver2)

Hive学习2(hive部署启动,DataGrip连接hiveserver2)

时间:2023-09-23 17:13:12浏览次数:43  
标签:bin DataGrip -- Hive hiveserver2 hive 3.1 客户端

1.Hive部署:

hive部署:09-Apache hive安装部署--与Hadoop整合、MySQL安装_哔哩哔哩_bilibili

 10-Apache hive安装部署--配置文件修改编辑_哔哩哔哩_bilibili

2.Hive启动

hadoop启动后。

node1上:

nohup /export/server/apache-hive-3.1.2-bin/bin/hive --service metastore &
nohup /export/server/apache-hive-3.1.2-bin/bin/hive --service hiveserver2 &

 node3上:

/export/server/apache-hive-3.1.2-bin/bin/beeline

等待一会出现 beeline>

! connect jdbc:hive2://node1:10000

输入用户名和密码

 

3.Hive可视化工具客户端datagrip连接hiveserver2

3.1下载安装

工具:DataGrop

安装学习教程:

【超详细全过程】DataGrip的安装与使用 - 朱李洛克 - 博客园 (cnblogs.com)

 DataGrip下载安装及使用教程(详细版)_datagrip安装教程_m0_70536638的博客-CSDN博客

 JetBrains DataGrip安装和使用的详细教程_jetbrains datagrid-CSDN博客

3.2创建工程文件夹与项目进行关联

注意,在虚拟机种要先启动好hive

3.2.1工程文件夹:project_hive 

3.2.2创建项目

file-->new-->project,输入名字

然后在这里选择关联

 配置连接

 

 

 加载成功

 

 

 

 

 

 

 

 

 

-------------------------------------------------------------------------------------------------------------------------------------------------------------------

4.了解过程

2.1metastore服务启动方式(推荐使用(2))

node1输入

(1)前台启动

进程会一直占据终端,ctrl + c结束进程,服务关闭。可以根据需求添加参数开启debug日志,获取详细日志信息,便于排错。

/export/server/apache-hive-3.1.2-bin/bin/hive --service metastore

ctrl+c停止服务

 

(2)后台启动(推荐)

输出日志信息在/root目录下nohup.out(更加方便)
 nohup /export/server/apache-hive-3.1.2-bin/bin/hive --service metastore &

使用 kill -9 来杀死进程

 

 

2.2 启动命令:node1输入以下命令

nohup  /export/server/apache-hive-3.1.2-bin/bin/hive --service hiveserver2 &

 2.3Hive自带客户端(推荐第二种方式)

Hive自带客户端
  • Hive发展至今,总共历经了两代客户端工具。
  • 第一代客户端(deprecated不推荐使用):$HIVE_HOME/bin/hive, 是一个 shellUtil。主要功能:一是可用于以交互或批处理模式运行Hive查询;二是用于Hive相关服务的启动,比如metastore服务。
  • 第二代客户端(recommended 推荐使用):$HIVE_HOME/bin/beeline,是一个JDBC客户端,是官方强烈推荐使用的Hive命令行工具,和第一代客户端相比,性能加强安全性提高

2.2.1第一代客户端

node3模拟远程:node3下输入以下命令进行node3连接到第一代客户端node1

 /export/server/apache-hive-3.1.2-bin/bin/hive

 

2.2.2第二代客户端(推荐)

在node3输入以下命令

 /export/server/apache-hive-3.1.2-bin/bin/beeline

然后手动输入地址 ! connect jdbc协议:hive2://hive的地址:默认端口10000

 ! connect jdbc:hive2://node1:10000

 

 

 

 

标签:bin,DataGrip,--,Hive,hiveserver2,hive,3.1,客户端
From: https://www.cnblogs.com/hmy22466/p/17720707.html

相关文章

  • HIVE数据分析-数据清洗
    题目:2、数据清洗:要求将day_id一列中的数值清洗为真实的日期格式,可用字符串表示。数据1对应日期2023-09-01,依次类推,15对应日期2023-09-15二、数据清洗(2)创建表格存放清洗后的数据:createtablesales_y(day_idstring,sale_nbrstring,buy_nbrstring,cntstring,roundstring)......
  • navicat链接虚拟机上hive环境下的MySQL
    一:启动虚拟机二,finallshell上进入hive,(具体进入参照上一个博客)三,进入成功后,打开Navicat 点击左上角链接选择MySQL按照上面的步骤:1.起一个名字,能分辨就行2.这里非常重要,必须要填IP地址,IP地址不知道的同学打开虚拟机中hive的服务端(就是你finallshell上运行hive的那个主机),在......
  • Hive学习1(数据仓库及Hive基础学习)
    1.数据仓库1.1什么是数据仓库数据仓库(英语:DataWarehouse,简称数仓、DW),是一个用于存储、分析、报告的数据系统。数据仓库本身并不“生产”任何数据,其数据来源于不同外部系统;同时数据仓库自身也不“消费”任何的数据,其结果开放给各个外部应用使用;数据仓库是为了分析数据的。......
  • datagrip链接hive
    首先在官网下载datagrip直接点击安装选择30天免费试用直接进项下一步,进去之后,新建project 起个名字完成即可: 右上角或左边有一个database点击】点击加号选择Apachehive  ......
  • HIVe的启动以及datagrip配置
    之前已经被治好所需要的HIVe环境,治理需要启动他,才可以进行下面的链接datagrip操作首先进到finallshell里面然后启动zookeeper然后再启动hadoop:start-all.sh启动完成之后看上一个博客先关闭防火墙;根据黑马教程中提到的有两种方式启动HIVe:一,先启动metastore,然后在启动hive二......
  • HIVE数据分析-导入数据库
    首先,启动hadoop以及hive出现以上进程,显示成功将改名后的文件上传到虚拟机在hive里面的defaul数据库创建表格usedefault;showtables;loaddatalocalinpath'/export/server/apache-hive-3.1.2-bin'intotablesales;将表格数据导入到表格中createtablesales(d......
  • 将hive数据库中的数据导入到mysql数据库中时需要注意到的问题
    在hive中使用jdbc将hive与mysql连接起来时一定要注意到每个数据库不同的字段个数,在打算直接复制时,不能只是修改表的名称和字段名称,还要记得修改几个?那里,个数要与字段名称保持一致!!!不然就会报错(比如我);......
  • Cannot initiate the connection to cn.archive.ubuntu.com:80 (2403:2c80:5::6). - c
     版本:ubuntu22.04 Cannotinitiatetheconnectiontocn.archive.ubuntu.com:80(2403:2c80:5::6).-connect(101:Networkisunreachable) 嗯,被墙了。找到/etc/apt/source.list替换里面的源为清华源 ubuntu|镜像站使用帮助|清华大学开源软件镜像站|Tsinghu......
  • 关于hive中的com.google.common.base.Preconditions.checkArgument(ZLjava/lang/Strin
    com.google.common.base.Preconditions.checkArgument(ZLjava/lang/String;Ljava/lang/Object;)V这个报错是因为Hive 3.1.3guava19.jar和hadoop3.2.4不兼容导致 解决方法—— 之后hive就可以正常初始化了  参考博客——https://blog.csdn.net/happyfreeangel/ar......
  • 每日总结(hdfs文件导入到hive表)
     1CREATETABLEemployees(2idINT,3nameSTRING,4ageINT,5salaryFLOAT6)7ROWFORMATDELIMITED8FIELDSTERMINATEDBY','9STOREDASTEXTFILE;1011--将数据上传到HDFS12hadoopfs-putemployees.csv/input1314--导......