首页 > 其他分享 >Hadoop+Hive超全笔记 一站式搞定!!

Hadoop+Hive超全笔记 一站式搞定!!

时间:2024-06-23 14:57:20浏览次数:3  
标签:文件 超全 hadoop Hive Hadoop 表名 table 数据 客户端

Hadoop

hadoop集群的组成

  • HDFS集群(一主三从配秘书) 解决海量数据存储
    主角色:NameNode
    主角色的辅助角色:SecondaryNameNode
    从角色:DataNode

  • YARN集群(一主三从) 资源管理、调度
    主角色:ResourceManager
    从角色:NodeManager

  • MapReduce 解决海量数据计算

hadoop常用端口

  • 外部URL

  • 访问HDFS文件系统:9870

  • 访问YARN资源调度:8888

  • 访问历史MR计算日志:19888

  • 内部通信端口

  • HDFS集群的连接端口:8020

HDFS常用shell命令

ls命令 显示文件列表
hadoop fs -ls /   # 显示文件列表
hadoop fs -ls -R / # 等同于hdfs dfs -ls -R / 递归(-R)显示问价按列表
hdfs dfs -ls file:/// # 访问linux的根目录文件

mkdir命令 创建文件夹
hadoop fs -mkdir /dir1  # 创建文件
hadoop fs -mkdir -p /aaa/bbb/ccc  # 递归创建目录

touch命令 创建文件
hadoop fs -touch /文件名

put命令将源数据srcs从本地文件系统上传到目标文件系统中
hadoop fs -put /root/1.txt(源文件) /dir1(目标文件夹)  # 上传文件
hadoop fs -put /root/dir2  /   # 上传目录

get命令 拷贝
hadoop fs -get /HDFS文件路径 /本地路径  # 将HDFS文件拷贝到本地文件系统

mv命令 移动
hadoop fs -mv /dir1/1.txt(源路径) /dir2(目标路径)  # 将hdfs上的文件从原路径移动到目标路径

rm命令 删除
hadoop fs -rm /文件名  # 删除文件
hadoop fs -rm -r /dir2 # 删除目录
(rm -rf 删除全部数据 等于直接把数据全删掉 工作学习都注意不要用!!!! 谁让你用直接打死它!!)

cp命令 拷贝
hadoop fs -cp /dir1/1.txt(源路径) /dir2(目标路径)  # 将文件拷贝到目标路径中

cat命令 输出/查看
hadoop fs -cat /dir1/1.txt  # 将参数所指示的文件内容输出到控制台

appendToFile 追加内容
hadoop fs -appendToFile a.txt /目标文件(txt等)  # 将a.txt的内容追加到目标文件

帮助文档
hadoop -h 或 hdfs -h

HDFS的原理、机制

块和副本

1.block块 HDFS被设计成能够在一个大集群中跨机器可靠地存储超大文件。它将每个文件拆分成一系列的数据块进行存储,这个数据块被称为block,除了最后一个,所有的数据块都是同样大小的

2.block块大小 默认:128M(134217728字节) 为了容错,文件的所有block都会有副本。每个文件的数据块大小和副本系数都是可配置的。

3.副本数 默认:3个 副本好处:副本为了保证数据安全(用消耗存储资源方式保证安全,导致了大数据瓶颈是数据存储)

edits和fsimage文件

edits文件
NameNode基于一批edits和一个fsimage文件的配合完成整个文件系统的管理和维护
edits文件,是一个流水账文件,记录了hdfs中的每一次操作,以及本次操作影响的文件其对应的block
将全部的edits文件,合并为最终结果,即可得到一个FSImage文件
如当前没有fsimage文件,将全部edits合并为第一个fsimage文件
如当前已存在fsimage文件,将全部edits和已存在的fsimage进行合并,形成新的fsimage

SecondaryNameNode辅助合并元数据:
SecondaryNameNode会定期从NameNode拉取数据(edits和fsimage)然后合并完成后提供给NameNode使用。

HDFS的三大机制

  1. 副本机制

为了保证数据安全和效率,block块信息存储多个副本,第一个副本保存在客户端所在服务器,第二副本保存在和第一个副本不同机架服务器上,第三副本保存在和第二副本相同机架不同服务器上

  1. 负载均衡机制

NameNode为了保证不同的DataNode中block块信息大体一样,分配存储任务的时候会优先保存在余量比较大的DataNode上

  1. 心跳机制

DataNode每隔3秒向NameNode汇报自己的状态信息,如果某个时刻,DataNode连续10次不汇报了,NameNode会认为DataNode有可能宕机了,NameNode就会每5分钟发送一次确认消息,连续2次没有收到回复,就认定DataNode此时一定宕机了

机架感知机制
机架感知机制

HDFS数据上传、写入原理(写流程) 【重点】

写流程

  1. 客户端发送写入数据请求给NameNode
  2. NameNode接收到客户端请求,开始校验(是否有有权限、文件路径是否存在、文件是否存在等),如果校验没有问题,就告知客户端可以写入
  3. 客户端收到消息,开始把文件数据分割成默认的128M大小的block块,并且把block块数据拆分成64kb的packet数据包,放入传输序列
  4. 客户端携带block块信息再次向NameNode发送请求,获取能够存储block块数据的DataNode列表
  5. NameNode查看当前距离上传位置近且不忙的DataNode,放入列表中返回给客户端
  6. 客户端连接DataNode,开始发送packet数据包,第一个DataNode接收完后就给客户端返回ack应答(客户端可以传入下一个packet数据包),同时第一个DataNode开始复制刚才接收到的数据包给node2,node2接收到数据包也赋值给node3(复制成功也需要返回ack应答),最终建立了pipeline传输通道以及ack应答通道
  7. 其他packet数据根据第一个packet数据包经过的传输通道和应答通道,循环传入packet, 直到当前block块数据传输完成(存储了block信息的DataNode需要把已经存储的块信息定期的同步给NameNode)
  8. 其他block块数据存储,循环执行上述4-7步,直到所有block块传输完成,意味着文件数据被写入成功(NameNode把该文件的原数据保存上)
  9. 最后客户端和NameNode互相确定文件数据已经保存完成(也会汇报不能使用的DataNode)

HDFS数据读取(读流程) 【重点】

读流程

  1. 客户端发送读取文件请求给NameNode
  2. NameNode接收到客户端请求,开始校验(是否有有权限、文件路径是否存在、文件是否存在等),如果校验没有问题,就告知客户端可以读取
  3. 客户端需要再次和NameNode确认当前文件哪些DataNode存储
  4. NameNode查看当前距离下载位置较近且不忙的DataNode,放入列表中放回给客户端
  5. 客户端找到最近的DataNode开始读取文件对应的block块信息(每次传输是以64kb的packet数据包,放到内存缓冲区中)
  6. 接着读取其他block块信息,循环上述3-5步,直到所有block块读取完毕(根据块编号拼接成完整数据)
  7. 最后从内存缓冲区把数据通过流写入到目标文件中
  8. 最后客户端和NameNode互相确认文件数据已经读取完成(也会汇报不能使用的DataNode)

原数据存储流程 【重点】

原数据存储流程

  1. NameNode第一次启动的时候先把最新的fsimage文件中内容加载到内存中,同时把edits文件中内容也加载到内存中
  2. 客户端发起指令(增删改查等操作),NameNode接收到客户端指令把每次产生的新的指令操作先放到内存中
  3. 然后把刚才内存中新的指令操作写入到edits_inprogress文件中
  4. edits_inprogress文件中数据到了一定阈值的时候,把文件中历史操作记录写入到序列化的edits备份文件中
  5. NameNode就在上述2-4步中循环操作···
  6. 当SecondaryNameNode检测到自己距离上一次检查点(checkpoint)已经1小时或者事务数达到100w,就触发SecondaryNameNode询问NameNode是否对edits文件和fsimage文件进行合并操作
  7. NameNode告知可以进行hebing
  8. SecondaryNameNode将NameNode上积累的所有edits和一个最新的fsimage下载到本地,并加载到内存进行合并(这个过程叫checkpoint)
  9. SecondaryNameNode把刚才合并后的fsimage.checkpoint文件拷贝给NameNode
  10. NameNode把拷贝过来的最新的fsimage.checkpoint文件,重命名为fsimage,覆盖原来的文件

安全模式

不允许HDFS客户端进行任何修改文件的操作,包括上传文件,删除文件等操作

#查看安全模式状态:
[root@node1 /]   hdfs dfsadmin -safemode get  
Safe mode is OFF
#开启安全模式:
[root@node1 /]   hdfs dfsadmin -safemode enter
Safe mode is ON
#退出安全模式:
[root@node1 /]   hdfs dfsadmin -safemode leave
Safe mode is OFF

归档机制(小文件)

归档原因:每个小文件单独存放到hdfs中(占用一个block块),那么hdfs就需要以此存储每个小文件的元数据信息,相对来说浪费资源
归档格式:hadoop archive -archiveName 归档名.har -p 原始文件的目录 归档文件的存储目录
归档特性:

  1. Hadoop Archives的URL是:har://scheme-hostname:port/路径/归档名.har
  2. scheme-hostname格式为hdfs-域名:端口
  3. 如果没有提供scheme-hostname,它会使用默认的文件系统:har:///路径/归档名.har

垃圾桶机制

  1. 在虚拟机中rm命令删除文件,默认是永久删除
  2. 在虚拟机中需要手动设置才能使用垃圾桶回收:把删除的内容放到/user/root/.Trash/Current/
  3. 先关闭服务,在node1中执行stop-all.sh,新版本不关闭服务也没有问题。
  4. 再修改文件core-site.xml。进入/export/server/hadoop-3.3.0/etc/hadoop目录下进行修改。
<property>
    <name>fs.trash.interval</name>
    <value>1440</value>
</property>
# 其中,1440 表示 1440分钟,也就是 24小时,一天的时间

设置了垃圾桶机制好处:文件不会立刻消失,可以去垃圾桶里把文件恢复,继续使用

# 没有开启垃圾桶效果
[root@node1 hadoop]# hdfs dfs -rm /binzi/hello.txt
Deleted /binzi/hello.txt

# 开启垃圾桶
[root@node1 ~]#cd /export/server/hadoop-3.3.0/etc/hadoop
[root@node1 hadoop]# vim core-site.xml
# 注意: 放到<configuration>内容</configuration>中间
<property>
    <name>fs.trash.interval</name>
    <value>1440</value>
</property>

# 开启垃圾桶效果
[root@node1 hadoop]# hdfs dfs -rm -r /test1.har
2023-05-24 15:07:33,470 INFO fs.TrashPolicyDefault: Moved: 'hdfs://node1.itcast.cn:8020/test1.har' to trash at: hdfs://node1.itcast.cn:8020/user/root/.Trash/Current/test1.har

# 开启垃圾桶后并没有真正删除,还可以恢复
[root@node1 hadoop]# hdfs dfs -mv /user/root/.Trash/Current/test1.har  / 

MapReduce底层原理 【重点】

MapReduce底层原理

map阶段

第一阶段:把输入目录下文件按照一定的标准逐个进行逻辑切片,形成切片规划。默认情况下split size 等于 Block size。每一个切片由一个MapTask处理(当然也可以通过参数单独修改split大小)
第二阶段:是对切片中的数据按照一定的规则解析成对,默认规则是把每一行文本内容解析成键值对。key是每一行的起始位置(单位是字节),value是本行的文本内容.(TextInputFormat)
第三阶段:是调用Mapper类中的map方法。上阶段中中每解析出来的一个。调用一次map方法。每次调用map方法会输出零个或多个键值对
第四阶段:按照一定的规则对第三阶段输出的键值对进行分区。默认是只有一个分区。分区的数量就是Reducer任务运行的数量。默认只有一个Reducer任务
第五阶段:对每个分区中的键值对进行排序。首先,按照键值对进行排序,对于键相同的键值对,按照值进行排序。比如三个<2,2>、<1,3>、<2,1>,键和值分别是整数。那么排序后的结果是<1,3>、<2,1>、<2,2>
如果有第六阶段,那么进入第六阶段;如果没有,直接输出到文件中
第六阶段:是对数据进行局部聚合处理,也就是combiner处理。键相等的键值对会调用一次reduce方法。经过这一阶段,数据量会减少,本阶段默认是没有的

shuffle阶段

shuffle是MapReduce的核心,它分布在MapReducemap阶段和Reduce阶段。一般把从map产生输出开始到Reduce取得数据作为输入之前的过程称作shuffle
collect(收集)阶段:将maptask的结果输出到默认大小为100M的环形缓冲区,保存的是key/value,partition分区信息
spill(溢出)阶段:当内存中的数量达到一定的阈值(80%)的时候,就会将数据写入本地磁盘,在将数据写入磁盘之前需要对数据进行一次排序的操作,如果配置了combiner,还会将有相同分区号和key的数据进行排序
merge(合并)阶段:把所有溢出的临时文件进行一次合并操作,以确保一个MapTask最终只产生一个中间数据文件
Copy(复制)阶段:ReduceTask启动Fetcher线程到已经完成mapTask的节点上复制一份属于自己的数据,这些数据默认会保存在内存的缓冲区中,当内存的缓冲区达到一定的阈值的时候,就会将数据写到磁盘
merge(合并)阶段:在ReduceTask远程复制数据的同时,会在后台开启两个线程内存到本地的数据文件进行合并操作
sort(排序)阶段:在对数据进行合并的同时,会进行排序操作,由于MapTask阶段已经对数据进行了局部的排序,ReduceTask只需保证Copy的数据的最终整体有效性即可

reduce阶段

第一阶段:是Reduce任务会主动从Mapper任务复制其输出的键值对Mapper任务可能会有很多,因此Recucer会复制多个Mapper的输出
第二阶段:把复制到Reducer本地数据,全部进行合并,即把分散的数据合并成一个大的数据。再对合并的数据排序
第三阶段:对排序后的键值对调用reduce方法。键值对的键值对调用一次reduce方法,每次调用会产生零个或者多个键值对。最后把这些输出的键值对写入到HDFS文件中

YARN提交MR流程 【重点】

YARN提交MR流程

  1. 客户端提交一个MR程序给ResourceManager(校验请求是否合法···)
  2. 如果请求合法,ResourceManager随机选择一个NodeManager用于生成appmaster(应用程序控制者,每个应用程序都单独有一个appmaster)
  3. appmaster会主动向ResourceManager的应用管理器(applocation manager)注册自己告知自己的状态信息,并且保持心跳
  4. appmaster会根据任务情况计算自己所需要的container资源(cpu,内存···),主动向ResourceManager的资源调度器(resource scheduler)申请并获取这些container资源
  5. appmaster获取到container资源后,把对应指令和container分发给其他NodeManager,让NodeManager启动task任务(maptask任务,reducetask任务)
  6. NodeManager要和appmaster保持心跳,把自己任务计算进度和状态信息同步给appmaster,(注意当maptask任务完成后会通知appmaster,appmaster接到消息后通知reducetask区maptask那儿拉取数据)直到最后任务完成
  7. appmaster会主动向ResourceManager注销自己(告知ResourceManager可以把自己的资源进行回收了,回收后自己就销毁了)

(舔狗之王appmaster) 自己突发的理解
作为‘舔狗之王的appmaster’ 自己负责和‘女神ResourceManager’有联系,但‘女神’的任务 ,让下面的‘狗小弟NodeManager’去做。任务做完‘狗小弟’交给‘狗王’,‘狗王’把结果献给‘女神’,然后狗王自己‘为爱而亡’

YARN的三大调度器

  1. 先进先出调度器

FIFO Scheduler:把应用按提交的顺序排成一个队列,在进行资源分配时,先给队伍中最头上的应用进行分配资源,待最头上的应用需求满足后再给下一个分配,以此类推
好处:能够保证每一个任务都能够拿到充足的资源,对于大任务的运行非常有好处
弊端:如果有大任务后又小任务,会导致后续小任务无资源可用,长期处于等待状态
应用:测试环境

  1. 公平调度器

Fair Scheduler:不需要保留集群的资源,因为它会动态在所有正在运行的作业之间平衡资源,当一个大job提交时,只有这一个job在运行,此时它获得了所有集群资源
当后面有小任务提交后,Fair调度器会分配一半资源给这个小任务,让这两个任务公平的共享集群资源
好处:保证每个任务都有资源可用,不会有大量的任务等待在资源分配上
弊端:如果大任务非常多,会导致每个任务获取资源都非常的有限,也会导致执行时间会拉长
应用:CDH商业版本的hadoop

  1. 容量调度器

Capacity Scheduler:为每个组织分配专门的队列和一定的集群资源,这样整个集群就可以通过设置多个队列的方式给多个组织提供服务了。在每个队列内部,资源的调度是采用的是先进先出(FIFO)策略
好处:可以保证多个任务都可以使用一定的资源提升资源的利用率
弊端:如果遇到非常大的任务,此任务不管运行在那个队列中,都无法使用到集群中所有的资源,导致大任务执行效率比较低,当任务比较繁忙的时候,依然会出现等待状态
应用:apache开源版本的hadoop

hive

metastore源数据服务配置的3种模式

源数据服务配置3种模式

  • 内嵌模式

优点:解压hive安装包 bin/hive 启动即可使用 自带的
缺点:不适用于生产环境,derby和metastore服务都嵌入在主Hive Server进程中,一个服务只能被一个客户端连接(如果用两个客户端以上都非常浪费资源),且源数据不能共享

  • 本地模式

优点:可以单独使用外部的数据库(mysql),源数据共享
缺点:相对浪费资源,metastore嵌入到了hive进程中,每启动一次都要启动一个metastore服务

  • 远程模式(常用)

优点:可以单独使用外部库(mysql),可以共享源数据,可以连接metastore服务也可以连接hiveserver2服务
缺点:需要注意的是如果想要启动hiveserver2服务需要先启动metastore服务

启动Hive metastore服务

启动Hive之前一定要先启动hadoop集群!!!!

# 后台启动metastore服务 前加nohup 后加&
 nohup /export/server/apache-hive-3.1.2-bin/bin/hive --service metastore &

# 此处还有前台启动方法 不在前加nohup 后加&即可 但是前台启动会占用客户端界面,无法继续后面的命令操作,不推荐使用,所以此处只介绍一下,不重要

netstat -naltp | grep 9083  # 检查端口占用
netstat -naltp | grep 10000  # 检查端口占用

# 后台启动日志在其他路径存储(不让其在根目录存储)  
nohup /export/server/apache-hive-3.1.2-bin/bin/hive --service metastore > /tmp/metastore.log &

启动Hiveserver2服务

在启动metastore服务后 如果要使用其他(如Beeline、datagrip)客户端工具
则需要额外启动一个hiveserver2服务
他们启动有先后顺序 先metastore服务后hiveserver2服务

# metastore服务后台启动 
nohup /export/server/apache-hive-3.1.2-bin/bin/hive --service metastore &

# hiveserver2服务后台启动
nohup /export/server/apache-hive-3.1.2-bin/bin/hive --service hiveserver2 &
  1. hive第二代客户端Beeline连接Hive hive自带的客户端工具
  2. 需要注意hiveserver2服务启动之后需要稍等一会才可以对外提供服务
  3. Beeline是JDBC的客户端,通过JDBC协议和Hiveserver2服务进行通信,协议的地址是:jdbc:hive2://node1:10000
# 启动beeline 
/export/server/hive/bin/beeline

# 通过beeline连接Hive服务  
! connect jdbc:hive2://node1:10000

# 退出客户端
!quit 或 !exit

数据库和数据仓库【重点】

数据库和数据仓库区别

  • 数据库
  1. OLTP 操作性处理,联机事务处理
  2. 针对具体业务在数据库联机的日常操作,通常进行增删改查操作
  3. 用户较为关心操作的响应时间、数据的安全性、完整性和并发支持的用户数等问题
  4. 有索引、没有冗余
  5. 数据量小、效率高 如MySQL
  • 数据仓库
  1. OLAP分析性处理 ,联机分析处理
  2. 通常进行查询分析操作
  3. 一般对某些主题的历史数据进行分析,支持管理决策
  4. 没有索引、支持冗余
  5. 数据量大,效率差 如数据仓库 主要用于数据分析
  1. 数据仓库的目的是构建面向分析的集成化数据环境,分析结果为企业提供决策支持
  2. 数据仓库本身并不”产生“任何数据,其数据来源于不同外部系统
  3. 同时数据仓库自身也不需要”消费“任何的数据,其结果开放给各个外部应用使用

数仓经典三层架构

数仓经典三层架构

  1. 源数据层(ODS)
    此层数据无任何更改,直接沿用外围系统数据结构和数据,不对外开放;为临时存储层,是接口数据的临时存储区域,为后一步的数据处理做准备

  2. 数据仓库层(DW)
    也称为细节层,DW层的数据应该是一致的、准确的、干净的数据,即对源系统数据进行了清洗(去除了杂质)后的数据

  3. 数据应用层(DA)
    前端应用直接读取的数据源;根据报表、专题分析需求而计算生成的数据

ETL 和 ELT

抽取Extra 转化Transfer 装载Load

ETL 抽取–>转换–>加载
ETL先从数据源池中抽取数据,数据保存在临时暂存数据库(ODS)。
然后执行转换操作,将数据结构化并转换为适合目标数据仓库系统的形式
然后将结构化数据加载到数据仓库中进行分析

ELT 抽取–>加载–>转换
ELT从数据源中抽取后立即加载,没有专门的临时数据库(ODS)
这意味着数据会立即加载到单一的集中存储库中,数据在数据仓库系统中直接进行转换,然后进行分析

表操作语法和数据类型 【重点】

内部表 和 外部表

  • 内部表(create table 表名 ···)

未被external关键字修饰的即是内部表,内部表又称管理表或者托管表
可以创建分区表或者分桶表
删除内部表:直接删除元数据(metadata)和存储数据本身
元数据存储在关系型数据库中 数据存储在HDFS中
Hive管理表持久使用

# 创建内部表
create table [if not exists] 内部表名;

# 复制内部表
create table 表名 like 存在的表名;  # 复制表结构
create table 表名 as select语句(select * from 被复制表名);  # 复制表结构和数据

# 删除内部表
drop table 内部表名;

# 查看表格式化信息(详细信息)[内部表类型managed_table]
desc formatted 表名;

# truncate清空内部表数据
truncate table 内部表名;
  • 外部表(create external table 表名···)

被external关键字修饰的即是外部表,外部表又称非管理表或者非托管表
可以创建分区表或者分桶表
删除外部表:仅仅是删除元数据(metadata),不会删除存储数据本身
临时链接外部数据使用

# 创建外部表
create external table [if not exists] 外部表名;

# 复制外部表
create table 表名 like 存在的表名;
#复制表结构和数据 as不可用

# 删除外部表
drop table 外部表名;

# 查看表结构化信息[外部表类型external_table]
desc formatted 表名;

外部表不能使用truncate关键字清空数据 

数据库基本操作

# 创建数据库并指定HDFS存储位置
create database 库名 location '/存储路径'

# 删除一个空数据库 如果数据库下面有数据表 那么就会报错
drop database 库名;

# 删除有表的库
drop database 库名 cascade;

# 查看数据库详细信息
desc database 库名;

# 查看当前数据库
select current_database();

# 创建表语法
create [external] table [if not exists] 表名(
	字段名1 类型1 约束1 注释1,
	字段2 类型2 约束2 注释2
)partitioned by(分区字段名 分区字段类型)  # 分区表
clustered by(分桶字段名) 【sorted by(字段 类型 ASC|DESC)】 into 3 buckets  # 分桶表 sorted by为排序 与clustered by 配合使用同为分桶表
row format delimited fields terminated by ',' # 自定义字段分隔符固定格式
stored as textfile # 指定表的存储格式
location '/路径' # 指定了HDFS上的存储路径
tblpropepties(~~) # 设置表的源数据键值对
# 上述关键字顺序是从上到下 从左到右

查看表操作
show tables; # 查看所有表
show create table 表名; # 查看建表语句
desc 表名; # 查看表信息/结构信息
desc formatted 表名; # 查看表格式化信息

修改表操作
alter table 旧表名 rename to 新表名; # 修改表名
alter table 表名 set location 'hdfs中存储路径'; # 修改表路径
alter table 表名 set tblproperties('属性名'='属性值'); # 修改表属性(经常用于内外部表切换)
alter table 表名 add columns (字段名 字段类型);  # 字段的添加
alter table 表名 replace columns (字段名 字段类型 , ...); # 字段的替换
alter table 表名 change 旧字段名 新字段名 新字段类型; # 字段名和字段类型同时修改

内外部表切换(通过stu set tblproperties来修改属性)
# 内部表转外部表
alter table 表名 set talproperties('EXTERNAL'='TRUE');
# 外部表转内部表
alter table 表名 set talproperties('EXTERNAL'='FALSE');

要注意:('EXTERNAL'='FALSE') 或 ('EXTERNAL'='TRUE')为固定写法,区分大小写!!! 必须大写!!!

快速映射表

# 创建表
create table table_name(
	字段1 字段类型1, 
	字段2 字段类型2
)row format delimited fields terminated by ','; # 默认分隔符

# 加载数据【重点】
load data [local] inpath '数据文件路径' into table table_name;

# 省略local代表从hdfs中加载数据文件
# 基于HDFS进行load加载数据,源数据文件会消失(本质是被移动到表所在的目录中)
# 不省略local代表从linux本地加载数据
# 建表字段数量要和数据相对应

数据加载和导出

  • 加载
local data [local] inpath '数据路径' [overwrite] into table 被加载表名;
# 使用local,数据不在HDFS,需使用file://协议指定路径
# 不使用local,数据在HDFS,可以使用HDFS://协议指定路径
# overwrite覆盖已存在数据
# 使用OVERWRITE进行覆盖
# 不使用OVERWRITE则不覆盖
#省略local代表从hdfs中加载数据文件基于HDFS进行load加载数据,源数据文件会消失(本质是被移动到表所在的目录中)
#不省略local代表从linux本地加载数据 本质上是在进行put上传命令
#当表中有数据时 不使用overwrite(覆盖) 重复使用加载数据 会让数据重复加载(有重复数据则重复)

insert [ overwrite | into ] table 表名 [partition
(···)[if not exists]] select语句;
# 通过sql语句 从其他表中加载数据
# 将SELECT查询语句的结果插入到其它表中,被SELECT查询的表可以是内部表或外部表
# 例子 insert into table tbl1 select * from tbl2;

#put命令 数据加载本质上是在进行put上传命令
hadoop fs -put /被加载文件目录 /加载到的文件路径
  • 导出
insert overwrite [local] directory 数据文件存储路径(文件要导出到的路径) [指定分隔符] select语句(被导出表);
# 不加local导出则导出到HDFS上
# 例子 将查询的结果导出到本地 - 指定列分隔符
#insert overwrite local directory '/home/hadoop/export2' row format delimited fields terminated by ' ,' select * from test_load;


hive shell导出(linux)

# hive -f/-e 执行语句 >file
bin/hive -e "select * from myhive.test_load;" > /home/hs1.txt
# -e后面跟sql语句 一定要用引号
# myhive.test_load 一定要带上库名(myhive) test_load为表

# 语法(hive -f/-e 脚本 > file)
bin/hive -f export.sql > /home/hs2.txt
# export.sql 通过vim创建编辑 里面放select * from myhive.test_load语句

# 使用手册
hive -h -help --help

分区表 【重点】

标签:文件,超全,hadoop,Hive,Hadoop,表名,table,数据,客户端
From: https://blog.csdn.net/weixin_72093863/article/details/139882911

相关文章

  • Spark SQL与Hive的整合
    在大数据时代,处理和分析海量数据集的能力变得至关重要。ApacheSpark和Hive作为两个强大的数据处理工具,在数据仓库和分析领域有着广泛的应用。本文将探讨如何将SparkSQL与Hive整合,以及如何利用这一整合来提高数据处理的效率和灵活性。SparkSQL简介SparkSQL是ApacheSpark的一......
  • 数据仓库Hive
    ApacheHive安装、配置与基本操作指南ApacheHive是一个基于Hadoop的数据仓库工具,可以将结构化数据文件映射为一张表,并提供类SQL查询功能。本文将结合两篇详细的技术文档,介绍Hive的安装、配置以及基本操作。一、Hive的安装与配置1.环境准备在安装Hive之前,需要确保......
  • Hadoop电商日志数据分析(一)
    项目要求根据电商日志文件,分析:1.统计页面浏览量(每行记录就是一次浏览)2.统计各个省份的浏览量(需要解析IP)3.日志的ETL操作(ETL:数据从来源端经过抽取(Extract)、转换(Transform)、加载(Load)至目的端的过程)为什么要ETL:没有必要解析出所有数据,只需要解析出有价值的字段即可。本......
  • Hadoop电商日志数据分析(三)
    ETL1.ETL的重要性==>存在的问题:每个MR作业都去全量读取待处理的原始日志,如果数据量很大,将非常不可取ETL:数据从来源端经过抽取(Extract)、转换(Transform)、加载(Load)至目的端的过程为什么要ETL:没有必要解析出所有数据,只需要解析出有价值的字段即可。全量数据不方便直接进行计算......
  • Hadoop电商日志数据分析(二)
    浏览量统计功能实现统计页面的浏览量count一行记录做成一个固定的KEY,value赋值为1PVStatApp点击查看代码packagecom.imooc.bigdata.hadoop.mr.project.mr;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.FileSystem;importorg.apache.......
  • 从工具产品体验对比spark、hadoop、flink
    作为一名大数据开发,从工具产品的角度,对比一下大数据工具最常使用的框架spark、hadoop和flink。工具无关好坏,但人的喜欢有偏好。目录评价标准1效率2用户体验分析从用户的维度来看从市场的维度来看从产品的维度来看3用户体验的基本原则成本和产出是否成正比操作是否“......
  • Hadoop 2.0 大家族(二)
    目录三、Hbase(一)Hbase简介(二)Hbase入门四、Pig(一)Pig简介(二)Pig入门三、Hbase  Hbase是基于Hadoop的开源分布式数据库,它以Google的BigTable为原型,设计并实现了具有高可靠性、高性能、列存储、可伸缩、实时读写的分布式数据库系统。HBase适合于存储非结构化数据H......
  • 数据仓库之Hive
    ApacheHive是一个基于Hadoop的数据仓库软件,它提供了数据摘要、查询和分析的大数据能力。Hive通过类似于SQL的HiveQL语言,使用户能够在不深入了解MapReduce的情况下进行大数据处理和分析。以下是对Hive的详细介绍:1.核心概念HiveQL:Hive提供了一种类似于SQL的查询语言,称为Hiv......
  • Hive笔记-4
    240618-Hive笔记-44.2Insert4.2.1将查询结果插入表中1)语法INSERT (INTO |OVERWRITE)TABLE tablename[PARTITION (partcol1=val1,partcol2=val2...)]select_stamement;关键字说明:(1)INTO:将结果追加到目标表(2)OVERWRITE:用结果覆盖原有数据2)案例......
  • Hive怎么调整优化Tez引擎的查询?在Tez上优化Hive查询的指南
    目录在Tez上优化Hive查询的指南调优指南理解Tez中的并行化理解mapper数量理解reducer数量并发案例1:未指定队列名称案例2:指定队列名称并发的指南/建议容器复用和预热容器容器复用预热容器一般Tez调优参数在Tez上优化Hive查询的指南在Tez上优化Hive查询无法采用一刀切的方法。查询......