首页 > 其他分享 >大数据-hive 添加分区

大数据-hive 添加分区

时间:2023-08-10 21:24:05浏览次数:39  
标签:分区 partition hive book 添加 table age

1、静态分区
1> 添加一个
alter table t2 add partition (city=‘shanghai’);
2> 添加多个
alter table t2 add partition (city=‘chengdu’) partition(city=‘tianjin’);
3> 添加分区指定位置
alter table log_mess add partition (year =2013,month=2,day=2) location ‘/user/2013/02/02’; --新的分区不在 log_mess的子目录中
4> 修改表,分区路径重新指定
alter table log_mess partition(year =2012,month=1,day=2) set location ‘/user/2012/01/02’;
这个命令不会将数据从旧的路径转移走,也不会删除旧的数据

2、动态分区

3、分区注意细节
尽量不要使用动态分区,因为动态分区将会为每一个分区分配reducer数量,当分区数量多的时候,reducer数量
将会增加,对服务器是一种灾难

动态分区和静态分区的区别,静态分区不管有没有数据都将会创建该分区,动态分区是有结果集将创建,否则不创建

hive动态分区的严格模式和hive提供的hive.mapred.mode的严格模式。
  hive提供我们一个严格模式:为了阻止用户不小心提交恶意hql
  hive.mapred.mode=nostrict : strict
  如果该模式值为strict,将会阻止以下三种查询:
   (1)、对分区表查询,where中过滤字段不是分区字段。
   (2)、笛卡尔积join查询,join查询语句,不带on条件 或者 where条件。
   (3)、对order by查询,有order by的查询不带limit语句
————————————————
版权声明:本文为CSDN博主「大富的大数据之路」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/yaoyelinger0912/article/details/95781169

 

 

 

​文末查看关键字,回复赠书

一、理论基础

1.Hive分区背景

在Hive Select查询中一般会扫描整个表内容,会消耗很多时间做没必要的工作。有时候只需要扫描表中关心的一部分数据,因此建表时引入了partition概念。

2.Hive分区实质

因为Hive实际是存储在HDFS上的抽象,Hive的一个分区名对应hdfs的一个目录名,并不是一个实际字段。

3.Hive分区的意义

辅助查询,缩小查询范围,加快数据的检索速度和对数据按照一定的规格和条件进行查询,更方便数据管理。

4.常见的分区技术

hive表中的数据一般按照时间、地域、类别等维度进行分区。

二、单分区操作

1.创建分区表

create table if not exists t1(
    id      int
   ,name    string
   ,hobby   array
   ,add     map
)
partitioned by (pt_d string)
row format delimited
fields terminated by ','
collection items terminated by '-'
map keys terminated by ':'
;

注:这里分区字段不能和表中的字段重复。 如果分区字段和表中字段相同的话,会报错,如下:

create table t10(
    id      int
   ,name    string
   ,hobby   array<string>
   ,add     maptring,string>
)
partitioned by (id int)
row format delimited
fields terminated by ','
collection items terminated by '-'
map keys terminated by ':'
;

报错信息:FAILED: SemanticException [Error 10035]: Column repeated in partitioning columns

报错信息

2.装载数据

需要加载的文件内容如下:

1,xiaoming,book-TV-code,beijing:chaoyang-shagnhai:pudong
2,lilei,book-code,nanjing:jiangning-taiwan:taibei
3,lihua,music-book,heilongjiang:haerbin

执行load data

load data local inpath '/home/hadoop/Desktop/data' overwrite into table t1 partition ( pt_d = '201701');

3.查看数据及分区

查看分区数据,使用和字段使用一致。

select * from t1 where pt_d = '201701';

结果

1   xiaoming    ["book","TV","code"]    {"beijing":"chaoyang","shagnhai":"pudong"}  201701
2   lilei   ["book","code"] {"nanjing":"jiangning","taiwan":"taibei"}   201701
3   lihua   ["music","book"]    {"heilongjiang":"haerbin"}  201701

查看分区

show partitions t1;

4.插入另一个分区

再创建一份数据并装载,分区=‘000000’

load data local inpath '/home/hadoop/Desktop/data' overwrite into table t1 partition ( pt_d = '000000');

查看数据:

select * from t1;
1   xiaoming    ["book","TV","code"]    {"beijing":"chaoyang","shagnhai":"pudong"}  000000
2   lilei   ["book","code"] {"nanjing":"jiangning","taiwan":"taibei"}   000000
3   lihua   ["music","book"]    {"heilongjiang":"haerbin"}  000000
1   xiaoming    ["book","TV","code"]    {"beijing":"chaoyang","shagnhai":"pudong"}  201701
2   lilei   ["book","code"] {"nanjing":"jiangning","taiwan":"taibei"}   201701
3   lihua   ["music","book"]    {"heilongjiang":"haerbin"}  201701

5.观察HDFS上的文件

去hdfs上看文件

http://namenode:50070/explorer.html#/user/hive/warehouse/test.db/t1

可以看到,文件是根据分区分别存储,增加一个分区就是一个文件。

查询相应分区的数据

select * from t1 where pt_d = ‘000000’

添加分区,增加一个分区文件

alter table t1 add partition (pt_d = ‘333333’);

删除分区(删除相应分区文件)

注意,对于外表进行drop partition并不会删除hdfs上的文件,并且通过msck repair table table_name可以同步回hdfs上的分区。

alter table test1 drop partition (pt_d = ‘20170101’);

三、多个分区操作

1.创建分区表​​​​​​​

create table t10(
    id      int
   ,name    string
   ,hobby   array<string>
   ,add     maptring,string>
)
partitioned by (pt_d string,sex string)
row format delimited
fields terminated by ','
collection items terminated by '-'
map keys terminated by ':'
;

2.加载数据(分区字段必须都要加)

load data local inpath ‘/home/hadoop/Desktop/data’ overwrite into table t10 partition ( pt_d = ‘0’);

如果只是添加一个,会报错:FAILED: SemanticException [Error 10006]: Line 1:88 Partition not found ”0”​​​​​​​

load data local inpath '/home/hadoop/Desktop/data' overwrite into table t10 partition ( pt_d = '0',sex='male');
load data local inpath '/home/hadoop/Desktop/data' overwrite into table t10 partition ( pt_d = '0',sex='female');

观察HDFS上的文件,可发现多个分区具有顺序性,可以理解为windows的树状文件夹结构。

四、表分区的增删修查 1.增加分区 这里我们创建一个分区外部表​​​​​​​

create external table testljb (
    id int
) partitioned by (age int);

添加分区

官网说明:​​​​​​​

ALTER TABLE table_name ADD [IF NOT EXISTS] PARTITION partition_spec [LOCATION 'location'][, PARTITION partition_spec [LOCATION 'location'], ...];

partition_spec:
  : (partition_column = partition_col_value, partition_column = partition_col_value, ...)

实例说明

  • • 一次增加一个分区altertable testljb addpartition(age=2);
  • • 一次增加多个同级(分区名相同)分区altertable testljb addpartition(age=3)partition(age=4);
  • • 注意:一定不能写成如下方式:altertable testljb addpartition(age=5,age=6);如果我们show partitions table_name 会发现仅仅添加了age=6的分区。

 

这里猜测原因:因为这种写法实际上:具有多个分区字段表的分区添加,而我们写两次同一个字段,而系统中并没有两个age分区字段,那么就会随机添加其中一个分区。

父子级分区增加:

举个例子,有个表具有两个分区字段:age分区和sex分区。那么我们添加一个age分区为1,sex分区为male的数据,可以这样添加:

alter table testljb add partition(age=1,sex='male');

2.删除分区

删除分区age=1

alter table testljb drop partition(age=1);

注:加入表testljb有两个分区字段(上文已经提到多个分区先后顺序类似于windows的文件夹的树状结构),partitioned by(age int ,sex string),那么我们删除age分区(第一个分区)时,会把该分区及其下面包含的所有sex分区一起删掉。

3.修复分区

修复分区就是重新同步hdfs上的分区信息。

msck repair table table_name;

4.查询分区

show partitions table_name;

上一篇:数据仓库与数据集市建模

下期预告:hive的动态分区与静态分区

按例,我的个人公众号:鲁边社,欢迎关注

后台回复关键字 [hive],随机赠送一本鲁边备注版珍藏大数据书籍。

标签:分区,partition,hive,book,添加,table,age
From: https://www.cnblogs.com/ExMan/p/17621527.html

相关文章

  • 通过修改注册表,为微软键盘添加小鹤双拼
    前言什么是小鹤双拼小鹤双拼是一种中文输入法方案,以小鹤音形输入法为基础。它通过将汉字的拼音声母和韵母映射到键盘上的两个按键,实现中文字符的输入。小鹤双拼的特点是简单易学、输入效率高。声母和韵母的拼音分别映射到键盘上的两个按键,通过按下不同的组合来输入不同的声母或......
  • ubuntn22.0 LVM罗辑卷管理分区使用,把多块硬盘容合成一个空间
    一、理解他的概念LVM2(LogicalVolumeManagement2)是Linux系统中的一种逻辑卷管理技术,是对LVM的第二个主要版本。LVM2相比于早期版本的LVM,提供了更多的功能和改进。物理扩展卷(PhysicalExtend PE)-----------这个实际是把物理磁盘格式化后,变成一小块一小块的空间,默认是4M,然后方......
  • - Django操作cookie - Django操作session - CBV添加装饰器 - 中间件 - csrf跨站请求
    Django操作cookie设置cookie:对象点set_cookie()获取cookie:request点COOKIE点getset_cookie('key','value',max_age=5,expires=5)参数:KEY:k值value:V值max_age=None,超时时间cookie需要延续的时间(以秒为单位)如果参数是\None``,这个cookie会延续到浏览器关闭为止expires=No......
  • F1C100s支持从Nand启动了,顺便说下如何向 U-Boot SPL 添加一个Image Loader
    让F1C100s从SPINand启动Tableofcontents名词解释写在前面启动流程实现[内核][文件系统][打包烧录]优化思路更多参考资料名词解释名词解释SPL第二阶段程序加载器BootROM固化在芯片内部的程序,用来识别并加载固件写在前面本次实验平台基于......
  • Blender如何给fbx模型添加材质贴图并导出带有材质贴图的模型
    推荐:使用NSDT场景编辑器快速助你搭建可二次编辑的3D应用场景此教程适合新手用户,专业人士直接可直接绕路。  本教程中介绍了利用Blender建模软件,只需要简单几步就可以为模型添加材质贴,图,并且导出带有材质的模型文件。1、第一步,打开Blender软件,导入模型:(本教程使用一个简单立方......
  • Django操作cookie,Django操作session,Django中的Session配置,CBV添加装饰器,中间件,cs
    Django操作cookiecookie参数:●key,键●value=’’,值●max_age=None,超时时间cookie需要延续的时间(以秒为单位)如果参数是\None``,这个cookie会延续到浏览器关闭为止expires=None,超时时间(IErequiresexpires,sosetitifhasn’tbeenalready.)path=’/‘,Co......
  • 传奇架设服务端 装备的添加
    装备的添加首饰类需要调整内观,武器和衣服还需要调整外观,这里面有个算法.武器的外观为Weapon.wil所需要的图片除以1200,衣服外观为hum.wil所需要的图片除以1200.hum.wil  //衣服shape从0~50计算hum2.wil  //衣服shape从51~75计算hum4.wil  //衣服shape从101~125计算wea......
  • 服务器数据恢复-断电导致ext4文件系统分区无法正常访问的数据恢复案例
    服务器数据恢复环境:一台服务器挂载一台存储设备,存储中划分一个Lun;服务器操作系统是Linuxcentos,EXT4文件系统。服务器故障&分析:意外断电导致服务器操作系统无法启动,系统在修复后可以正常启动,但是挂载的分区无法正常访问。管理员对这个分区执行了fsck修复,修复后文件系统可以正常......
  • #yyds干货盘点# LeetCode程序员面试金典:添加与搜索单词 - 数据结构设计
    题目:请你设计一个数据结构,支持添加新单词和查找字符串是否与任何先前添加的字符串匹配。实现词典类WordDictionary:WordDictionary()初始化词典对象voidaddWord(word)将word添加到数据结构中,之后可以对它进行匹配boolsearch(word)如果数据结构中存在字符串与 word匹......
  • ajax 跨域 如果在head里面加了参数需要在 nginx add_header 里面添加
    server{listen80;server_nameyourdomain.com;location/{#允许跨域请求add_header'Access-Control-Allow-Origin''*';add_header'Access-Control-Allow-Methods''GET,POST,OPTIONS'......