首页 > 其他分享 >hadoop3.3 安装配置sqoop1.4.7

hadoop3.3 安装配置sqoop1.4.7

时间:2023-04-01 11:01:30浏览次数:52  
标签:sqoop1.4 hcatalog -- sqoop hadoop3.3 emp mysql table 安装

一:在hadoop3.3中安装配置sqoop1.4.7

前言:

sqoop功能已经非常完善了,没有什么可以更新的了,官方停止更新维护了。因此官方集成的hadoop包停留在了2.6.0版本,在hadoop3.3.0版本会提示类版本过低错误,但纯净版sqoop有缺少必须的第三方库,所以将这两个包下载下来,提取部分sqoop_hadoop2.6.0版本的jar包放到纯净版sqoop的lib目录下,在sqoop配置文件中加入获取当前环境中的hive及hadoop的lib库来使用.

配置sqoop1.4.7 支持hadoop3.3

1:下载sqoop1.4.7的两个版本

http://archive.apache.org/dist/sqoop/1.4.7

sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz # 只用到里面的jar包
sqoop-1.4.7.tar.gz # 上传到服务器

2:提取sqoop-1.4.7.bin__hadoop-2.6.0根目录下的sqoop-1.4.7.jar放到sqoop-1.4.7根目录,正常纯净版sqoop是没有这个jar包的

3:提取lib目录下的这三个必须的jar包放到sqoop-1.4.7/lib/目录下,正常纯净版sqoop的lib目录下是没有文件的。

 

 

 4:提取出sqoop-1.4.6.jar放在hadoop的lib下

添加sqoop配置信息,引用hadoop,hive的lib库

sqoop-1.4.7/conf 目录下的sqoop-env.sh文件追加如下信息

export HADOOP_COMMON_HOME=/export/server/hadoop-3.3.0
export HADOOP_MAPRED_HOME=/export/server/hadoop-3.3.0
export HIVE_HOME=/export/server/apache-hive-3.1.2-bin
export HIVE_CONF_DIR=/export/server/apache-hive-3.1.2-bin/conf
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$HIVE_HOME/lib/*

添加sqoop环境变量

在/etc/profile 中添加

export SQOOP_HOME=/export/server/sqoop/
export PATH=$PATH:$SQOOP_HOME/bin:$SQOOP_HOME/bin

二:sqoop 常见的使用方式

sqoop的数据导入操作

1:sqoop help  查看帮助文档命令

2:查看数据库中的所有表

sqoop list-tables \
--connect jdbc:mysql://192.168.52.150:3306/hue \
--username root \
--password 123456 

3:如何将MySQL中的数据全量的导入到HDFS中(全量)

命令1:
sqoop import \
--connect jdbc:mysql://192.168.50.150:3306/test \
--username root \
--password root \
--table emp

说明:
    默认情况下, 会将数据导入到操作sqoop用户的HDFS的家目录下,在此目录下会创建一个以导入表的表名为名称文件夹, 在此文件夹下莫每一条数据会运行一个mapTask, 数据的默认分隔符号为 逗号
    
思考: 是否更改其默认的位置呢?
sqoop import \
--connect jdbc:mysql://192.168.52.150:3306/test \
--username root \
--password 123456 \
--table emp \
--delete-target-dir \
--target-dir '/sqoop_works/emp_1'

思考: 是否调整map的数量呢?
sqoop import \
--connect jdbc:mysql://192.168.52.150:3306/test \
--username root \
--password 123456 \
--table emp \
--delete-target-dir \
--target-dir '/sqoop_works/emp_2' \
--split-by id \
-m 2 

思考: 是否调整默认分隔符号呢? 比如调整为 \001
sqoop import \
--connect jdbc:mysql://192.168.52.150:3306/test \
--username root \
--password 123456 \
--table emp \
--fields-terminated-by '\001' \
--delete-target-dir \
--target-dir '/sqoop_works/emp_3' \
-m 1 
View Code

4:将MySQL中的数据全量的导入到hive中

以emp_add 表为例

第一步: 在HIVE中创建一个目标表
create database hivesqoop;
use hivesqoop;
create table hivesqoop.emp_add_hive(
    id  int,
    hno string,
    street string,
    city string
) 
row format delimited fields terminated by '\t'
stored as  orc ;

第二步: 通过sqoop完成数据导入操作
sqoop import \
--connect jdbc:mysql://192.168.52.150:3306/test \
--username root \
--password 123456 \
--table emp_add \
--hcatalog-database hivesqoop \
--hcatalog-table emp_add_hive \
-m 1 
View Code

5:如何将MySQL中的数据条件的导入到HDFS中

方式一: 通过 where的方式
sqoop import \
--connect jdbc:mysql://192.168.52.150:3306/test \
--username root \
--password 123456 \
--table emp \
--where 'id > 1205' \
--delete-target-dir \
--target-dir '/sqoop_works/emp_2' \
--split-by id \
-m 2 

方式二: 通过SQL的方式
sqoop import \
--connect jdbc:mysql://192.168.52.150:3306/test \
--username root \
--password 123456 \
--query 'select deg  from emp where 1=1 AND \$CONDITIONS' \
--delete-target-dir \
--target-dir '/sqoop_works/emp_4' \
--split-by id \
-m 1 

注意: 
    如果SQL语句使用 双引号包裹,  $CONDITIONS前面需要将一个\进行转义, 单引号是不需要的
View Code

6:如何通过条件的方式导入到hive中 (后续模拟增量导入数据)

sqoop import \
--connect jdbc:mysql://192.168.52.150:3306/test \
--username root \
--password 123456 \
--table emp_add \
--where 'id > 1205' \
--hcatalog-database hivesqoop \
--hcatalog-table emp_add_hive \
-m 1 

或者:
sqoop import \
--connect jdbc:mysql://192.168.52.150:3306/test \
--username root \
--password 123456 \
--query 'select * from emp_add where id>1205 and $CONDITIONS'
--hcatalog-database hivesqoop \
--hcatalog-table emp_add_hive \
-m 1 
View Code

sqoop的数据导出操作

需求: 将hive中 emp_add_hive 表数据导出到MySQL中

# 第一步: 在mysql中创建目标表 (必须创建)
create table test.emp_add_mysql(
    id     INT  ,
    hno    VARCHAR(32) NULL,
    street VARCHAR(32) NULL,
    city   VARCHAR(32) NULL
);

# 第二步: 执行sqoop命令导出数据
sqoop export \
--connect jdbc:mysql://192.168.52.150:3306/test \
--username root \
--password 123456 \
--table emp_add_mysql \
--hcatalog-database hivesqoop \
--hcatalog-table emp_add_hive \
-m 1 

sqoop相关常用参数

参数说明
--connect 连接关系型数据库的URL
--username 连接数据库的用户名
--password 连接数据库的密码
--driver JDBC的driver class
--query或--e <statement> 将查询结果的数据导入,使用时必须伴随参--target-dir,--hcatalog-table,如果查询中有where条件,则条件后必须加上关键字。如果使用双引号包含,则​CONDITIONS前要加上\以完成转义:$CONDITIONS
--hcatalog-database 指定HCatalog表的数据库名称。如果未指定,default则使用默认数据库名称。提供 --hcatalog-database不带选项--hcatalog-table是错误的。
--hcatalog-table 此选项的参数值为HCatalog表名。该--hcatalog-table选项的存在表示导入或导出作业是使用HCatalog表完成的,并且是HCatalog作业的必需选项。
--create-hcatalog-table 此选项指定在导入数据时是否应自动创建HCatalog表。表名将与转换为小写的数据库表名相同。
--hcatalog-storage-stanza 'stored as orc tblproperties ("orc.compress"="SNAPPY")' \ 建表时追加存储格式到建表语句中,tblproperties修改表的属性,这里设置orc的压缩格式为SNAPPY
-m 指定并行处理的MapReduce任务数量。 -m不为1时,需要用split-by指定分片字段进行并行导入,尽量指定int型。
--split-by id 如果指定-split by, 必须使用$CONDITIONS关键字, 双引号的查询语句还要加\
--hcatalog-partition-keys --hcatalog-partition-values keys和values必须同时存在,相当于指定静态分区。允许将多个键和值提供为静态分区键。多个选项值之间用,(逗号)分隔。比如: --hcatalog-partition-keys year,month,day --hcatalog-partition-values 1999,12,31
--null-string '\N' --null-non-string '\N' 指定mysql数据为空值时用什么符号存储,null-string针对string类型的NULL值处理,--null-non-string针对非string类型的NULL值处理
--hive-drop-import-delims 设置无视字符串中的分割符(hcatalog默认开启)
--fields-terminated-by '\t'  

 

标签:sqoop1.4,hcatalog,--,sqoop,hadoop3.3,emp,mysql,table,安装
From: https://www.cnblogs.com/Live-up-to-your-youth/p/17278233.html

相关文章

  • shell 脚本之一键部署安装 Nginx
    今天咸鱼给大家分享个源码编译安装Nginx的shell脚本 这个shell脚本可重复执行 完整源码放在最后 定义一个变量来存放nginx版本号version=1.15.4 nginx下载地址:http://nginx.org/download/ 下列函数功能则是判断当前步骤是否执行成功,并将结果输出出......
  • Oracle Docker安装及连接
    OracleDocker安装及连接拉取镜像运行镜像进入容器修改oracle配置修改root密码passwd切换oracle用户suoracle匿名登录oraclesqlplus/nologdba身份登录conn/assysdba修改用户system、sys用户的密码alterusersystemidentifiedbysystem;alterus......
  • Lixnu:如何安装、启用、访问云服务器中的MySQL数据库?
    Linux系统:CentOS7MySQL版本:5.7.41安装方法:rpm安装(需要自己解决依赖问题)云服务器:阿里云MySQL客户端:Navicat  1、准备工作:软件配置本机是否有mysql软件:rpm-qa|grepmysql是否有冲突软件mariadb:rpm-qa|grepmariadb(如果有)卸载......
  • 使用 wine 安装微信遇到的问题解决方法
    1.中文显示成方块添加启动环境变量:LANG=zh_CN.UTF-82.输入框不显示文字安装winetrickssudoaptinstallwinetricks#oryay-Sywinetricks然后安装riched20winetricksriched20......
  • office软件2016安装步骤office全版本软件安装包(win+mac版本)
    Office是一个强大的办公软件套件,包括Word、Excel、PowerPoint、OneNote等多个应用程序。office全版本软件安装包(win+mac版本)+全版本教程如下(极度详细):ruanjianduo.top Simplenote是一个简单、易用的笔记应用程序。它们结合起来可以提高工作效率,让你更方便地记录、共享......
  • 51单片机软件keil+stc-isp+驱动安装
    参考教程[1-2]开发工具介绍及软件安装_哔哩哔哩_bilibili驱动安装完成之后在设备管理器中可以看到,你插不同的usb口,com号应该不一样 ......
  • oracle静默安装
    ##################       如何确定安装的oracle是否有问题?              #####################......
  • jmeter测试工具安装篇播
    jmeter测试工具安装篇播报文章恒迪分享2022-10-1018:22陕西关注 工欲善其事必先利其器,今天我们来搭建jmeter工具。  安装jmeter之前需要安装Java环境  window系统安装java 下载jdk安装前我们需要下载java开发工具包JDK,下载地址:ht......
  • ubuntu GDB安装
    gdb是用来调试CC++程序的工具1、首先确保系统上面没有安装gdb相关的工具  可用gdb--version查看2、进入/opt目录里面进行下载   cd/opt  /opt/$wgethttps://ftp.gnu.org/gnu/gdb/gdb-10.1.tar.gz  或者直接sudoapt-getinstallgdb3下载完成后......
  • 在windows 11家庭版 系统上安装linux子系统
    步骤:1.启动WSL单击Win11任务栏上给出的“搜索图标”类型–打开或关闭窗口功能选择它,当“WindowsSubsystemforLinux”时。按确定按钮。然后“重启”你的系统.2.如果机器比较新,一般从WSL1升级到WSL2再进行操作。WS2可以通过命令行直接安装系统。可节省第三步。但有时升级......