Sqoop基本原理

时间:2023-01-12 11:03:50

一、Sqoop基本原理

① Sqoop是什么

Sqoop(SQL-to-Hadoop)是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql、postgresql…)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导入到Hadoop的HDFS中,也可以将HDFS的数据导出到关系型数据库中。

② Sqoop使用场景

我们通常把有价值的数据存储在关系型数据库系统中,以行和列的形式存储数据,以便于用户读取和查询。但是当遇到海量数据时,我们需要把数据提取出来,通过MapReduce对数据进行加工,获得更符合我们需求的数据。数据的导入和导出本质上是Mapreduce程序,充分利用了MR的并行化和容错性。为了能够和HDFS系统之外的数据库系统进行数据交互,MapReduce程序需要使用外部API来访问数据,因此我们需要用到Sqoop。

③ 关系图

Sqoop基本原理

④ 架构图

Sqoop基本原理

在 mapreduce 中主要是对 inputformat 和 outputformat 进行定制。

Sqoop工具接收到客户端的shell命令或者Java api命令后,通过Sqoop中的任务翻译器(Task Translator)将命令转换为对应的MapReduce任务,而后将关系型数据库和Hadoop中的数据进行相互转移,进而完成数据的拷贝。


二、Sqoop可用命令

Sqoop基本原理

对于不同的命令,有不同的参数,这里给大家列出来了一部分Sqoop操作时的常用参数,以供参考,需要深入学习的可以参看对应类的源代码,本文目前介绍常用的导入、导出的一些命令。

  1. 公用参数:数据库连接

Sqoop基本原理

  1. 公用参数:import

Sqoop基本原理

  1. 公用参数:export

Sqoop基本原理

  1. 公用参数:hive

Sqoop基本原理

  1. 其余

Sqoop基本原理

三、Sqoop常用方法

先在mysql中建一张表来使用

Sqoop基本原理

插入几条数据

Sqoop基本原理


3.1、RDBMS => HDFS (导入重点)

3.1.1、全表导入

命令:

Sqoop基本原理

MR的数据处理过程:

Sqoop基本原理

查看/sqoop/table_all目录下的数据结果:

Sqoop基本原理

查看hdfs的数据

hdfs dfs -cat /sqoop/table_all/part-m-0000

数据结果如下:

Sqoop基本原理

3.1.3、导入指定列

Sqoop基本原理

注意:columns中如果涉及到多列,用逗号分隔,分隔时不要添加空格

Sqoop基本原理

hdfs dfs -cat /sqoop/table_all/part-m-0000

数据结果如下:

Sqoop基本原理

3.1.4、where语句过滤

源表数据:

Sqoop基本原理

Sqoop基本原理

Sqoop基本原理

得到了如下 “sid>=6” 的数据:

Sqoop基本原理

3.1.5、①增量导入 append

Sqoop基本原理

–split-by 和 -m 结合实现numberReduceTasks并行

后面两句
–check-column sid
–last-value 0
结合使用的效果类似于where sid>0

MR过程中部分关键信息如下

Sqoop基本原理

因为有两个maptask,所以会分成两份文件

Sqoop基本原理

hdfs dfs -cat /sqoop/table_all/part-m-*

数据结果如下:

Sqoop基本原理

此时往mysql中再添加几条数据,再进行一次增量导入

​insert into student(sid,sname,gender,age) values(7,'云中君','男',19),(8,'百里玄策','男',20),(9,'裴擒虎','男',17);

​再执行一次增量导入

Sqoop基本原理

此时多了一个文件

Sqoop基本原理

hdfs dfs -cat /sqooptest/add1/part-m-*

数据结果如下:

Sqoop基本原理

3.1.5、②增量导入 lastmodified

先在mysql创建一张新表:

Sqoop基本原理

insert into orderinfo(oid,oName,oPrice,oTime) values(1,'爱疯12',6500.0,'2020-11-11 00:00:00'),(2,'华为xpro',12000.0,'2020-10-1 12:52:33'),(3,'行李箱',888.8,'2019-5-22 21:56:17'),(4,'羽绒服',1100.0,'2018-3-7 14:22:31');

Sqoop基本原理

–incremental lastmodified修改和增加 此时搭配–check-column 必须为timestamp类型

使用lastmodified方式导入数据要指定增量数据是要–append(追加)还是要–merge-key(合并)

Sqoop基本原理

Sqoop基本原理

hdfs dfs -cat /sqooptest/lastmod/part-m-00000

数据结果如下:

Sqoop基本原理

往mysql的orderinfo表中新插入几条数据,然后增量导入:

insert into orderinfo(oid,oName,oPrice,oTime) values(5,'帕拉梅拉',1333333.3,'2020-4-7 12:23:34'),(6,'保温杯',86.5,'2017-3-5 22:52:16'),(7,'枸杞',46.3,'2019-10-5 11:11:11'),(8,'电动牙刷',350.0,'2019-9-9 12:21:41');

Sqoop基本原理

Sqoop基本原理

执行后合并了文件

从part-m-00000变成了part-r-00000

Sqoop基本原理

hdfs dfs -cat /sqooptest/lastmod/part-r-00000

数据结果如下:

Sqoop基本原理

发现只添加了两条记录,因为序号为6和8的记录的时间不在–last-value的范围内

3.2、RDBMS => HBase

先在hbase中建表:

hbase(main):007:0> create 'sqooptest:sqstudent','stuinfo'

使用sqoop开始导入数据:

Sqoop基本原理

–column-family stuinfo

指定列族为stuinfo

–hbase-create-table

若表不存在,则自动创建

–hbase-row-key sid

指定行键为sid

查看hbase表数据

​hbase(main):008:0> scan 'sqooptest:sqstudent'

ROW                         COLUMN+CELL                                                                    

1                          column=stuinfo:age, timestamp=1605958889301, value=15                          

1                          column=stuinfo:gender, timestamp=1605958889301, value=\xE5\xA5\xB3              

1                          column=stuinfo:sname, timestamp=1605958889301, value=\xE5\xAD\x99\xE5\xB0\x9A\x

                           E9\xA6\x99                                                                      

2                          column=stuinfo:age, timestamp=1605958889301, value=16                          

2                          column=stuinfo:gender, timestamp=1605958889301, value=\xE5\xA5\xB3              

2                          column=stuinfo:sname, timestamp=1605958889301, value=\xE8\xB2\x82\xE8\x9D\x89  

...

...

...                                                      

9                          column=stuinfo:age, timestamp=1605958892765, value=17                          

9                          column=stuinfo:gender, timestamp=1605958892765, value=\xE7\x94\xB7              

9                          column=stuinfo:sname, timestamp=1605958892765, value=\xE8\xA3\xB4\xE6\x93\x92\x

                           E8\x99\x8E                                                                      

9 row(s) in 0.1830 seconds

HBase中的数据没有数据类型,统一存储为字节码,是否显示具体的汉字只是前端显示问题,此处没有解决,因此gender和sname字段显示的都是字节码

3.3、RDBMS => Hive

3.3.1、导入普通表

将mysql中retail_db库下的orders表导入hive

Sqoop基本原理

导入过程日志会提示mapreduce过程等信息,导入成功日志最后会提示如下信息:

Sqoop基本原理

在hdfs的hive工作目录中生成文件

Sqoop基本原理

查看一下hive的orders表数据

Sqoop基本原理

3.3.2、导入分区表

Sqoop基本原理

执行结果

Sqoop基本原理

Sqoop基本原理

Sqoop基本原理

查询结果

Sqoop基本原理

3.4、Hive/Hdfs => RDBMS

先在mysql中建表

Sqoop基本原理

我们把刚才在hive中创建的sqstudent表数据再导出到mysql中

Sqoop基本原理

查看一下mysql中的数据结果

Sqoop基本原理

3.5、Sqoop Job

job参数说明:

Sqoop基本原理

创建job

  • -和import之间有个空格。这里–空格之后表示给job添加参数,而恰好import又不需要–,所以这个空格很容易被忽略。

Sqoop基本原理

查看job:

​sqoop job --list

结果:

Sqoop基本原理

显示job:

Sqoop基本原理

结果

此时未配备密码,因此在过程中需要输入密码:

Sqoop基本原理

删除job

sqoop job --delete myjob

保存密码

保存的job里并没有保存明文的password,所以每次使用job,都会要求提供密码【-P交互式】。

而在使用Oozie等这些自动化调度的时候,是没有机会输入password的。所以需要保存password。

1、使用–password-file文件

Sqoop基本原理

文件存放在/home/user(主机名)下,文件的权限应该是400,支持本地文件和HDFS。

Sqoop基本原理

Sqoop基本原理

我们新建一个指定密码文件路径的job:

Sqoop基本原理

查看新建的job:

Sqoop基本原理

执行job:

sqoop job --exec pwdjob

执行过程如下,已经不需要输入密码:

Sqoop基本原理

查看执行结果

Sqoop基本原理

hdfs dfs -cat /sqooptest/pwdjob/part-m-00000

结果数据如下:

Sqoop基本原理

2、保存在sqoop元数据里

You can enable passwords in the metastore by setting sqoop.metastore.client.record.password to true in the configuration.

​配置文件在conf/sqoop-site.xml里,设置之后的第一次运行,需要提供密码。

Sqoop基本原理