热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

Sqoop连接mysql的参数_Sqoop使用shell命令的各种参数的配置及使用方法

1、Sqoop简介Sqoop将用户编写的sqoop命令翻译为MR程序,MR程序读取关系型数据库中的数据,写入到HDFS或读取HDFS上的数据࿰

1、Sqoop简介

Sqoop将用户编写的sqoop命令翻译为MR程序,MR程序读取关系型数据库中的数据,写入到HDFS或读取HDFS上的数据,写入到关系型数据库

在MR程序中如果要读取关系型数据中的数据,必须制定输入格式为DBInputformat

在MR程序中如果要向关系型数据吸入数据,必须制定输出格式为DBOutputformat

Sqoop命令运行的MR程序,只有Map阶段,没有reduce阶段。只需要数据传输,不需要对数据进行合并和排序

2、Sqoop导入数据

2.1 到入到HDFS

2.1.1 全表导入

bin/sqoop import \

##连接的关系型数据库的url,用户名,密码--connect jdbc:mysql://hadoop102:3306/test \

--username root \--password 123\

##连接的表--table t_emp \

##导出数据在hdfs上存放路径--target-dir /sqoopTest \

##如果路径已存在则先删除--delete-target-dir \

##导入到Hdfs上后,每个字段使用什么参数进行分割--fields-terminated-by "\t"\

##要启动几个MapTask,默认4个--num-mappers 2\

##数据集根据哪个字段进行切分,切分后每个MapTask负责一部分--split-by id \

##要实现部分导入,加入下面的参数,表示导入哪些列

##columns中如果涉及到多列,用逗号分隔,分隔时不要添加空格--columns id,name,age

2.1.2 使用sqoop关键字筛选查询导入数据

bin/sqoop import \--connect jdbc:mysql://hadoop102:3306/test \

--username root \--password 123\--table t_emp \

##指定过滤的where语句,where语句最好使用引号包裹--where 'id>6'\--target-dir /sqoopTest \--delete-target-dir \--fields-terminated-by "\t"\--num-mappers 1\--split-by id

2.1.3 使用查询语句导入

bin/sqoop import \--connect jdbc:mysql://hadoop102:3306/test \

--username root \--password 123\

##查询语句最好使用单引号

##如果query后使用的是双引号,则$CONDITIONS前必须加转移符,防止shell识别为自己的变量--query 'select * from t_emp where id>3 and $CONDITIONS'\--target-dir /sqoopTest \--delete-target-dir \--fields-terminated-by "\t"\--num-mappers 1\--split-by id

注意:

如果使用了--query,就不能指定--table,和--columns和--where

--query 和 --table一定不能同时存在!

--where和--query同时存在时,--where失效

--columns和--query同时存在时,--where无效!

--query 必须跟--target-dir

2.2 导入到hive

bin/sqoop import \--connect jdbc:mysql://hadoop102:3306/test \

--username root \--password 123\--query 'select * from t_emp where id>3 and $CONDITIONS'\--target-dir /sqoopTest \

##如果不限定分隔符,那么hive存储的数据将不带分隔符,之后再想操作很麻烦,所以建议加上--fields-terminated-by "\t"\--delete-target-dir \

##导入到hive--hive-import \

##是否覆盖写,不加这个参数就是追加写--hive-overwrite \

##指定要导入的hive的表名--hive-table t_emp \--num-mappers 1\--split-by id

原理还是分俩步:先把数据从关系数据库里导到hdfs中,然后再从hdfs中导到hive中,此时hdfs中的文件会被删除

注意:如果hive中没表会自动创建表,但是类型是自动生成的,所以还是建议手动创建

也可以分俩步走:

(1)先导入hdfs

#!/bin/bash

import_data(){

$sqoop import \--connect jdbc:mysql://hadoop102:3306/gmall \

--username root \--password 123\--target-dir /origin_data/gmall/db/$1/$do_date \--delete-target-dir \--query "$2 and \$CONDITIONS"\--num-mappers 1\--fields-terminated-by '\t'\

# 使用压缩,和指定压缩格式为lzop--compress \--compression-codec lzop \

#将String类型和非String类型的空值替换为\N,方便Hive读取--null-string '\\N'\--null-non-string '\\N'}

(2)利用  load data  命令导入hive

注意:

Hive中的Null在底层是以“\N”来存储,而MySQL中的Null在底层就是Null,为了保证数据两端的一致性。

在导出数据时采用--input-null-string和--input-null-non-string两个参数。

导入数据时采用--null-string和--null-non-string。

2.3 导入到HBase

bin/sqoop import \--connect jdbc:mysql://hadoop102:3306/test \

--username root \--password 123\--query 'select * from t_emp where id>3 and $CONDITIONS'\--target-dir /sqoopTest \--delete-target-dir \

##表不存在是否创建--hbase-create-table \

##hbase中的表名--hbase-table "t_emp"\

##将导入数据的哪一列作为rowkey--hbase-row-key "id"\

##导入的列族--column-family "info"\--num-mappers 2\--split-by id

当选用自动创建表时,如果版本不兼容会报错:

20/03/24 13:51:24 INFO mapreduce.HBaseImportJob: Creating missing HBase table t_emp

Exception in thread "main" java.lang.NoSuchMethodError: org.apache.hadoop.hbase.HTableDescriptor.addFamily(Lorg/apache/hadoop/hbase/HColumnDescriptor;)V

9428cabf4412e85b1f1291028a7d7005.png

此时只能自己手动创建或者可以重新编译sqoop源码

如果要多列族导入,只能多次运行命令,一次导入一个列族

3、导出

3.1 表为空表时

bin/sqoop export \--connect 'jdbc:mysql://hadoop102:3306/test?useUnicode=true&characterEncoding=utf-8'\--username root \--password 123\

##导出的表名,需要自己提前创建好--table t_emp2 \--num-mappers 1\

##hdfs上导出的数据的路径--export-dir /user/hive/warehouse/t_emp \

##hdfs上数据的分隔符--input-fields-terminated-by "\t"

3.2 表不为空时

如果插入的数据的主键和表中已有数据的主键冲突,那么会报错Duplicate entry '5' for key 'PRIMARY'

3.2.1 在mysql中

INSERT INTO t_emp2 VALUE(5,'jack',30,3,1111)

ON DUPLICATE KEY UPDATE NAME=VALUES(NAME),deptid=VALUES(deptid),

empno=VALUES(empno);

指定当插入时,主键重复时时,对于重复的记录,只做更新,不做插入!

而用sqoop时,则可以启用以下俩种模式

3.2.2 updateonly模式

bin/sqoop export \--connect 'jdbc:mysql://hadoop103:3306/mydb?useUnicode=true&characterEncoding=utf-8'\--username root \--password 123456\--table t_emp2 \--num-mappers 1\--export-dir /hive/t_emp \--input-fields-terminated-by "\t"\--update-key id

利用 --update-key 字段  ,表示主键重复时会进行更新,但是主键不重复的时候,数据不会插入进来

3.2.3 allowinsert模式

bin/sqoop export \--connect 'jdbc:mysql://hadoop103:3306/mydb?useUnicode=true&characterEncoding=utf-8'\--username root \--password 123456\--table t_emp2 \--num-mappers 1\--export-dir /hive/t_emp \--input-fields-terminated-by "\t"\--update-key id \--update-mode allowinsert

表示主键重复时会进行更新,主键不重复的时候,数据也会插入进来

3.3 查看导出命令的具体实现

3.3.1配置/etc/my.cnf

[mysqld]

#开启binlog日志功能

log-bin=mysql-bin

3.3.2重启mysql服务

3.3.3进入/var/lib/mysql,调用方法

sudo mysqlbinlog mysql-bin.000001



推荐阅读
  • Hadoop MapReduce 实战案例:手机流量使用统计分析
    本文通过一个具体的Hadoop MapReduce案例,详细介绍了如何利用MapReduce框架来统计和分析手机用户的流量使用情况,包括上行和下行流量的计算以及总流量的汇总。 ... [详细]
  • Java连接MySQL数据库的方法及测试示例
    本文详细介绍了如何安装MySQL数据库,并通过Java编程语言实现与MySQL数据库的连接,包括环境搭建、数据库创建以及简单的查询操作。 ... [详细]
  • 本文回顾了作者在求职阿里和腾讯实习生过程中,从最初的迷茫到最后成功获得Offer的心路历程。文中不仅分享了个人的面试经历,还提供了宝贵的面试准备建议和技巧。 ... [详细]
  • JUnit下的测试和suite
    nsitionalENhttp:www.w3.orgTRxhtml1DTDxhtml1-transitional.dtd ... [详细]
  • 在使用mybatis进行mapper.xml测试的时候发生必须为元素类型“mapper”声明属性“namespace”的错误项目目录结构UserMapper和UserMappe ... [详细]
  • 本文探讨了如何使用Scrapy框架构建高效的数据采集系统,以及如何通过异步处理技术提升数据存储的效率。同时,文章还介绍了针对不同网站采用的不同采集策略。 ... [详细]
  • 本文详细介绍如何在SSM(Spring + Spring MVC + MyBatis)框架中实现分页功能。包括分页的基本概念、数据准备、前端分页栏的设计与实现、后端分页逻辑的编写以及最终的测试步骤。 ... [详细]
  • 本文探讨了使用Python实现监控信息收集的方法,涵盖从基础的日志记录到复杂的系统运维解决方案,旨在帮助开发者和运维人员提升工作效率。 ... [详细]
  • 本文详细介绍了如何使用C#实现不同类型的系统服务账户(如Windows服务、计划任务和IIS应用池)的密码重置方法。 ... [详细]
  • PHP面试题精选及答案解析
    本文精选了新浪PHP笔试题及最新的PHP面试题,并提供了详细的答案解析,帮助求职者更好地准备PHP相关的面试。 ... [详细]
  • java datarow_DataSet  DataTable DataRow 深入浅出
    本篇文章适合有一定的基础的人去查看,最好学习过一定net编程基础在来查看此文章。1.概念DataSet是ADO.NET的中心概念。可以把DataSet当成内存中的数据 ... [详细]
  • 本文介绍如何通过mysqladmin ext命令监控MySQL数据库的运行状态,包括性能指标的实时查看和分析。 ... [详细]
  • selenium通过JS语法操作页面元素
    做过web测试的小伙伴们都知道,web元素现在很多是JS写的,那么既然是JS写的,可以通过JS语言去操作页面,来帮助我们操作一些selenium不能覆盖的功能。问题来了我们能否通过 ... [详细]
  • 本文详细解析了MySQL中常见的几种错误,并提供了具体的解决方法,帮助开发者快速定位和解决问题。 ... [详细]
  • 本文介绍了如何使用Flume从Linux文件系统收集日志并存储到HDFS,然后通过MapReduce清洗数据,使用Hive进行数据分析,并最终通过Sqoop将结果导出到MySQL数据库。 ... [详细]
author-avatar
因为梦想2013
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有