热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

用Sqoop进行Mysql与HDFS/Hbase的互导数据

1、建立测试用户sqoop,并在测试用户下建立数据哭sqoop和测试数据表employee在Mysql中创建一个用户名:sqoop,密码:sqoop,并授权grantall
1、建立测试用户sqoop,并在测试用户下建立数据哭sqoop和测试数据表employee
             在Mysql中创建一个用户名:sqoop,密码:sqoop,并授权
grant all privileges on *.* to 'sqoop'@'%' identified by 'sqoop' with grant option;

可以在Linux命令行(不是在Mysql命令行),输入以下代码尝试有没有创建成功
mysql -usqoop -p回车键
sqoop


在sqoop用户下,创建sqoop数据库,在sqoop库中建表employee
create database sqoop;

use sqoop;

create table employee(employee_id int not null primary key,
employee_name varchar(30));
insert into employee values(101,'zhangsan');
insert into employee values(102,'lisi');
insert into employee values(103,'wangwu');

此时,在sqoop库中的employee表中已经存在三条记录,可以select查询验证。

2、测试sqoop能否成功连接mysql

首先,查看mysql的端口号。在Mysql命令窗口输入:

mysql> show variables like 'port';
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| port | 3306 |
+---------------+-------+
1 row in set (0.00 sec)
输出端口号(默认是3306)。


然后,退出mysql:exit;

在linux命令行下输入:

因为我的mysql是装载本机上,所以是localhost。

sqoop list-tables --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password sqoop
会显示employee这个表的名字,结果如下:

... ...
14/06/03 15:02:11 INFO manager.MySQLManager: Preparing to use a MySQL streaming resultset.
employee
... ...

3、将mysql中的sqoop库中的employee的数据导入到HDFS中

首先,启动hadoop,在hadoop安装目录下输入:

bin/start-all.sh

可以通过jps查看进程,看是否正常启动,以下结果显示启动正常:

3733 SecondaryNameNode
3196 NameNode
4089 TaskTracker
3833 JobTracker
22914 Jps
3471 DataNode

然后,在linux命令行输入:

sqoop import --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password sqoop --table employee -m 1

如果过程最后显示:

14/06/03 15:13:35 INFO mapreduce.ImportJobBase: Transferred 33 bytes in 24.6435 seconds (1.3391 bytes/sec)
14/06/03 15:13:35 INFO mapreduce.ImportJobBase: Retrieved 3 records.

查看结果,在linux'命令行输入:

hadoop dfs -ls /user/cwjy1202/employee

显示结果如下:

-rw-r--r--   1 cwjy1202 supergroup          0 2014-06-03 15:13 /user/cwjy1202/employee/_SUCCESS
drwxr-xr-x - cwjy1202 supergroup 0 2014-06-03 15:13 /user/cwjy1202/employee/_logs
-rw-r--r-- 1 cwjy1202 supergroup 33 2014-06-03 15:13 /user/cwjy1202/employee/part-m-00000
其中part-m-00000是表的数据信息,可以查看:

 hadoop dfs -cat /user/cwjy1202/employee/part-m-00000
输出结果为:

Warning: $HADOOP_HOME is deprecated.

101,zhangsan
102,lisi
103,wangwu

导入HDFS成功!!!

4、将HDFS中的数据导入Mysql

首先,将mysql中的sqoop用户中的sqoop库中的employee表中的数据删除

mysql> use sqoop
Reading table information for completion of table and column names
You can turn off this feature to get a quicker startup with -A

Database changed
mysql> delete from employee;
Query OK, 3 rows affected (0.04 sec)

mysql> select * from employee;
Empty set (0.00 sec)

其次,在linux命令行输入:

sqoop export --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password sqoop --table employee --export-dir 
hdfs://localhost:9002/user/cwjy1202/employee/part-m-00000
 过程最后会显示,说明成功了:
14/06/03 15:29:57 INFO mapreduce.ExportJobBase: Transferred 730 bytes in 33.2669 seconds (21.9437 bytes/sec)14/06/03 15:29:57 INFO mapreduce.ExportJobBase: Exported 3 records.

注意:

jdbc:mysql://localhost:3306/sqoop
这个sqoop是数据库的名字。

下面的localhost是masternode的地址,因为我的是伪分布式,masternode所在的地址是localhost。

--export-dirhdfs://localhost:9002

端口号9002,这个一定注意,一般人的是9000,我的9000被其他占用,我改为了9002,这个要看core-site.xml文件下的自己设置的端口号是什么。



此时,查看mysql中sqoop用户下的sqoop库中的employee表中有没有数据:

mysql> select * from employee;
+-------------+---------------+
| employee_id | employee_name |
+-------------+---------------+
| 101 | zhangsan |
| 102 | lisi |
| 103 | wangwu |
+-------------+---------------+
3 rows in set (0.00 sec)

导入mysql成功!!!

5、将Mysql数据导入Hbase

首先,在linux命令行输入:

sqoop import --connect jdbc:mysql://localhost/sqoop --username sqoop --password sqoop --table employee 
--hbase-create-table --hbase-table employee --column-family emplinfo --hbase-row-key employee_id

运行过程最后显示:

14/06/03 15:50:45 INFO mapred.JobClient:     SPLIT_RAW_BYTES=361
14/06/03 15:50:45 INFO mapreduce.ImportJobBase: Transferred 0 bytes in 48.8232 seconds (0 bytes/sec)
14/06/03 15:50:45 INFO mapreduce.ImportJobBase: Retrieved 3 records.

然后,在linux命令行输入:

hbase shell

在hbase命令行,查看表employee:

hbase(main):001:0> scan 'employee'
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/usr/local/hadoop/hbase-0.98.1-hadoop/lib/slf4j-log4j12-1.6.4.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/usr/local/hadoop/lib/slf4j-log4j12-1.4.3.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
ROW COLUMN+CELL
101 column=emplinfo:employee_name, timestamp=1401781827088, value=zhangsan
102 column=emplinfo:employee_name, timestamp=1401781827136, value=lisi
103 column=emplinfo:employee_name, timestamp=1401781839401, value=wangwu
3 row(s) in 1.9230 seconds

导入hbase成功!!!












推荐阅读
  • 如何在Java中使用DButils类
    这期内容当中小编将会给大家带来有关如何在Java中使用DButils类,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。D ... [详细]
  • PTArchiver工作原理详解与应用分析
    PTArchiver工作原理及其应用分析本文详细解析了PTArchiver的工作机制,探讨了其在数据归档和管理中的应用。PTArchiver通过高效的压缩算法和灵活的存储策略,实现了对大规模数据的高效管理和长期保存。文章还介绍了其在企业级数据备份、历史数据迁移等场景中的实际应用案例,为用户提供了实用的操作建议和技术支持。 ... [详细]
  • 包含phppdoerrorcode的词条 ... [详细]
  • 本文详细介绍了Linux系统中用于管理IPC(Inter-Process Communication)资源的两个重要命令:ipcs和ipcrm。通过这些命令,用户可以查看和删除系统中的消息队列、共享内存和信号量。 ... [详细]
  • 在OpenShift上部署基于MongoDB和Node.js的多层应用程序
    本文档详细介绍了如何在OpenShift 4.x环境中部署一个包含MongoDB数据库和Node.js后端及前端的多层应用程序。通过逐步指导,读者可以轻松完成整个部署过程。 ... [详细]
  • 一个建表一个执行crud操作建表代码importandroid.content.Context;importandroid.database.sqlite.SQLiteDat ... [详细]
  • 本文介绍如何使用 Python 的 DOM 和 SAX 方法解析 XML 文件,并通过示例展示了如何动态创建数据库表和处理大量数据的实时插入。 ... [详细]
  • php更新数据库字段的函数是,php更新数据库字段的函数是 ... [详细]
  • 开机自启动的几种方式
    0x01快速自启动目录快速启动目录自启动方式源于Windows中的一个目录,这个目录一般叫启动或者Startup。位于该目录下的PE文件会在开机后进行自启动 ... [详细]
  • 本文详细介绍了MySQL数据库的基础语法与核心操作,涵盖从基础概念到具体应用的多个方面。首先,文章从基础知识入手,逐步深入到创建和修改数据表的操作。接着,详细讲解了如何进行数据的插入、更新与删除。在查询部分,不仅介绍了DISTINCT和LIMIT的使用方法,还探讨了排序、过滤和通配符的应用。此外,文章还涵盖了计算字段以及多种函数的使用,包括文本处理、日期和时间处理及数值处理等。通过这些内容,读者可以全面掌握MySQL数据库的核心操作技巧。 ... [详细]
  • 本文详细介绍了 InfluxDB、collectd 和 Grafana 的安装与配置流程。首先,按照启动顺序依次安装并配置 InfluxDB、collectd 和 Grafana。InfluxDB 作为时序数据库,用于存储时间序列数据;collectd 负责数据的采集与传输;Grafana 则用于数据的可视化展示。文中提供了 collectd 的官方文档链接,便于用户参考和进一步了解其配置选项。通过本指南,读者可以轻松搭建一个高效的数据监控系统。 ... [详细]
  • 您的数据库配置是否安全?DBSAT工具助您一臂之力!
    本文探讨了Oracle提供的免费工具DBSAT,该工具能够有效协助用户检测和优化数据库配置的安全性。通过全面的分析和报告,DBSAT帮助用户识别潜在的安全漏洞,并提供针对性的改进建议,确保数据库系统的稳定性和安全性。 ... [详细]
  • 在Linux系统中避免安装MySQL的简易指南
    在Linux系统中避免安装MySQL的简易指南 ... [详细]
  • Linux下MySQL 8.0.28安装指南
    本文详细介绍了在Linux系统上安装MySQL 8.0.28的步骤,包括下载数据库、解压数据包、安装必要组件和启动MySQL服务。 ... [详细]
  • 本文介绍了在 Spring Boot 中使用 JPA 进行数据删除操作时遇到的 SQL 错误及其解决方法。错误表现为:删除操作失败,原因是无法打开 JPA EntityManager 以进行事务处理。 ... [详细]
author-avatar
华力
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有