作者:chen | 来源:互联网 | 2023-08-04 13:33
首先我们在mysql有一张表test.tohdfs我们在hbase中也创建一张表,执行导入binsqoopimport\--connectjdbc:mysql:make.hadoo
首先我们在mysql有一张表test.tohdfs
我们在hbase中也创建一张表,
执行导入
bin/sqoop import \
--connect jdbc:mysql://make.hadoop.com:3306/test \
--username root \
--password 123456 \
--table tohdfs \
--hbase-table hbase_tohdfs \
--column-family info \
--hbase-create-table \
--hbase-row-key id
当然导入成功了,对hbase的数据进行查看,可以看到数据是完成整的,
第二种 我们加上 --hbase-bulkload 参数进行导入
bin/sqoop import \
--connect jdbc:mysql://make.hadoop.com:3306/test \
--username root \
--password 123456 \
--table tohdfs \
--hbase-table hbase_tohdfs_bulk \
--column-family info \
--hbase-create-table \ 表不存在会自己创建
--hbase-row-key id \
--hbase-bulkload 不用指定输出的路径,后面会解释
我们看看这个命令结束后的提示
我么可以看到这里给出了一个,output的路径,可是我们hdfs上根本不存在,这个目录,导致我不知道该怎么加载这个数据,但是我么你直接去hbase中查看表的数据
哈哈,这里面已经有数据了,说明sqoop在创建之后,启用了类似,complete-bulkload 的命令对数据进行了转移,用不着我们自己再转移一次了。
完美,以上