热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

CentOS7安装Sqoop2连接MySQL(Hadoop2.6,MySQL6.5,Sqoop1.99.6)

为什么强调1.99.6因为不同Sqoop版本对应不同的Hadoop版本.1.Hadoop环境,参考:http:blog.csdn.neta237428367articledet

为什么强调1.99.6因为不同Sqoop版本对应不同的Hadoop版本.

1.Hadoop环境,参考:

http://blog.csdn.net/a237428367/article/details/50462858


2.MySQL,参考:

http://blog.csdn.net/a237428367/article/details/50481719


3.tar -zxvf sqoop-1.99.6-bin-hadoop200.tar.gz 你懂的

   mv sqoop-1.99.6-bin-hadoop200 sqoop-1.99.6 重命名一下因为好长


4.vi /hadoop/sqoop-1.99.6/server/conf/sqoop.properties 修改hadoop配置文件所属路径

org.apache.sqoop.submission.engine.mapreduce.configuration.directory=/hadoop/hadoop-2.6.3/etc/hadoop/

5. vi /hadoop/sqoop-1.99.6/server/conf/catalina.properties 把/hadoop/hadoop-2.6.3/share/hadoop下所有*.jar包加入到类路径里.

这个是原来的配置:

common.loader=${catalina.base}/lib,${catalina.base}/lib/*.jar,${catalina.home}/lib,${catalina.home}/lib/*.jar,${catalina.home}/../lib/*.jar,/usr/lib/hadoop/*.jar,/usr/lib/hadoop/lib/*.jar,/usr/lib/hadoop-hdfs/*.jar,/usr/lib/hadoop-hdfs/lib/*.jar,/usr/lib/hadoop-mapreduce/*.jar,/usr/lib/hadoop-mapreduce/lib/*.jar,/usr/lib/hadoop-yarn/*.jar,/usr/lib/hadoop-yarn/lib/*.jar,/usr/lib/hive/lib/*.jar

这个是修改后的配置:

common.loader=${catalina.base}/lib,${catalina.base}/lib/*.jar,${catalina.home}/lib,${catalina.home}/lib/*.jar,${catalina.home}/../lib/*.jar,/hadoop/hadoop-2.6.3/share/hadoop/common/*.jar,/hadoop/hadoop-2.6.3/share/hadoop/common/lib/*.jar,/hadoop/hadoop-2.6.3/share/hadoop/hdfs/*.jar,/hadoop/hadoop-2.6.3/share/hadoop/hdfs/lib/*.jar,/hadoop/hadoop-2.6.3/share/hadoop/mapreduce/*.jar,/hadoop/hadoop-2.6.3/share/hadoop/mapreduce/lib/*.jar,/hadoop/hadoop-2.6.3/share/hadoop/tools/*.jar,/hadoop/hadoop-2.6.3/share/hadoop/tools/lib/*.jar,/hadoop/hadoop-2.6.3/share/hadoop/yarn/*.jar,/hadoop/hadoop-2.6.3/share/hadoop/yarn/lib/*.jar,/hadoop/hadoop-2.6.3/share/hadoop/httpfs/tomcat/lib/*.jar

6. vi /etc/profile 环境变量

export JAVA_HOME=/usr/java/jdk1.8.0_65
export HADOOP_HOME=/hadoop/hadoop-2.6.3
export SQOOP_HOME=/hadoop/sqoop-1.99.6
export PATH=$PATH:${HADOOP_HOME}/bin:${SQOOP_HOME}/bin
export CATALINA_HOME=${SQOOP_HOME}/server
export LOGDIR=${SQOOP_HOME}/logs

7.MySQL JDBC:

http://dev.mysql.com/downloads/connector/j/

把mysql-connector-java-5.1.38-bin.jar 复制到 /hadoop/sqoop-1.99.6/server/lib 下

8.sqoop.sh server start 启动sqoop server,输出:

Sqoop home directory: /hadoop/sqoop-1.99.6
Setting SQOOP_HTTP_PORT: 12000
Setting SQOOP_ADMIN_PORT: 12001
Using CATALINA_OPTS:
Adding to CATALINA_OPTS: -Dsqoop.http.port=12000 -Dsqoop.admin.port=12001
Using CATALINA_BASE: /hadoop/sqoop-1.99.6/server
Using CATALINA_HOME: /hadoop/sqoop-1.99.6/server
Using CATALINA_TMPDIR: /hadoop/sqoop-1.99.6/server/temp
Using JRE_HOME: /usr/java/jdk1.8.0_65
Using CLASSPATH: /hadoop/sqoop-1.99.6/server/bin/bootstrap.jar

9. ./sqoop.sh client 进shell,输出:

sqoop:000>

10. set server --host master --port 12000 --webapp sqoop 为客户端配置服务器,输出:

Server is set successfully

11.创建MySQL连接:

sqoop:000> create link --cid 1
Creating link for connector with id 1
Please fill following values to create new link object
Name: MySQL207

Link configuration

JDBC Driver Class: com.mysql.jdbc.Driver
JDBC Connection String: jdbc:mysql://192.168.30.207:3306/mysql
Username: root
Password: ***********
JDBC Connection Properties:
There are currently 0 values in the map:
entry# protocol=tcp

ps.如果你需要删除这个link ,则 : delete link -l 1 (1这个id 从 show link 这个命令查出来)

Link成功则输出:

link was successfully updated with status OK

show link 看一下

+----+----------+--------------+------------------------+---------+
| Id | Name | Connector Id | Connector Name | Enabled |
+----+----------+--------------+------------------------+---------+
| 2 | MySQL207 | 1 | generic-jdbc-connector | true |
+----+----------+--------------+------------------------+---------+

12. exit 退出client
     sqoop.sh server stop 停止sqoop server


推荐阅读
  • 本文介绍了在sqoop1.4.*版本中,如何实现自定义分隔符的方法及步骤。通过修改sqoop生成的java文件,并重新编译,可以满足实际开发中对分隔符的需求。具体步骤包括修改java文件中的一行代码,重新编译所需的hadoop包等。详细步骤和编译方法在本文中都有详细说明。 ... [详细]
  • Hadoop 2.6 主要由 HDFS 和 YARN 两大部分组成,其中 YARN 包含了运行在 ResourceManager 的 JVM 中的组件以及在 NodeManager 中运行的部分。本文深入探讨了 Hadoop 2.6 日志文件的解析方法,并详细介绍了 MapReduce 日志管理的最佳实践,旨在帮助用户更好地理解和优化日志处理流程,提高系统运维效率。 ... [详细]
  • 本文介绍了如何使用Flume从Linux文件系统收集日志并存储到HDFS,然后通过MapReduce清洗数据,使用Hive进行数据分析,并最终通过Sqoop将结果导出到MySQL数据库。 ... [详细]
  • 在Java Web服务开发中,Apache CXF 和 Axis2 是两个广泛使用的框架。CXF 由于其与 Spring 框架的无缝集成能力,以及更简便的部署方式,成为了许多开发者的首选。本文将详细介绍如何使用 CXF 框架进行 Web 服务的开发,包括环境搭建、服务发布和客户端调用等关键步骤,为开发者提供一个全面的实践指南。 ... [详细]
  • 本文详细介绍了如何在Java Web服务器上部署音视频服务,并提供了完整的验证流程。以AnyChat为例,这是一款跨平台的音视频解决方案,广泛应用于需要实时音视频交互的项目中。通过具体的部署步骤和测试方法,确保了音视频服务的稳定性和可靠性。 ... [详细]
  • hadoop3.1.2 first programdefault wordcount (Mac)
    hadoop3.1.2安装完成后的第一个实操示例程 ... [详细]
  • Hadoop的分布式架构改进与应用
    nsitionalENhttp:www.w3.orgTRxhtml1DTDxhtml1-transitional.dtd ... [详细]
  • Presto:高效即席查询引擎的深度解析与应用
    本文深入解析了Presto这一高效的即席查询引擎,详细探讨了其架构设计及其优缺点。Presto通过内存到内存的数据处理方式,显著提升了查询性能,相比传统的MapReduce查询,不仅减少了数据传输的延迟,还提高了查询的准确性和效率。然而,Presto在大规模数据处理和容错机制方面仍存在一定的局限性。本文还介绍了Presto在实际应用中的多种场景,展示了其在大数据分析领域的强大潜力。 ... [详细]
  • Zookeeper作为Apache Hadoop生态系统中的一个重要组件,主要致力于解决分布式应用中的常见数据管理难题。它提供了统一的命名服务、状态同步服务以及集群管理功能,有效提升了分布式系统的可靠性和可维护性。此外,Zookeeper还支持配置管理和临时节点管理,进一步增强了其在复杂分布式环境中的应用价值。 ... [详细]
  • 构建高可用性Spark分布式集群:大数据环境下的最佳实践
    在构建高可用性的Spark分布式集群过程中,确保所有节点之间的无密码登录是至关重要的一步。通过在每个节点上生成SSH密钥对(使用 `ssh-keygen -t rsa` 命令并保持默认设置),可以实现这一目标。此外,还需将生成的公钥分发到所有节点的 `~/.ssh/authorized_keys` 文件中,以确保节点间的无缝通信。为了进一步提升集群的稳定性和性能,建议采用负载均衡和故障恢复机制,并定期进行系统监控和维护。 ... [详细]
  • HBase在金融大数据迁移中的应用与挑战
    随着最后一台设备的下线,标志着超过10PB的HBase数据迁移项目顺利完成。目前,新的集群已在新机房稳定运行超过两个月,监控数据显示,新集群的查询响应时间显著降低,系统稳定性大幅提升。此外,数据消费的波动也变得更加平滑,整体性能得到了显著优化。 ... [详细]
  • 前期Linux环境准备1.修改Linux主机名2.修改IP3.修改主机名和IP的映射关系4.关闭防火墙5.ssh免登陆6.安装JDK,配置环境变量等集群规划主机 IP安装软件运行进 ... [详细]
  • 一、Hadoop来历Hadoop的思想来源于Google在做搜索引擎的时候出现一个很大的问题就是这么多网页我如何才能以最快的速度来搜索到,由于这个问题Google发明 ... [详细]
  •     这里使用自己编译的hadoop-2.7.0版本部署在windows上,记得几年前,部署hadoop需要借助于cygwin,还需要开启ssh服务,最近发现,原来不需要借助cy ... [详细]
  • Maven构建Hadoop,
    Maven构建Hadoop工程阅读目录序Maven安装构建示例下载系列索引 序  上一篇,我们编写了第一个MapReduce,并且成功的运行了Job,Hadoop1.x是通过ant ... [详细]
author-avatar
mobiledu2502875483
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有