首页 文章 精选 留言 我的

精选列表

搜索[主从同步],共10006篇文章
优秀的个人博客,低调大师

sqoop同步mysql到hdfs

链接:http://pan.baidu.com/s/1gfHnaVL 密码:7j12 mysql-connector version 5.1.32 若在安装版本过程遇到些问题,可参考http://dbspace.blog.51cto.com/6873717/1875955,其中一些问题的解决办法 下载并安装: cd/usr/local/ tar-zxvfsqoop2-1.99.3-cdh5.0.0.tar.gz mvsqoop2-1.99.3-cdh5.0.0sqoop 添加sqoop2到系统环境变量中:exportSQOOP_HOME=/usr/local/sqoop exportCATALINA_BASE=$SQOOP_HOME/server exportPATH=$PATH:/usr/local/sqoop/bin 拷贝mysql驱动包到$SQOOP2_HOME/server/lib下 cpmysql-connector-java-5.1.32-bin.jar/usr/local/sqloop/server/lib/ 修改配置文件:vim/usr/local/sqoop/server/conf/sqoop.properties org.apache.sqoop.submission.engine.mapreduce.configuration.directory=/usr/local/hadoop/etc/hadoop#hadoop的配置文件路径 vim/usr/local/sqoop/server/conf/catalina.properties 把原来58行注释了,这里主要配置了hadoop的jar包的路径信息 common.loader=${catalina.base}/lib,${catalina.base}/lib/*.jar,${catalina.home}/lib,${catalina.home}/lib/*.jar,${catalina.home}/../lib/*.jar,/usr/local/hadoop/share/hadoop/common/*.jar,/usr/local/hadoop/share/hadoop/common/lib/*.jar,/usr/local/hadoop/share/hadoop/hdfs/*.jar,/usr/local/hadoop/share/hadoop/hdfs/lib/*.jar,/usr/local/hadoop/share/hadoop/mapreduce/*.jar,/usr/local/hadoop/share/hadoop/mapreduce/lib/*.jar,/usr/local/hadoop/share/hadoop/tools/*.jar,/usr/local/hadoop/share/hadoop/tools/lib/*.jar,/usr/local/hadoop/share/hadoop/yarn/*.jar,/usr/local/hadoop/share/hadoop/yarn/lib/*.jar 启动\停止sqoop/usr/local/sqoop/sqoop2-serverstart/stop 验证是否启动成功: 方式一:jps查看进程:Bootstrap [root@mycatsqoop]#jps25505SqoopShell 13080SecondaryNameNode 12878NameNode 26568Jps 方式二:方式二:http://192.168.1.114:12000/sqoop/version#SQOOP默认使用的端口为12000在/usr/local/sqoop/server/conf/server.xml中进行设置 ####接下来测试mysql到hadoop存储的一个过程 1、客户端登陆 [root@mycat bin]# sqoop2-shell Sqoop home directory: /usr/local/sqoop Sqoop Shell: Type 'help' or '\h' for help. sqoop:000> 2、创建一个mysql链接,在这个版本create 就只有[connection|job],注意不同版本的添加链接方式是不同的. 查看支持的链接服务 sqoop:000> show connector +----+------------------------+-----------------+------------------------------------------------------+ | Id | Name | Version | Class | +----+------------------------+-----------------+------------------------------------------------------+ | 1 | generic-jdbc-connector | 1.99.3-cdh5.0.0 | org.apache.sqoop.connector.jdbc.GenericJdbcConnector | +----+------------------------+-----------------+------------------------------------------------------+##在1.99.7的版本显示的方式和服务更多。 sqoop:000> create connection --cid 1 Creating connection for connector with id 1 Please fill following values to create new connection object Name: mysql_to_hadoop Connection configuration JDBC Driver Class: com.mysql.jdbc.Driver JDBC Connection String: jdbc:mysql://192.168.1.107:3306/sqoop #这里需要在1.107先添加好库sqoop Username: sqoop##需要在数据库添加好链接的用户 Password: ******* JDBC Connection Properties: There are currently 0 values in the map: entry# Security related configuration options Max connections: New connection was successfully created with validation status ACCEPTABLE and persistent id 2 2、创建job sqoop:000> create job --xid 2 --type import##注意 --xid 2为链接的id号 Creating job for connection with id 2 Please fill following values to create new job object Name: mysql_to_hadoop Database configuration Schema name: sqoop#MySQL的库名 Table name: wangyuan#库下的表 Table SQL statement: Table column names: Partition column name: Nulls in partition column: Boundary query: Output configuration Storage type: 0 : HDFS Choose: 0 Output format: 0 : TEXT_FILE 1 : SEQUENCE_FILE Choose: 0 Compression format: 0 : NONE 1 : DEFAULT 2 : DEFLATE 3 : GZIP 4 : BZIP2 5 : LZO 6 : LZ4 7 : SNAPPY Choose: 0 Output directory: hdfs://192.168.1.114:9000/home/mysql_to_hdfs2 #注意这个mysql_to_hdfs不能再hadoop的/home/已经存在的,但/home路径要存在,9000端口是在配置hadoop的时候配置,根据实际,或者通过WEB查看http:ip:50070----显示Overview 'mycat:9000' (active) 创建hdfs路径/usr/local/hadoop/bin/hadoop fs -mkidr /home 查看创建目录:/usr/local/hadoop/bin/hadoop fs -ls /home 或者通过WEB查看http:ip:50070 Throttling resources Extractors: Loaders: New job was successfully created with validation status FINE and persistent id 2 sqoop:000> 启动job sqoop:000> start job --jid 2 Exception has occurred during processing command Exception: org.apache.sqoop.common.SqoopException Message: CLIENT_0001:Server has returned exception 根本不知道这个提示说什么,通过修改设置:set option --name verbose --value true sqoop:000> start job --jid 2 Submission details Job ID: 2 Server URL: http://localhost:12000/sqoop/ Created by: root Creation date: 2016-11-23 21:15:27 CST Lastly updated by: root External ID: job_1479653943050_0007 http://haproxy:8088/proxy/application_1479653943050_0007/ Connector schema: Schema{name=wangyuan,columns=[ FixedPoint{name=id,nullable=null,byteSize=null,unsigned=null}, Date{name=c_time,nullable=null,fraction=null,timezone=null}]} 2016-11-23 21:15:27 CST: BOOTING - Progress is not available 返回这样信息OK 查看结果通过WEB /usr/local/hadoop/bin/hadoop fs -ls /home/ 版权声明:原创作品,如需转载,请注明出处。否则将追究法律责任 本文转自 DBAspace 51CTO博客,原文链接:http://blog.51cto.com/dbaspace/1875971

资源下载

更多资源
Mario

Mario

马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。

Nacos

Nacos

Nacos /nɑ:kəʊs/ 是 Dynamic Naming and Configuration Service 的首字母简称,一个易于构建 AI Agent 应用的动态服务发现、配置管理和AI智能体管理平台。Nacos 致力于帮助您发现、配置和管理微服务及AI智能体应用。Nacos 提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据、流量管理。Nacos 帮助您更敏捷和容易地构建、交付和管理微服务平台。

Spring

Spring

Spring框架(Spring Framework)是由Rod Johnson于2002年提出的开源Java企业级应用框架,旨在通过使用JavaBean替代传统EJB实现方式降低企业级编程开发的复杂性。该框架基于简单性、可测试性和松耦合性设计理念,提供核心容器、应用上下文、数据访问集成等模块,支持整合Hibernate、Struts等第三方框架,其适用范围不仅限于服务器端开发,绝大多数Java应用均可从中受益。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。

用户登录
用户注册