Phoenix ODPSBulkLoadTool 使用案例
1.创建ODPS表
create table hbaseport.odps_test (
key string,
value1 string,
value2 bigint);
2.配置MR集群访问云HBASE环境
- 开通云 HBase HDFS 端口
- 配置hdfs-site.xml使之能访问云HBASE HA的hdfs, 具体参考这里
- 配置hbase-site.xml文件可访问云HBASE
在MR集群上创建临时conf目录, 执行hadoop命或者yarn命令时通过--config选项添加到命令运行时的classpath中,目录中包括如下:
ls conf/
core-site.xml hbase-site.xml hdfs-site.xml
mapred-site.xml yarn-site.xml
3.创建Phoenix测试表
DROP
关注公众号
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
[Phoenix] 十二、数据迁移
1. 概要 数据迁移工具是否丰富,也在一定程度上决定了数据库的流行程度和它的生态圈。了解其相关工具,能让我们的数据迁移工作更加高效。本文主要介绍 Phoenix 的数据导入导出工具,希望给准备在 Phoenix 上做数据迁移的同学一些帮助。 2. 数据导入导出说明 由于在源端进行数据迁移,导入到 Phoenix 的过程中会产生新的数据修改或写入,这使得不停业务的实时迁移变的不简单。现在开源的数据迁移工具都需要停止数据源端的业务来完成数据迁移。 对于准备迁移上阿里云 HBase 的同学这个都不是问题,我们提供不停业务的实时迁移(HFile拷贝+WAL同步解析入库)支持。 从导入方式上可分为两种: 3. BulkLoad 导入数据 通过 BulkLoad 方式导入数据可以直接导入 Phoenix 表或者导入 HBase 表,然后通过创建 Phoen
-
下一篇
HDFS部署体验
目录 简单说明 重要的配置参数及配置选择 部署实践,参数配置修改记录 local machine, NameNode local machine, DataNode 192.168.1.101, DataNode 启动HDFS cluster 启动验证 hdfs shell创建文件 问题与解决 关闭HDFS cluster 结论 简单说明 下载hadoop distribution 有三个包: (区别是啥?) hadoop-x.y.z-site.tar.gz hadoop-x.y.z-src.tar.gz hadoop-x.y.z.tar.gz hadoop由不同的组件组成,不同组件有不同的daemon,每个daemon是独立的java process;配置daemon的启动参数,是通过环境变量实现 HDFS 在 etc/hadoop/hadoop-evn.sh 中配置 NameNode daemon: HDFS_NAMENODE_OPTS DataNode daemon: HDFS_DATANODE_OPTS Secondary NameNode daemon: HDFS_SECON...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS7设置SWAP分区,小内存服务器的救世主
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- CentOS6,CentOS7官方镜像安装Oracle11G
- Dcoker安装(在线仓库),最新的服务器搭配容器使用
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- CentOS7,CentOS8安装Elasticsearch6.8.6
- CentOS8,CentOS7,CentOS6编译安装Redis5.0.7
- Red5直播服务器,属于Java语言的直播服务器
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题

微信收款码
支付宝收款码