HBase的JAVA API操作详解
Alt+/ 代码助手完成一些代码的插入,自动显示提示信息
Alt+↓ 当前行和下面一行交互位置(特别实用,可以省去先剪切,再粘贴了)
Alt+↑ 当前行和上面一行交互位置(同上)
Alt+← 前一个编辑的页面
Alt+→ 下一个编辑的页面(当然是针对上面那条来说了)
Alt+Shift+M 抽取方法
Alt+Shift+L 抽取本地变量
Ctrl+1 快速修复
一:API介绍 package Hbase; import java.io.IOException; import java.io.InterruptedIOException; import java.util.List; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.HBaseConfiguration; import org.apache.hadoop.hbase.HColumnDescriptor; import org.apache.hadoop.hbase.HTableDescriptor; import org.apache.hadoop.hbase.KeyValue; import org.apache.hadoop.hbase.client.Get; import org.apache.hadoop.hbase.client.HBaseAdmin; import org.apache.hadoop.hbase.client.HTable; import org.apache.hadoop.hbase.client.Put; import org.apache.hadoop.hbase.client.Result; import org.apache.hadoop.hbase.client.ResultScanner; import org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException; import org.apache.hadoop.hbase.client.Scan; public class test { private static final String Table_NAME = "table1"; //表名称 private static final String FAMILY_NAME = "family1"; //列族名称 private static final String ROW_KEY = "rowkey1"; //创建行健 //创建,插入,查询记录,遍历表,删除表 public static void main(String[] args) throws Exception { Configuration conf= HBaseConfiguration.create(); conf.set("hbase.rootdir","hdfs://localhost:9000/hbase"); //设置hbase再hdfs中的目录 conf.set("hbase.zookeeper.quorum", "localhost"); //使用zookeeper来进行定位 //创建删除表使用HBaseAdmin HBaseAdmin hBaseAdmin = new HBaseAdmin(conf); createTable(hBaseAdmin); //创建表 //插入记录,查询一条记录,遍历所有的记录Table final HTable hTable = new HTable(conf, Table_NAME); putRecord(hTable); //插入一条记录 getRecord(hTable); //查询一条记录 scanTable(hTable); //遍历所有的表的记录 hTable.close(); //关闭表 //deleteTable(hBaseAdmin); //删除表 } private static void scanTable(final HTable hTable) throws IOException { Scan scan = new Scan(); final ResultScanner scanner = hTable.getScanner(scan); for (Result result : scanner) { final byte[] value = result.getValue(FAMILY_NAME.getBytes() , "age".getBytes()); System.out.println(result+"\t" + new String(value)); } } private static void getRecord(final HTable hTable) throws IOException { Get get = new Get(ROW_KEY.getBytes()); final Result result = hTable.get(get ); final byte[] value = result.getValue(FAMILY_NAME.getBytes() , "age".getBytes()); System.out.println(result+"\t" + new String(value)); } private static void putRecord(HTable hTable) throws InterruptedIOException, RetriesExhaustedWithDetailsException { Put put = new Put(ROW_KEY.getBytes()); //声明对象 put.add(FAMILY_NAME .getBytes(), "age".getBytes()," 12".getBytes()); //添加记录 hTable.put(put ); //插入 } private static void deleteTable(HBaseAdmin hBaseAdmin) throws IOException { hBaseAdmin.disableTable(Table_NAME); //关闭表 hBaseAdmin.deleteTable(Table_NAME); //删除表 } private static void createTable(HBaseAdmin hBaseAdmin) throws IOException { if (!hBaseAdmin.tableExists(Table_NAME)){ HTableDescriptor tableDescriptor = new HTableDescriptor(Table_NAME); //声明一个表 HColumnDescriptor family = new HColumnDescriptor(FAMILY_NAME); //声明一个列族 tableDescriptor.addFamily(family ); //添加列族 hBaseAdmin.createTable(tableDescriptor ); //创建表 } } }

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
hadoop(1):centos 安装 hadoop & hive
1,关于hive Hive是一个基于Hadoop的数据仓库平台。通过hive,我们可以方便地进行ETL的工作。hive定义了一个类似于SQL的查询语言:HQL,能 够将用户编写的QL转化为相应的Mapreduce程序基于Hadoop执行。 Hive是Facebook 2008年8月刚开源的一个数据仓库框架,其系统目标与 Pig 有相似之处,但它有一些Pig目前还不支持的机制,比如:更丰富的类型系统、更类似SQL的查询语言、Table/Partition元数据的持久化等。 本文的原文连接是: http://blog.csdn.net/freewebsys/article/details/47617975 未经博主允许不得转载。 网站首页: http://hive.apache.org/ 2,安装 首先要安装hadoop https://hadoop.apache.org/ 直接下载tar.gz解压缩。最新版本2.7.1。 tar -zxvf hadoop-2.7.1.tar.gz mv hadoop-2.7.1 hadoop 下载地址: http://hive.apache.org/do...
- 下一篇
hadoop(2): 安装&使用 sqoop
本文的原文连接是: http://blog.csdn.net/freewebsys/article/details/47722393 未经博主允许不得转载。 1,关于sqoop Sqoop是一个用来将Hadoop和关系型数据库中的数据相互转移的工具,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导入到Hadoop的HDFS中,也可以将HDFS的数据导入到关系型数据库中。 官网:http://sqoop.apache.org/ 一个1.4.6 版本,一个是1.99版本(开发版还没有迁移完成,生产环境不推荐) 文档: http://sqoop.apache.org/docs/1.4.6/ 2,安装 参考之前的文章hadoop和hive用的是2.0,所以sqoop这里也用2.0,不过是alpha。直接解压缩。 配置环境变量 export JAVA_HOME=/usr/java/default export CLASS_PATH=$JAVA_HOME/lib export PATH=$JAVA_HOME/bin:$PATH export HADOO...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS7安装Docker,走上虚拟化容器引擎之路
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- Windows10,CentOS7,CentOS8安装Nodejs环境
- CentOS7,8上快速安装Gitea,搭建Git服务器
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- CentOS6,CentOS7官方镜像安装Oracle11G
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- Docker安装Oracle12C,快速搭建Oracle学习环境
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果