HBase的JAVA API操作详解
Alt+/ 代码助手完成一些代码的插入,自动显示提示信息
Alt+↓ 当前行和下面一行交互位置(特别实用,可以省去先剪切,再粘贴了)
Alt+↑ 当前行和上面一行交互位置(同上)
Alt+← 前一个编辑的页面
Alt+→ 下一个编辑的页面(当然是针对上面那条来说了)
Alt+Shift+M 抽取方法
Alt+Shift+L 抽取本地变量
Ctrl+1 快速修复
一:API介绍
package Hbase;
import java.io.IOException;
import java.io.InterruptedIOException;
import java.util.List;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HColumnDescriptor;
import org.apache.hadoop.hbase.HTableDescriptor;
import org.apache.hadoop.hbase.KeyValue;
import org.apache.hadoop.hbase.client.Get;
import org.apache.hadoop.hbase.client.HBaseAdmin;
import org.apache.hadoop.hbase.client.HTable;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.client.ResultScanner;
import org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException;
import org.apache.hadoop.hbase.client.Scan;
public class test {
private static final String Table_NAME = "table1"; //表名称
private static final String FAMILY_NAME = "family1"; //列族名称
private static final String ROW_KEY = "rowkey1"; //创建行健
//创建,插入,查询记录,遍历表,删除表
public static void main(String[] args) throws Exception {
Configuration conf= HBaseConfiguration.create();
conf.set("hbase.rootdir","hdfs://localhost:9000/hbase"); //设置hbase再hdfs中的目录
conf.set("hbase.zookeeper.quorum", "localhost"); //使用zookeeper来进行定位
//创建删除表使用HBaseAdmin
HBaseAdmin hBaseAdmin = new HBaseAdmin(conf);
createTable(hBaseAdmin); //创建表
//插入记录,查询一条记录,遍历所有的记录Table
final HTable hTable = new HTable(conf, Table_NAME);
putRecord(hTable); //插入一条记录
getRecord(hTable); //查询一条记录
scanTable(hTable); //遍历所有的表的记录
hTable.close(); //关闭表
//deleteTable(hBaseAdmin); //删除表
}
private static void scanTable(final HTable hTable) throws IOException {
Scan scan = new Scan();
final ResultScanner scanner = hTable.getScanner(scan);
for (Result result : scanner) {
final byte[] value = result.getValue(FAMILY_NAME.getBytes() , "age".getBytes());
System.out.println(result+"\t" + new String(value));
}
}
private static void getRecord(final HTable hTable) throws IOException {
Get get = new Get(ROW_KEY.getBytes());
final Result result = hTable.get(get );
final byte[] value = result.getValue(FAMILY_NAME.getBytes() , "age".getBytes());
System.out.println(result+"\t" + new String(value));
}
private static void putRecord(HTable hTable) throws InterruptedIOException,
RetriesExhaustedWithDetailsException {
Put put = new Put(ROW_KEY.getBytes()); //声明对象
put.add(FAMILY_NAME .getBytes(), "age".getBytes()," 12".getBytes()); //添加记录
hTable.put(put ); //插入
}
private static void deleteTable(HBaseAdmin hBaseAdmin) throws IOException {
hBaseAdmin.disableTable(Table_NAME); //关闭表
hBaseAdmin.deleteTable(Table_NAME); //删除表
}
private static void createTable(HBaseAdmin hBaseAdmin) throws IOException {
if (!hBaseAdmin.tableExists(Table_NAME)){
HTableDescriptor tableDescriptor = new HTableDescriptor(Table_NAME); //声明一个表
HColumnDescriptor family = new HColumnDescriptor(FAMILY_NAME); //声明一个列族
tableDescriptor.addFamily(family ); //添加列族
hBaseAdmin.createTable(tableDescriptor ); //创建表
}
}
}
关注公众号
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
hadoop(1):centos 安装 hadoop & hive
1,关于hive Hive是一个基于Hadoop的数据仓库平台。通过hive,我们可以方便地进行ETL的工作。hive定义了一个类似于SQL的查询语言:HQL,能 够将用户编写的QL转化为相应的Mapreduce程序基于Hadoop执行。 Hive是Facebook 2008年8月刚开源的一个数据仓库框架,其系统目标与 Pig 有相似之处,但它有一些Pig目前还不支持的机制,比如:更丰富的类型系统、更类似SQL的查询语言、Table/Partition元数据的持久化等。 本文的原文连接是: http://blog.csdn.net/freewebsys/article/details/47617975 未经博主允许不得转载。 网站首页: http://hive.apache.org/ 2,安装 首先要安装hadoop https://hadoop.apache.org/ 直接下载tar.gz解压缩。最新版本2.7.1。 tar -zxvf hadoop-2.7.1.tar.gz mv hadoop-2.7.1 hadoop 下载地址: http://hive.apache.org/do...
-
下一篇
hadoop(2): 安装&使用 sqoop
本文的原文连接是: http://blog.csdn.net/freewebsys/article/details/47722393 未经博主允许不得转载。 1,关于sqoop Sqoop是一个用来将Hadoop和关系型数据库中的数据相互转移的工具,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导入到Hadoop的HDFS中,也可以将HDFS的数据导入到关系型数据库中。 官网:http://sqoop.apache.org/ 一个1.4.6 版本,一个是1.99版本(开发版还没有迁移完成,生产环境不推荐) 文档: http://sqoop.apache.org/docs/1.4.6/ 2,安装 参考之前的文章hadoop和hive用的是2.0,所以sqoop这里也用2.0,不过是alpha。直接解压缩。 配置环境变量 export JAVA_HOME=/usr/java/default export CLASS_PATH=$JAVA_HOME/lib export PATH=$JAVA_HOME/bin:$PATH export HADOO...
相关文章
文章评论
共有0条评论来说两句吧...

微信收款码
支付宝收款码