Spring Boot 整合 HBase
一、HBase 介绍
HBase是一个分布式的、面向列的开源数据库,Hadoop 数据库。搭建基于 Hadoop 和 ZK 。
历史是基于 Google 的 Bigtable 、Google 文件系统等论文。HBase 在Hadoop 之上提供了类似于 Bigtable 的能力。 HBase是Apache的Hadoop项目的子项目。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。另一个不同的是HBase基于列的而不是基于行的模式。
HBase 特性:
大:一个表可以有数十亿行,上百万列, PB级别的水平扩展能力
无模式:每行都有一个可排序的主键和任意多的列,列可以根据需要- - 动态的增加,同一张表中不同的行可以有截然不同的列
稀疏:空列不占用存储空间,表可以很稀疏
可靠性高:系统无单点,容忍任意两台物理节点故障,数据无风险
数据多版本:每个单元中的数据可以有多个版本,默认情况下版本号自动分配,是单元格插入时的时间戳
HBase 适用场景:
海量数据场景,天然支持数据水平扩展,处理 TB 到 PB 数据
写性能突出,轻松打满网卡,增量数据抓取、批处理
源于Hadoop生态,和hadoop生态各个大数据系统天然集成
HBase 运行模式
单机
伪分布式
分布式
实战小提示:如果 DB 数据大,想要同步到 HBase 怎么做?用数据同步工具:DataX、binlog 等
二、HBase 安装
brew 一键安装即可:
brew install hbase
等安装好后,安装目录如下:
/usr/local/Cellar/hbase/1.2.6
/libexec/conf 是目录,在配置目录配置 JDK 环境如下:
vim libexec/conf/hbase-env.sh
配置 JAVA_HOME 到本机的 JDK 安装目录。
然后打开 hbase-site.xml 文件,里面是对应的两个文件目录:
// HBase 存储文件地方 file:///usr/local/var/hbase // ZooKeeper 存储文件地方 /usr/local/var/zookeeper
进入 bin ,里面是运行和关闭的 sh 脚本。 启动 HBase ,简单如下:
sudo ./start-hbase.sh
控制台中出现如下信息,说明启动 HBase 成功:
Java HotSpot(TM) 64-Bit Server VM warning: Option UseConcMarkSweepGC was deprecated in version 9.0 and will likely be removed in a future release. starting master, logging to /usr/local/var/log/hbase/hbase-root-master-BYSocketdeMacBook-Pro-2.local.out Java HotSpot(TM) 64-Bit Server VM warning: Option UseConcMarkSweepGC was deprecated in version 9.0 and will likely be removed in a future release. Java HotSpot(TM) 64-Bit Server VM warning: Ignoring option PermSize; support was removed in 8.0 Java HotSpot(TM) 64-Bit Server VM warning: Ignoring option MaxPermSize; support was removed in 8.0
三、Spring Boot 整合 HBase
在 pom.xml 文件中加入对应的依赖:
<dependency>
<groupId>com.spring4all</groupId>
<artifactId>spring-boot-starter-hbase</artifactId>
<version>${spring-boot-habse}</version>
<exclusions>
<exclusion>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-log4j12</artifactId>
</exclusion>
<exclusion>
<groupId>log4j</groupId>
<artifactId>log4j</artifactId>
</exclusion>
</exclusions>
</dependency>
需要解决日志包依赖冲突,所以排除日志相关依赖包
在 application.properties 添加对应的 HBase 配置:
## HBase 数据源配置 spring.data.hbase.quorum=127.0.0.1:2181 spring.data.hbase.rootDir=/hbase spring.data.hbase.nodeParent=
nodeParent 适用于集群,目前是单机模式,不需要配置。
创建一个 Dto 对象:
public class PeopleDto {
private String name;
private int age;
public String getName() {
return name;
}
public PeopleDto setName(String name) {
this.name = name;
return this;
}
public int getAge() {
return age;
}
public PeopleDto setAge(int age) {
this.age = age;
return this;
}
}
定义该对象的 RowMapper:
import com.jthink.skyeye.data.hbase.api.RowMapper;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.util.Bytes;
public class PeopleRowMapper implements RowMapper<PeopleDto> {
private static byte[] COLUMNFAMILY = "f".getBytes();
private static byte[] NAME = "name".getBytes();
private static byte[] AGE = "age".getBytes();
@Override
public PeopleDto mapRow(Result result, int rowNum) throws Exception {
PeopleDto dto = new PeopleDto();
// TODO: 设置相关的属性值
String name = Bytes.toString(result.getValue(COLUMNFAMILY, NAME));
int age = Bytes.toInt(result.getValue(COLUMNFAMILY, AGE));
return dto.setName(name).setAge(age);
}
}
CRUD 服务层操作:
@Service
public class QueryService {
@Autowired
private HbaseTemplate hbaseTemplate;
public List<PeopleDto> query(String startRow, String stopRow) {
Scan scan = new Scan(Bytes.toBytes(startRow), Bytes.toBytes(stopRow));
scan.setCaching(5000);
List<PeopleDto> dtos = this.hbaseTemplate.find("people_table", scan, new PeopleRowMapper());
return dtos;
}
public PeopleDto query(String row) {
PeopleDto dto = this.hbaseTemplate.get("people_table", row, new PeopleRowMapper());
return dto;
}
public void saveOrUpdates() {
List<Mutation> puts = new ArrayList<>();
// 设值
this.hbaseTemplate.saveOrUpdates("people_table", puts);
}
public void saveOrUpdate() {
Mutation delete = new Delete(Bytes.toBytes(""));
this.hbaseTemplate.saveOrUpdate("people_table", delete);
}
public void saveOrUpdate() {
List<Mutation> saveOrUpdates = new ArrayList<>();
Put put = new Put(Bytes.toBytes("135xxxxxx"));
put.addColumn(Bytes.toBytes("people"), Bytes.toBytes("name"), Bytes.toBytes("JThink"));
saveOrUpdates.add(put);
Delete delete = new Delete(Bytes.toBytes("136xxxxxx"));
saveOrUpdates.add(delete);
// 继续add
this.hbaseTemplate.saveOrUpdates("people_table", saveOrUpdates);
}
}
四、小结
在实践演进中,不可能一下次就用上高大上的 HBase。所以,同步数据这块强烈推荐 DataX。
关注公众号
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
Hadoop Shuffle详解
每个任务最重要的一个过程就Shuffle过程,这个过程会把所有的数据进行洗牌整理,排序,如果数据量大,将会非常的耗时。如图1.1所示,是一个从map端输出数据到合并成一个文件的过程。 图1.1 Map文件输出 从图中可以看到Map端输出的数据会被提交到一个内存缓冲区当中,当内存满了后,会被Spill到HDFS中,当Map任务结束后,会把所有的临时文件合并到一个最终的文件中,作为一个最终的Map输出文件。这个过程涉及到两个过程都有排序操作,第一个是从KVBuffer到文件Spill中,默认通过快速排序算法进行排序。第二个是所有临时文件合并时,此时会有一次多路归并排序的过程,使用归并排序算法。 1 Mapper的输出缓冲区kvbuffer Mapper任务执行完后的数据会通过MapOutputBuffer提交到一个kvbuffer缓冲区中,这个缓冲区的数据是专门存储map端输出数据的,它是一个环形缓冲区,大小可通过配置mapreduce.task.io.sort.mb来配置这个缓冲区的大小,默认是100MB。kvb...
-
下一篇
结构化搜索_在案例中实战使用terms搜索多个值以及多值搜索结果优化
课程大纲 term:{"field":"value"} terms:{"field":["value1","value2"]} sql中的in select*fromtblwherecolin("value1","value2") 1、为帖子数据增加tag字段 POST/forum/article/_bulk {"update":{"_id":"1"}} {"doc":{"tag":["java","hadoop"]}} {"update":{"_id":"2"}} {"doc":{"tag":["java"]}} {"update":{"_id":"3"}} {"doc":{"tag":["hadoop"]}} {"update":{"_id":"4"}} {"doc":{"tag":["java","elasticsearch"]}} 2、搜索articleID为KDKE-B-9947-#kL5或QQPX-R-3956-#aD8的帖子,搜索tag中包含java的帖子 GET/forum/article/_search { "query":{ "constant_score":{ "...
相关文章
文章评论
共有0条评论来说两句吧...

微信收款码
支付宝收款码