设计HBase RowKey需要注意的二三事
在HBase中,定位一条数据(即一个Cell)需要4个维度的限定:行键(RowKey)、列族(Column Family)、列限定符(Column Qualifier)、时间戳(Timestamp)。其中,RowKey是最容易出现问题的。除了根据业务和查询需求来设计之外,还需要注意以下三点。
- 打散RowKey
HBase中的行是按照RowKey字典序排序的。
这对Scan操作非常友好,因为RowKey相近的行总是存储在相近的位置,顺序读的效率比随机读要高。
但是,如果大量的读写操作总是集中在某个RowKey范围,那么就会造成Region热点,拖累RegionServer的性能。
因此,要适当地将RowKey打散。
加盐(salting)+哈希(hashing)
这里的“加盐”与密码学中的“加盐”不是一回事。
它是指在RowKey的前面增加一些前缀。
加盐的前缀种类越多,RowKey就被打得越散。
前缀不可以是随机的,因为必须要让客户端能够完整地重构RowKey。
我们一般会拿原RowKey或其一部分计算hash值,然后再对hash值做运算作为前缀。
反转固定格式的数值
以手机号为例,手机号的前缀变化比较少(如152、185等),但后半部分变化很多。
如果将它反转过来,可以有效地避免热点。
不过其缺点就是失去了有序性。
反转时间
这个操作严格来讲不算“打散”,但可以调整数据的时间排序。
如果将时间按照字典序排列,最近产生的数据会排在旧数据后面。
如果用一个大值减去时间(比如用99999999减去yyyyMMdd,或者Long.MAX_VALUE减去时间戳),最新的数据就可以排在前面了。
- 控制RowKey长度
在HBase中,RowKey、列族、列名等都是以byte[]形式传输的。
RowKey的最大长度限制为64KB,但在实际应用中最多不会超过100B。
设计短RowKey有以下两方面考虑:
在HBase的底层存储HFile中,RowKey是KeyValue结构中的一个域。假设RowKey长度100B,那么1000万条数据中,只算RowKey就占用掉将近1G空间,会影响HFile的存储效率。
HBase中设计有MemStore和BlockCache,分别对应列族/Store级别的写入缓存,和RegionServer级别的读取缓存。如果RowKey过长,缓存中存储数据的密度就会降低,影响数据落地或查询效率。
另外,我们目前使用的服务器操作系统都是64位系统,内存是按照8B对齐的,因此设计RowKey时一般做成8B的整数倍,如16B或者24B,可以提高寻址效率。
同样地,列族、列名的命名在保证可读的情况下也应尽量短。HBase官方不推荐使用3个以上列族,因此实际上列族命名几乎都用一个字母,比如‘c’或‘f’。
- 保证RowKey唯一性
这个就是显而易见的了,不再赘述。
举个例子
我们的业务中,有一部分是用户在日历上记录自己的行为。需要储存在RowKey中的维度有:用户ID(uid,不会超过十亿)、日历上的日期(date,yyyyMMdd格式)、记录行为的类型(type,0~99之间)。记录的详细数据则存储在列f:data中。根据查询逻辑,我们设计的RowKey格式如下:
9~79809782~05~0008839540
长度正好是24B。以字符‘~’为分界(‘~’的ASCII码是最大的,方便),各个部分的含义如下:
uid.toString().hashCode() % 10
99999999 - date
StringUtils.leftPad(type, 2, "0")
StringUtils.leftPad(uid, 10, "0")
基于这种设计,我们在建表阶段就可以将其预分区,使得数据在一开始就均匀分布在不同的Region上。建表语句参考:
create 'user_calendar_record', {
NAME => 'f',
VERSIONS => '1',
BLOCKCACHE => 'true',
BLOCKSIZE => '65536',
BLOOMFILTER => 'row',
COMPRESSION => 'SNAPPY'
}, {
SPLITS => ['1', '2', '3', '4', '5', '6', '7', '8', '9']
}
如果不做预分区,那么表刚开始只会有一个Region。随着数据量增大,就会频繁触发Region split,影响效率。关于Region split应该另外写文章讨论,这里就不提了。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Flink常见异常和错误信息小结
Flink的常见异常众多,不可能面面俱到,所以想到哪儿写到哪儿,有漏掉的之后再补充。部署和资源问题 (0) JDK版本过低这不是个显式错误,但是JDK版本过低很有可能会导致Flink作业出现各种莫名其妙的问题,因此在生产环境中建议采用JDK 8的较高update(我们使用的是181)。 (1) Could not build the program from JAR file该信息不甚准确,因为绝大多数情况下都不是JAR包本身有毛病,而是在作业提交过程中出现异常退出了。因此需要查看本次提交产生的客户端日志(默认位于$FLINK_HOME/logs目录下),再根据其中的信息定位并解决问题。 (2) ClassNotFoundException/NoSuchMethodError/IncompatibleClassChangeError/...一般都是因为用户依赖第三方包的版本与Flink框架依赖的版本有冲突导致。 (3) Deployment took more than 60 seconds. Please check if the requested resources are av...
- 下一篇
阿里云祝顺民(江鹤):一群阿里人如何用 10 年自研洛神云网络平台?技术架构演进全揭秘!(转载自CSND)
今天的主题是《云网络技术架构的演进之路》,主要介绍阿里云网络产品从无到规模应用的 10 年过程中,云网络技术平台洛神是怎么发展的。 阿里云飞天洛神云网络平台 阿里云系统叫飞天,云网络平台称为洛神,洛神和飞天系统的关系如下图所示,洛神云网络平台是阿里云飞天操作系统内核的核心组件和系统服务,伴随着飞天系统一起诞生、成长。图 1 阿里云网络洛神平台与飞天操作系统 整个飞天系统架构分为几个层次,底层数据中心基础设施,包含物理资源、机房、服务器,还有多地域和可用区(AZ)、物理网络等;其上是飞天操作系统的核心,支撑了整个云计算的虚拟化,包括计算平台神龙,存储平台盘古,以及网络平台洛神;基于系统核心组件,构建了面向用户的系统服务以及原生服务,支撑不同行业客户在阿里云上构建自己的应用系统。 飞天洛神平台的诞生 洛神伴随飞天系统诞生,是云计算产业发展的结果
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Linux系统CentOS6、CentOS7手动修改IP地址
- CentOS关闭SELinux安全模块
- CentOS8安装Docker,最新的服务器搭配容器使用
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- Hadoop3单机部署,实现最简伪集群
- SpringBoot2初体验,简单认识spring boot2并且搭建基础工程
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- Windows10,CentOS7,CentOS8安装Nodejs环境
- 设置Eclipse缩进为4个空格,增强代码规范