hadoop 1.1.2和 hive 0.10 和hbase 0.94.9整合
今天弄了一下hive0.10和hbase0.94.9整合,需要设置的并不多,但是也遇到了一些问题。
1.复制jar包
拷贝hbase-0.94.9.jar,zookeeper-3.4.5.jar,protobuf-java-2.4.0a.jar到hive/lib下,删掉lib下面旧版的jar包。
拷贝hbase-0.94.9.jar到所有hadoop节点的lib文件夹下面,拷贝hbase/confi的hbase-site.xml文件拷贝到所有的hadoop节点conf文件夹下。
2.修改hive-site.xml配置文件,添加以下内容
<property> <name>hive.querylog.location</name> <value>/usr/hive/logs</value> </property> <property> <name>hive.aux.jars.path</name> <value>file:///usr/hive/lib/hive-hbase-handler-0.10.0.jar,file:///usr/hive/lib/hbase-0.94.9.jar,file:///usr/hive/lib/zookeeper-3.4.5.jar,file:///usr/hive/lib/protobuf-java-2.4.0a.jar</value> </property>
3.启动hive
hive -hiveconf hbase.zookeeper.quorum=node1,node2,node3
实际上只需要填一个即可,我只填了一个。
4.开始测试,建一个表试验。
CREATE TABLE hbase_table1(key int, value1 string, value2 int, value3 int) STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' WITH SERDEPROPERTIES ( "hbase.columns.mapping" = ":key,cf1:value1,cf1:value2,cf2:value3" )TBLPROPERTIES("hbase.table.name" = "table1");
TBLPROPERTIES参数是可选的,如果不写的话,就默认是hive和hbase中的表名称一致。
5.打开hbase看看,使用describe “table1”来查询一下,发一个我真实建立的表吧。
hbase(main):001:0> describe "wdp" DESCRIPTION ENABLED 'wdp', { NAME => 'cf', DATA_BLOCK_ENCODING => 'NONE' true , BLOOMFILTER => 'NONE', REPLICATION_SCOPE => '0', VERSIONS => '3', COMPRESSION => 'NONE', MIN_VERSION S => '0', TTL => '2147483647', KEEP_DELETED_CELLS = > 'false', BLOCKSIZE => '65536', IN_MEMORY => 'fals e', ENCODE_ON_DISK => 'true', BLOCKCACHE => 'true' } row(s) in 1.1980 seconds hbase(main):002:0>
好了,就这样啦,我还没插入数据测试呢,就先这样吧。
最后发一个它官方的文档地址,想了解更多的到这个网站上面看看
https://cwiki.apache.org/confluence/display/Hive/HBaseIntegration

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
hive thrift 开机启动
这个问题困扰我很久,之前redis的时候,也出现了这个问题,从网上找的thrift脚本没有一个好使的,最后通过修改/etc/rc.d/rc.local来执行一些非服务的命令,这样子就不需要像写服务那样写start,stop方法啦,不过修改这个配置文件要小心,命令里面不要包含阻塞式的命令,否则开机进不了界面,就悲剧了,我就这样玩挂了一次系统。 经过一顿挣扎之后,终于找到解决的方法了。 su - cenyuhai -c "hive --service hiveserver &"上面的这句命令的意思是用账号cenyuhai来执行 "hive --service hiverserver" 这个命令, 命令结束后的&意思是在后台运行,则该命令不会阻塞系统,否则就悲剧了,发生进不去系统的问题。 分享结束,收工!
- 下一篇
storm如何部署拓扑
storm集群搭建 比较简单,参考官方文档即可http://storm.apache.org/releases/1.0.2/Setting-up-a-Storm-cluster.html 启动Nimbus ./bin/storm nimbus & 启动Storm UI,方便对集群状态的监控。 ./bin/storm ui & 启动supervisor ./bin/storm supervisor & 更新git代码 git pull --rebase maven命令打包,xxx-0.0.1-SNAPSHOT.jar mvn package 提交拓扑 上传jar包并部署到Nimbus主机,并执行如下命令, ./bin/storm jar myTopology/xxx-0.0.1-SNAPSHOT.jar com.oplan.storm.topology.InsightTopology 201609071857 查看监控图, 在Topology Summary栏目下能看到刚刚部署的拓扑的状态,Supervisor Summary则是supervisor的状态。 可以...
相关文章
文章评论
共有0条评论来说两句吧...