【原创】hbase+zookeeper集群搭建
链接:http://labs.renren.com/apache-mirror/hbase/
[root@hadoop1 ~] # cp -r hbase-0.92.1 hbase
在/root/hbase/conf目录下的hbase-env.sh中添加Hbase需要的环境变量。如下:
下面第四行注意这个值为false时,表示启动的是独立的zookeeper。而配置成true则是hbase自带的zookeeper。
export JAVA_HOME=/usr/java/jdk1.6.0_14
export HBASE_HOME=/root/hbase
export PATH=$PATH:/root/hbase/bin
export HBASE_MANAGES_ZK=false
export HADOOP_HOME=/root/hadoop
修改hbase-site.xml文件
注意hbase.rootdir必须和你的namenode里面的hdfs的主机名和端口一样
hbase.rootdir
hdfs://hadoop1:9000/hbase
hbase.cluster.distributed
true
hbase.zookeeper.quorum
hadoop2,hadoop3,hadoop4
hbase.zookeeper.sission.timeout
60000
hbase.zookeeper.property.clientPort
2222
hbase.master
hadoop1
hbase.regionserver.lease.period
60000
hbase.rpc.timeout
60000
修改regionservers文件
通常部署master的机器上不就部署slave了,我这里情况比较特殊。
hadoop1
hadoop2
hadoop3
hadoop4
修改hbase-default.xml文件
注意只修改hbase.rootdir这项,文件位置:/root/hbase/src/main/resources目录下
hbase.rootdir
hdfs://hadoop1:9000/hbase
注意事项:如果你的版本和我不一样,hbase启动后查看表失败,可以将hadoop的jar拷贝至hbase的lib目录下,这一步很关键!我这个版本不需要拷贝!
做完上述操作后,可以将hadoop1上的hbase目录拷贝到hadoop2、hadoop3、hadoop4三台就机器上,注意保证目录结构一致。(步骤略)
单独部署zookeeper
下载相应的版本后上传到hadoop2机器的/root目录下即可!
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
dataDir=/root/zookeeper/zookeeper-data
# the port at which the clients will connect
clientPort=2222
server.1=hadoop2:2888:3888
server.2=hadoop3:2888:3888
server.3=hadoop4:2888:3888
JMX enabled by default
Using config: /root/zookeeper/bin/../conf/zoo.cfg
Mode: leader
JMX enabled by default
Using config: /root/zookeeper/bin/../conf/zoo.cfg
Mode: follower
[root@hadoop2 ~]# zookeeper/bin/zkServer.sh status
JMX enabled by default
Using config: /root/zookeeper/bin/../conf/zoo.cfg
Mode: follower
imok
imok
imok

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
【原创】hadoop集群搭建
首先确定hdfs分布式文件系统目前很多大公司都在用,例如百度、腾讯、淘宝等。相信网上也有很多关于这方面的文档,我写这篇文章只是为了自己更加深刻的学习和理解,或者帮助一些不会搭建的童鞋们!以前我搭建的是hadoop-0.20.2、hbase-0.90.4、hbase自带的zookeeper,但是经过与开发测试后,用了hadoop-1.0.3、hbase-0.92.1和独立部署的zookeeper-3.3.5版本替代上述版本。下面开始配置分布式集群。 前期准备工作,大致分为以下几步: 1)安装jdk并检查是否正常。 2)每台几点上实现无密码认证及检查是否正常。 3)安装hadoop并配置,检查是否正常。 本次环境一共用了四台服务器,操作系统均使用RedHat4.8版本、JAVA使用的是版本是jdk1.6.0_14,当然你可以找适合自己的版本,但是务必是1.6以上。 主机名 IP地址 用途 hadoop1192.168.3.65 namenode、jobtracker hadoop2 192.168.3.66 datanode、tasktracker hadoop3 192.168.3.67...
- 下一篇
【原创】hadoop集群删除datanode
环境说明: 主机名 IP地址 用途 master 192.168.5.54 namenode、jobtracker slave1 192.168.5.56datanode、tasktracker slave2192.168.5.57datanode、tasktracker slave3 192.168.5.58 datanode、secondarynamenode、tasktracker 平常我们管理的hadoop集群中的datanode节点意外宕机属于正常现象,但是当我们在平常的巡检中发现机器硬件故障需要停机维修的话,则需要按照规范的流程去把集群中的节点踢除,当然你也可以完全把进程都kill掉,我这里只介绍如何规范的将需要停机的datanode节点踢除集群。 加入slave1机器出现了硬件问题,我需要停机维护的话,则要先踢除集群。操作方法如下: 1、在namenode节点的hadoop部署目录下的conf目录下新建一个excludes文件。(我这里目录就是/root/hadoop/conf),内容如下: touch /root/hadoop/conf/excludes 我这里只踢除一...
相关文章
文章评论
共有0条评论来说两句吧...