【原创】hadoop集群删除datanode
192.168.5.56
dfs.hosts.exclude
/root/hadoop/conf/excludes
true
3、然后在namenode节点执行如下命令,也就是让namenode重新读取配置文件。不需要重启集群。
4、查看集群状态:
Configured Capacity: 128672038912 (119.84 GB)
Present Capacity: 73672425472 (68.61 GB)
DFS Remaining: 73434574848 (68.39 GB)
DFS Used: 237850624 (226.83 MB)
DFS Used%: 0.32%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
Datanodes available: 3 (3 total, 0 dead)
Decommission Status : Normal
Configured Capacity: 67481608192 (62.85 GB)
DFS Used: 118906880 (113.4 MB)
Non DFS Used: 26367545344 (24.56 GB)
DFS Remaining: 40995155968(38.18 GB)
DFS Used%: 0.18%
DFS Remaining%: 60.75%
Last contact: Fri Jun 29 16:58:06 CST 2012
Name: 192.168.5.58:50010
Decommission Status : Normal
Configured Capacity: 31704776704 (29.53 GB)
DFS Used: 118906880 (113.4 MB)
Non DFS Used: 16464519168 (15.33 GB)
DFS Remaining: 15121350656(14.08 GB)
DFS Used%: 0.38%
DFS Remaining%: 47.69%
Last contact: Fri Jun 29 16:58:05 CST 2012
Name: 192.168.5.56:50010
Decommission Status : Decommission in progress
Configured Capacity: 29485654016 (27.46 GB)
DFS Used: 36864 (36 KB)
Non DFS Used: 12167548928 (11.33 GB)
DFS Remaining: 17318068224(16.13 GB)
DFS Used%: 0%
DFS Remaining%: 58.73%
Last contact: Fri Jun 29 16:58:05 CST 2012
Decommission Status : Decommissioned
Configured Capacity: 0 (0 KB)
DFS Used: 0 (0 KB)
Non DFS Used: 0 (0 KB)
DFS Remaining: 0(0 KB)
DFS Used%: 100%
DFS Remaining%: 0%
Last contact: Thu Jan 01 08:00:00 CST 1970
再查看网页被移除的节点就查看不到了(这我就懒得截图了),这样基本就完成了按正规流程移除集群中的datanode。下面介绍机器修好了,我要怎么加入到集群中来。
starting tasktracker, logging to /root/hadoop/bin/../logs/hadoop-root-tasktracker-slave1.out
17528 TaskTracker
17571 Jps
2、这个时候我们不能直接启动datanode进程,我们可以试试看:
starting datanode, logging to /root/hadoop/bin/../logs/hadoop-root-datanode-slave1.out
[root@slave1 ~]# jps
17528 TaskTracker
17811 Jps
17761 DataNode
[root@slave1 ~]# jps =====> datanode进程直接马上消失。可以查看日志为什么?
17829 Jps
17528 TaskTracker
4、再执行重载namenode的配置文件
5、最后去启动datanode上的datanode进程
starting datanode, logging to /root/hadoop/bin/../logs/hadoop-root-datanode-slave1.out
[root@slave1 ~]# jps
17931 Jps
17528 TaskTracker
17878 DataNode
[root@slave1 ~]# jps ====>正常了!
17528 TaskTracker
17878 DataNode
17953 Jps
下一篇介绍如下添加新的datanode到hadoop集群中。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
【原创】hbase+zookeeper集群搭建
继上一篇的hadoop集群搭建的基础上,再把hbase和zookeeper(独立部署,不用hbase自带的。因为测试中发现自带的zookeeper挂了一个以后,数据抛出异常)搭建说一下吧! hbase版本:0.92.1.tar.gz,在hadoop1上部署master和slave,在其余的节点上部署slave,这样就形成了一个hbase集群。 zookeeper版本:3.3.5.tar.gz,在hadoop2、hadoop3、hadoop4上部署zookeeper。 主机名 IP地址 用途 hadoop1192.168.3.65 master、regionserver hadoop2192.168.3.66 regionserver、zookeeper hadoop3192.168.3.67 regionserver、zookeeper hadoop4 192.168.3.64regionserver、zookeeper 下载hbase和zookeeper源码包,也将其放到/root目录下即可! 链接:http://labs.renren.com/apache-mirror/hbase...
- 下一篇
【原创】hadoop集群增加datanode
目前环境说明: 主机名 IP地址 用途 hadoop1 192.168.3.65 namenode、jobtracker hadoop2 192.168.3.66datanode、tasktracker hadoop3192.168.3.67datanode、tasktracker、secondarynamenode hadoop4 192.168.3.64 datanode、tasktracker 要求准备新增一台datanode节点到集群中,机器信息如下: 主机名 IP地址 用途 stat.localdomain 172.16.7.164 datanode 部署前提条件: 新增的datanode节点务必能和集群中的每个节点互相ping通!这个属于网络的问题就不多讨论了! 1、新增的datanode节点的hosts文件增加如下内容: 192.168.5.54 master 2、从hadoop1节点拷贝id_rsa.pub并重命名为authorized_keys [root@stat .ssh]# scp 192.168.3.65:/root/.ssh/id_rsa.pub autho...
相关文章
文章评论
共有0条评论来说两句吧...