您现在的位置是:首页 > 文章详情

hadoop错误总结

日期:2015-02-07点击:590
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq1010885678/article/details/43636223
1.hadoop3: mkdir: cannot create directory `/usr/local/hadoop/bin/../logs': Permission denied
把所有Datanode节点执行下面命令

[hadoop@hadoop3 local]$ chown -R  hadoop:hadoop  hadoop-0.20.2/


2.

FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for block pool Block pool BP-1257313099-10.10.208.38-1394679083528 (storage id DS-743638901-127.0.0.1-50010-1394616048958) service to Linux-hadoop-38/10.10.208.38:9000
java.io.IOException: Incompatible clusterIDs in /usr/local/hadoop/tmp/dfs/data: namenode clusterID = CID-8e201022-6faa-440a-b61c-290e4ccfb006; datanode clusterID = clustername

在重新格式化hdfs之后,namenode节点的对应路径下的VERSION信息会改变,而datanode的VERSION不会改变,所以出现了不一致

解决办法:

1.删除各个namenode和datanode下的在配置文件中设置的存放hdfs数据的路径

再次重新格式化

2.将namenode下的VERSION中的cluderID拷贝到dataname的VERSION中

重新启动hdfs

原文链接:https://yq.aliyun.com/articles/667838
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章