在搭建Hadoop 分布式集群的时候,多次格式化文件系统,启动hdfs,yarn,后jps 发现datanode为启动

可以参考:https://www.cnblogs.com/dxwhut/p/5679501.html

https://blog.csdn.net/baidu_15113429/article/details/53739734

https://www.cnblogs.com/lishpei/p/6136043.html

一、问题描述

       当我多次格式化文件系统时,如

              [hadoop@xsh hadoop]$ ./bin/hdfs namenode -format

     会出现datanode无法启动,查看日志(/usr/local/hadoop/logs/hadoop-hadoop-datanode-xsh.log),发现错误为:

        

2016-07-17 21:22:14,616 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool <registering> (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000. Exiting.
java.io.IOException: Incompatible clusterIDs in /usr/local/hadoop/tmp/dfs/data: namenode clusterID = CID-fd069c99-8004-47e1-9f67-a619bf4e9b60; datanode clusterID = CID-9a628355-6954-473b-a66c-d34d7c2b3805

二、问题产生原因

         当我们执行文件系统格式化时,会在namenode数据文件夹(即配置文件中dfs.namenode.name.dir在本地系统的路径)中保存一个current/VERSION文件,记录clusterID,标识了所格式化的 namenode的版本。如果我们频繁的格式化namenode,那么datanode中保存(即配置文件中dfs.data.dir在本地系统的路径)的current/VERSION文件只是你第一次格式化时保存的namenode的ID,因此就会造成datanode与namenode之间的id不一致。

扫描二维码关注公众号,回复: 4546777 查看本文章

(以下两个配置文件:./etc/hadoop/core-site.xml  hdfs.site.xml中有存放路径,仅供参考!http://dblab.xmu.edu.cn/blog/install-hadoop-in-centos/)

三、解决办法

      把配置文件中dfs.datanode.data.dir在本地系统的路径下的current/VERSION中的clusterID改为与namenode一样。重启即可!

(还有一种办法是删除dfs文件夹,http://dblab.xmu.edu.cn/blog/818-2/,http://dblab.xmu.edu.cn/blog/install-hadoop/)

猜你喜欢

转载自blog.csdn.net/zhen_6137/article/details/82658674