Hadoop启动错误--没有datanode or namenode

最近在自学hadoop,处于前期配置阶段,遇到好一些问题,这个问题比较经典,记录一下。

这有可能是因为我每次关闭服务器的时候,没有执行stop-all.sh 命令停止Hadoop。解决方法如下:

(1)首先,运行stop-all.sh

(2)检查masters文件和slaves文件 配置有无出错。

(3)格式化namenode,在这之前,需要先删除原目录,即core-site.xml文件下配置的<name>  dfs.namenode.name.dir</name>所指向的目录:

/usr/local/hadoop/hadoop_data/hdfs/namenode.

(每个人配置的文件名不一样,但是这需要知道这是namenode的文件存储位置) 

删除该目录之后,要重新建立该目录,然后再运行hadoop namenode -format

(4)运行start-all.sh

应该就能行

猜你喜欢

转载自blog.csdn.net/qq_40309183/article/details/80683982