hadoop启动问题分析

hadoop的安装和启动很简单直接解压进行安装 配置文件就好了,但是启动问题就很多,总结下无非以下两点:

第一点:无论你是群起还是单起;都首要格式化   bin/hdfs namenode -format; 格式化之前首要的任务就是在hadoop2.7.2目录下删除data 和 logs两个文件不然肯定重新启动失败;

rm -rf  /logs /data # 在hadoop的根目录下 如果不是第一次启动 一定要注意这个问题

第二点:如果你的Namenode和ResourceManager不是说在同一个机器上安装,应该在ResourceManager所在的机器上启动yarn

sbin/start-dfs.sh
sbin/start-yarn.sh  # 如果你将NameNode和ResouceManager配置在不同的机器上,一定要在对应的机器上启动你的hdfs和yarn

 第三点:关闭你的虚拟机时候,记得要关掉hdfs和的你的yarn,保证下次出现不必要的麻烦

sbin/stop-dfs.sh
sbin/stop-yarn.sh

我的在虚拟机中配置如下: 

猜你喜欢

转载自www.cnblogs.com/alexzhang92/p/10627748.html
今日推荐