Hadoop下的connect refused问题

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/roczheng1990/article/details/83240683

Hadoop下的connect refused问题

问题产生原因:

假设hadoop正常运行中出现这个问题,那有可能在重启hadoop的过程中,hadoop集群出现了异常。

解决方法:

这个时候jps会发现,有得机器上的服务启动不全,

正常情况下应该是下图中的服务:

这是master节点的服务

这两幅图是slaves节点的服务:

查看日志:

cat hadoop-spark-datanode-kafka05.log

这个cluster ID 不一致 出现了问题

这时候要修改配置文件:

修改这个ID使得集群中保持一致。

重启hadoop服务就OK了。现在 hdfs、hive服务都正常了。

猜你喜欢

转载自blog.csdn.net/roczheng1990/article/details/83240683