Hadoop 启动时,服务器上启动起来了两个 DataNode

Hadoop 里面配置完全分布式运行模式,群起集群时配置 slaves 注意事项:

/opt/module/hadoop-2.7.2/etc/hadoop/slaves

[atguigu@hadoop102 hadoop]$ vi slaves

在该文件中增加如下内容:

hadoop102
hadoop103
hadoop104

注意:该文件中添加的内容结尾不允许有空格,文件中不允许有空行。

错误的配置:

192.168.19.102 hadoop102
192.168.19.103 hadoop103
192.168.19.104 hadoop104

 这样配置的后果就是,在启动的时候每个服务器都会启动两个 DataNode 。

分析:

这个脚本是被  sbin/start-dfs.sh 调用。

[atguigu@hadoop104 hadoop-2.7.2]$ vim sbin/start-dfs.sh 
[atguigu@hadoop104 hadoop-2.7.2]$ 
...............省略.....................

#---------------------------------------------------------
# datanodes (using default slaves file)

if [ -n "$HADOOP_SECURE_DN_USER" ]; then
  echo \
    "Attempting to start secure cluster, skipping datanodes. " \
    "Run start-secure-dns.sh as root to complete startup."
else
  "$HADOOP_PREFIX/sbin/hadoop-daemons.sh" \
    --config "$HADOOP_CONF_DIR" \
    --script "$bin/hdfs" start datanode $dataStartOpt
fi

#---------------------------------------------------------
...............省略.....................

上面文件说明:在启动 datanodes 调用的是 slaves  文件。系统通过遍历 slaves  来启动 DataNode ,所以会启动两次。

猜你喜欢

转载自blog.csdn.net/qq_40794973/article/details/86686817