启动hadoop集群

1.配置core-site.xml(每个节点上都要配置)
  路径:
    /usr/local/hadoop-2.7.3/etc/hadoop/core-site.xml
  作用:
    告诉所有机器master的相关信息
  配置项:
    name: fs.defaultFS
    vale: hdfs://master的地址:端口
  例如:
    <property>
      <name>fs.defaultFS</name>
      <value>hdfs://192.168.0.104:9000</value>
    </property>

2.配置hosts文件(每个节点上都要配置)
  路径:
    /etc/hosts
  作用:
    告诉集群中每个节点彼此的名字和ip地址
  配置项:
    ip hostname
  例如:
    192.168.0.104 master
    192.168.0.105 slave1
    192.168.0.107 slave2
  如果不配置在启动node的时候会报类似于:java.net.UnknownHostException: master: master: unknown error
3.在master上启动namenode
  格式化namenode
    命令:hdfs namenode -format
    地址:/tmp/hadoop-root/dfs/name
  启动namenode
    命令:hadoop-daemon.sh start namenode
    日志记录在:/usr/local/hadoop-2.7.3/logs/hadoop-root-namenode-master.out
  验证:jps
4.在所有slave上启动datanode
  命令:hadoop-daemon.sh start datanode
  验证:jps

猜你喜欢

转载自www.cnblogs.com/413xiaol/p/9938405.html