hadoop2.9.0单节点的安装

版权声明:个人见解,希望大家批评指正。 https://blog.csdn.net/waneyongfu/article/details/78594688
前提条件:创建节点之间的无秘钥访问,安装了jdk。
1、修改hadoop-env.sh
export JAVA_HOME=/usr/elk/jdk1.8.0_131

2、vim etc/hadoop/core-site.xml
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hostname:9000</value>
    </property>
</configuration>

3、etc/hadoop/hdfs-site.xml
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

4、格式化文件系统(注意,该操作不能做多次,容易导致clusterID不一致)
bin/hdfs namenode -format

5、开启 namenode、datanode
sbin/start-dfs.sh

浏览器访问 http://IP:50070 查看 


6、vim etc/hadoop/mapred-site.xml
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

7、vim etc/hadoop/yarn-site.xml
<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

8、开启
sbin/start-yarn.sh

访问:http://IP:8088

猜你喜欢

转载自blog.csdn.net/waneyongfu/article/details/78594688
今日推荐