以下是安装hadoop-2.2.0时的在配置文件中的修改,本着最简单的原则,只修改了一些必要的配置,而且我个人觉得某些教程上的修改也没有必要,The default may be the best。
OK,共修改了$HADOOP_HOME/etc/hadoop下的6个文件:
hadoop-env.sh , core-site.xml , hdfs-site.xml , mapred-site.xml , yarn-site.xml , slaves
修改后hadoop就可以正常启动了。
hadoop-env.sh
# The java implementation to use.
#export JAVA_HOME=${JAVA_HOME} 这个地方如果echo输出没问题,但是要改啊
export JAVA_HOME=/usr/local/jdk
core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value> <!-- master是我的主节点名称 -->
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/master/hdfs/hadoop_tmp</value>
<description>A base for other temporary directories.</description>
</property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/home/hadoop/dfs/data</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:9001</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>
mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
slaves (这个文件填写所有的数据节点的主机名)
localhost
slave2
slave3
本人新手,欢迎大家指正。