hadoop 单机伪分布式搭建 hadoop-2.5.1

下载 hadoop-2.5.1
http://archive.apache.org/dist/hadoop/core/hadoop-2.5.1/hadoop-2.5.1.tar.gz
创建安装目录:
    mkdir -p /home/hadoop
    解压 tar xzvf hadoop-2.5.1.tar.gz

第一步:
    切换到 hadoop-2.5.1/etc/hadoop
    以下三个文件配置JAVA_HOME  根据自己安装目录来设置; #JAVA_HOME=/usr/java/jdk1.8.0_71
    hadoop-env.sh
    mapred-env.sh
    yarn-env.sh    

第二步:hadoop 配置
    core-site.xml

<property>
	<name>fs.defaultFS</name>
	<value>hdfs://192.168.1.36:8020</value>
</property>
<property>
	<name>hadoop.tmp.dir</name>
	<value>/opt/data/tmp</value>
</property>

hdfs-site.xml

<property>
       <name>dfs.replication</name>
       <value>1</value>
       <description>存储时备份数量,伪分布式,所以1</description>
</property>

mapred-site.xml

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

yarn-site.xml

<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>master</value>
 </property>

切换到 hadoop-2.5.1/bin 目录
 ./hdfs namenode -format

 NameNode 启动 
 sbin/hadoop-daemon.sh start namenode
 
 DataNode 启动
 sbin/hadoop-daemon.sh start datanode
 
 SecondaryNameNode 启动
 sbin/hadoop-daemon.sh start secondarynamenode
 
 启动 ResourceManager
 sbin/yarn-daemon.sh start resourcemanager
 
 启动NodeManager
 sbin/yarn-daemon.sh start nodemanager 
 jps 查看启动结果
 
  在hdfs上创建目录
  hdfs dfs -mkdir /demo1
  上传本地文件到hdfs
  hdfs dfs -put /home/hadoop/hadoop-2.5.1/etc/hadoop/hdfs-site.xml /test
  读取文件
  hdfs dfs -cat /test/hdfs-site.xml


参考链接:https://blog.csdn.net/hliq5399/article/details/78193113

猜你喜欢

转载自blog.csdn.net/hulele2009/article/details/81207053