详细教你搭建伪分布式hadoop集群

                                                                 详细教你搭建伪分布式hadoop

一、简单介绍一下hadoop  

 1. Apache™Hadoop®项目为可靠的(hadoop能自动地维护数据的多份复制,并且在任务失败后能自动地重新部署(redeploy)计算任务。),可扩展的,分布式计算开发开源软件。hadoop不具有,高可用性该库本身不是依靠硬件来提供高可用性,而是设计用于在应用层检测和处理故障,从而在一组计算机之上提供高可用性服务,每个计算机都可能出现故障。高可用:(借助第三方)用来弥补集群。(官方网站:apache.org)

     2.该项目包括这些模块:Hadoop Common

                                    Hadoop分布式文件系统(HDFS™):一种分布式文件系统,可提供对应用程序数据的高吞吐量访问。

                                     Hadoop YARN:作业调度和集群资源管理的框架  

                                     Hadoop MapReduce:一种用于并行处理大型数据集的基于YARN的系统

     3.一般使用情况:hadoop2.7.3搭建、8G/固态硬盘、centos6.5/6.8

     4.单节点作用:用于调试
       伪分:core\hdfs有hadoop进程
       默认端口:8020
      1.几的版本默认端口9000

二、开始搭环境(我们所有的操作都是在普通用户下,有一个地方用root到时候我会提醒你)

   先关闭防火墙iptables -F

2:关闭防火墙和SElinux
 查看防火墙的状态:
 chkconfig iptables --list
 chkconfig ip6tables --list
 关闭防火墙(临时)
 chkconfig iptables stop
 chkconfig ip6tables stop
 永久关闭
 chkconfig iptables off
 chkconfig ip6tables off

1、我用的Centos6.5的桌面版,所以直接进入普通用户就可以不用创建普通用户了,没有的创建一个。

2.在/home/hyxy/文件下用mkdir  soft创建一个soft文件夹

3.将hadoop的压缩包和jdk的压缩包进行解压,

                        tar -zxvf   jdk-8u171-linux-x64.tar.gz ,用mv  jdk-8u171-linux-x64.tar.gz  jdk

                          tar -zxvf   hadoop-2.7.3.tar.gz ,用mv  hadoop-2.7.3.tar.gz   hadoop

4.建软连接 ln  -s   hadoop   hadoop.soft

                 ln  -s   jdk   jdk.soft 

5.先配置jdk,注意我们配置jdk和hadoop的JAVA_HOME等的配置环境,要在. bash_profile中因为普通用户在/etc/profile中没有权限

6.vim  .bash_profile

#jdk环境
JAVA_HOME=/home/hyxy/soft/jdk.soft
PATH=$PATH:$JAVA_HOME/bin
export JAVA_HOME PATH

#hadoop环境
HADOOP_HOME=/home/hyxy/soft/hadoop.soft
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin


7.source  .bash_profile更新配置文件

8.java

9.javac

10.当java -version 查看脚本时一般将获得如下信息:但是我装的时1.8.0的版本,所以将系统自带的删去

11.进一步查看JDK信息rpm -qa |grep java 结果如下:

用如下命令卸载系统自带的3个jdk    rpm -e  --nodeps

rpm -e --nodeps tzdata-java-2013g-1.el6.noarch

 rpm -e --nodeps java-1.7.0-openjdk-1.7.0.45-2.4.3.3.el6.x86_64

rpm -e --nodeps java-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_64

卸载后java -version 效果如下:这样jdk就安装完成了

12.开始配置hadoop

[hyxy@hyxy ~]$ cd soft/hadoop/etc/hadoop/进入这个目录,我们需要配置如下三个配置文件。


① vim     core-site.xml

  <property>
                                    <name>fs.defaultFS</name>
                                             <value>hdfs://hyxy:9000</value>
 </property>

②  vim hadoop-env.sh
export JAVA_HOME=/home/hyxy/soft/jdk.soft
export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_HOME}/lib/native
export HADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib/"


③vim hdfs-site.xml

<property>
                      <name>dfs.replication</name>
                      <value>1</value>
</property>

13.先切换root用户vim  /etc/hosts 添加本地主机名和ip

14.ssh免密登陆

a.获取密钥ssh-keygen  -t   rsa,一路回车下去,下图为产生密钥完成

可以去/home/hyxy目录下ls -a查看到.ssh文件的生成,cd  .ssh就会看到密钥

b.cp id_rsa.pub   authorized_keys,将公钥复制到authorized_keys文件中此时 ssh localhost就不需要密码了


c.设置权限 chmod  700  .ssh,chmod  600  authorized_keys

15.格式化

hdfs namenode -format

16.start-all.sh开启hadoop所有服务,如下图就成功了

查看jps

在浏览器上输入如:http://192.168.152.137:50090会出现类似下图的界面

主机ip地址:50070

master主机ip地址:8088


猜你喜欢

转载自blog.csdn.net/Aime123456789/article/details/80376130