1_Hadoop安装部署及常用配置(HDFS+YARN)

2020/12/5 [email protected]

一、hadoop伪分布式集群搭建

​ 一台全新的CentOS_6.5虚拟机

1.1、添加主机名称(ip空格机器名)

[bduser101@node101 .ssh]$ sudo vi /etc/hosts

在这里插入图片描述

1.2、为当前用户bduser101赋予root权限

[bduser101@node101 .ssh]$ su
密码:
[root@node101 .ssh]# vim /etc/sudoers

在这里插入图片描述

1.3、设置ssh无密登录

[bduser101@node101 ~]$cd ~
[bduser101@node101 ~]$ ssh-keygen -t rsa -P ''
#验证密钥创建成功的方法
[bduser101@node101 ~]$ cd .ssh
[bduser101@node101 .ssh]$ ll
总用量 8
-rw-------. 1 bduser101 bduser101 1675 3月  13 20:22 id_rsa
-rw-r--r--. 1 bduser101 bduser101  399 3月  13 20:22 id_rsa.pub
#将公钥写入authorized_keys文件
[bduser101@node101 .ssh]$ cat id_rsa.pub >> authorized_keys
[bduser101@node101 .ssh]$ ll
总用量 12
-rw-rw-r--. 1 bduser101 bduser101  399 3月  13 20:22 authorized_keys
-rw-------. 1 bduser101 bduser101 1675 3月  13 20:22 id_rsa
-rw-r--r--. 1 bduser101 bduser101  399 3月  13 20:22 id_rsa.pub
[bduser101@node101 .ssh]$ chmod 600 authorized_keys
#将以下文件的 47,48,49行的注释去掉
[bduser101@node101 .ssh]$ sudo vim /etc/ssh/sshd_config

在这里插入图片描述
重启sshd服务

[bduser101@node101 .ssh]$ sudo service sshd restart

运行以下代码确定ssh无密登录的成功

[bduser101@node101 ~]$ ssh node101
Last login: Fri Mar 13 22:15:00 2020 from 192.168.159.99

1.4、关闭防火墙,并将默认状态改为关闭

[bduser101@node101 modules]$ sudo service iptables stop
iptables:将链设置为政策 ACCEPT:filter                    [确定]
iptables:清除防火墙规则:                                 [确定]
iptables:正在卸载模块:                                   [确定]
[bduser101@node101 modules]$ sudo chkconfig iptables off

1.5、准备好jdk、hadoop压缩包

jdk版本是8.10
hadoop版本是2.7.6
点此进入Hadoop各版本下载地址
在这里插入图片描述进入下载界面点击箭头位置下载并保存到本地在这里插入图片描述

  • 在虚拟机的home/bduser101下创建两个文件夹
    software :用来存放准备的压缩包
    modules :解压后的文件存放位置
  • 借助MobaXterm工具将jdk、hadoop压缩包复制到software文件夹下
  • 将jdk、hadoop压缩包解压至modules
[bduser101@node101 ~]$cd ~
[bduser101@node101 ~]$cd software
[bduser101@node101 software]$tar -zxvf jdk-8u144-linux-x64.tar.gz -C ../modules/
#解压过程
[bduser101@node101 software]$tar -zxvf hadoop-2.7.6.tar.gz -C ../modules/
#解压过程
[bduser101@node101 software]$cd ~/modules
#将jdk和hadoop冗长的名称改为简写
[bduser101@node101 modules]$mv jdk1.8.0_144/ jdk
[bduser101@node101 modules]$mv hadoop-2.7.6.tar.gz/ hadoop
  • 配置java、hadoop的环境变量
[bduser101@node101 modules]$cd ~
[bduser101@node101 ~]$ vi .bashrc
#在文件中加入以下内容

(JAVA_HOME,HADOOP_HOME的值因虚拟机的当前用户不同所以地址值不同,大体应该为/home/当前用户名/modules/jdk或者/hadoop)
在这里插入图片描述
验证java,hadoop环境变量是否成功

[bduser101@node101 ~]$resource .bashrc
[bduser101@node101 ~]$java -version
#显示jdk版本号
[bduser101@node101 ~]$hadoop version
#显示hadoop版本号

1.6、修改配置文件

  • 修改/home/bduser101/modules/hadoop/etc/hadoop/中的6个文件
    1.hdfs-site.xml
    在这里插入图片描述
    2.hadoop-env.sh
    在这里插入图片描述
    3.core-site.xml
    在这里插入图片描述
    4.slaves
    在这里插入图片描述
    5.yarn-site.xml
    在这里插入图片描述
    6.mapred-site.xml
    在这里插入图片描述
  • 格式化namenode(第一次启动集群之前格式化)

1.7、格式化namenode(第一次启动集群之前格式化)

[bduser101@node101 modules]$ hadoop namenode -format

验证格式化成功

[bduser101@node101 modules]$cd /home/bduser101/modules/hadoop
[bduser101@node101 hadoop]$ ls
bin  dfs  etc  include  lib  libexec  LICENSE.txt  NOTICE.txt  README.txt  sbin  share
[bduser101@node101 hadoop]$ cd dfs
[bduser101@node101 dfs]$ ls
name
  • 启动集群
[bduser101@node101 ~]$ start-all.sh
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
Starting namenodes on [node101]
node101: starting namenode, logging to /home/bduser101/modules/hadoop/logs/hadoop-bduser101-namenode-node101    .out
node101: starting datanode, logging to /home/bduser101/modules/hadoop/logs/hadoop-bduser101-datanode-node101    .out
Starting secondary namenodes [node101]
node101: starting secondarynamenode, logging to /home/bduser101/modules/hadoop/logs/hadoop-bduser101-seconda    rynamenode-node101.out
starting yarn daemons
starting resourcemanager, logging to /home/bduser101/modules/hadoop/logs/yarn-bduser101-resourcemanager-node    101.out
node101: starting nodemanager, logging to /home/bduser101/modules/hadoop/logs/yarn-bduser101-nodemanager-nod    e101.out

验证集群启动成功

[bduser101@node101 ~]$ jps
3217 SecondaryNameNode
3057 DataNode
3362 ResourceManager
2930 NameNode
3462 NodeManager
3754 Jps

在这里插入图片描述

二、hadoop完全分布式集群搭建

  • 传统使用iso镜像的方式创建多个节点
  • 以完整的原型机为基础,做克隆

本文使用的方法为第二种:对已经进行伪分布式的机器(node101)进行克隆两次

2.1、创建节点

鼠标右键伪分机器->管理->克隆->虚拟机中的当前状态->创建完整克隆->填写虚拟机名称以及选择虚拟机存储位置
直接克隆出两台机器,分别命名为node102、node103
在这里插入图片描述

2.2、网络配置(node102,node103)

  • 2.1把eth0网卡行注释掉,然后把eth1改成eth0,复制当前eth0里的mac地址
[bduser101@node102 ~]$ su root
密码:
[root@node102 bduser101]# vi /etc/udev/rules.d/70-persistent-net.rules

在这里插入图片描述

  • 2.2把mac地址粘贴至图示位置,修改ip地址为192.168.159.102

[root@node102 bduser101]# vi /etc/sysconfig/network-scripts/ifcfg-eth0

在这里插入图片描述

  • 2.3重启网卡
[root@node102 bduser101]# service network restart
正在关闭接口 eth0: 设备状态:3 (断开连接)
                                                           [确定]
关闭环回接口:                                             [确定]
弹出环回接口:                                             [确定]
弹出界面 eth0: 活跃连接状态:激活的
活跃连接路径:/org/freedesktop/NetworkManager/ActiveConnection/2
                                                           [确定]

2.3、修改主机名(node102,node103)

修改HOSTNAME为当前机器名

[root@node102 bduser101]# vi /etc/sysconfig/network

在这里插入图片描述

2.4、在主节点(node101)创建两个脚本

[bduser101@node101 bin]$ su root
[root@node101 ~]$ cd /usr/local/bin/
[root@node101 ~]$ touch xcall
[root@node101 ~]$ touch xsync
[root@node101 ~]$ chmod a+x xcall
[root@node101 ~]$ chmod a+x xsync
[root@node101 ~]$ vi xcall
  • 在xcall文件中填写如下代码
    该脚本的作用是在主节点就可以对其余节点执行操作命令
    for循环中的host=102;host<=103是指对那些节点进行操作,如果你的机器名不是node102,node103,就需要修改for循环
#!/bin/bash
pcount=$#
if((pcount==0));then
        echo no args;
        exit;
fi

echo --------localhost----------
$@
for((host=102; host<=103; host++)); do
        echo ----------node$host---------
        ssh node$host $@
done

使用样例xcall jps查看所有节点当前运行的进程

  • 在xsync文件中填写如下代码
    该脚本的作用是将带有绝对路径的文件或者文件夹同步到for循环中的机器中,同样如果机器名不同需要修改for循环中的内容
#!/bin/bash
#1 获取输入参数个数,如果没有参数,直接退出
pcount=$#
if((pcount==0)); then
echo no args;
exit;
fi

#2 获取文件名称
p1=$1
fname=`basename $p1`
echo fname=$fname

#3 获取上级目录到绝对路径
pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir

#4 获取当前用户名称
user=`whoami`

#5 循环
for((host=102; host<=103; host++)); do
        #echo $pdir/$fname $user@hadoop$host:$pdir
        echo --------------- node$host ----------------
        echo rsync -rvl $pdir/$fname $user@node$host:$pdir
        rsync -rvl $pdir/$fname $user@node$host:$pdir
done

使用样例xsync /etc/hosts:将/etc/hosts文件同步至node102,node103的相同位置下

2.5、修改映射关系

vim /etc/hosts

在这里插入图片描述
使用xsync脚本进行同步[root@node101 bin]# xsync /etc/hosts

2.6、修改hadoop配置文件(node101)

[bduser101@node101 ~]$ cd ~/modules/hadoop/etc/hadoop/
[bduser101@node101 ~]$ vi 以下几个文件
  • 6.1 slaves:设置dataNode位置
    在这里插入图片描述
  • 6.2hdfs-site.xml
    在这里插入图片描述
    使用xsync脚本同步配置xsync ~/modules/hadoop/etc/hadoop

2.7、格式化(node101)

[bduser101@node101 hadoop]$ hadoop namenode -format

2.8、启动服务(node101)

[bduser101@node101 hadoop]$ start-all.sh

使用xcall查看所有节点进程

[bduser101@node101 hadoop]$ xcall jps
--------localhost----------
2800 NameNode
2914 DataNode
3622 Jps
3192 ResourceManager
3305 NodeManager
----------node102---------
3495 NodeManager
3627 Jps
3375 DataNode
----------node103---------
2546 Jps
2322 SecondaryNameNode
2212 DataNode
2405 NodeManager

注意所有节点需要关闭防火墙以及时间同步

猜你喜欢

转载自blog.csdn.net/nothair/article/details/114271051