linux-配置hadoop集群(配置文件及环境配置)


虚拟机配置请参考: Linux—安装虚拟机(CentOS)及moba连接虚拟机
hadoop相关文件百度网盘地址: hadoop-2.6.0-cdh5.14.2.tar.gz

一、前期准备

1.虚拟机启动成功后注意以下配置

①如果防火墙为开启状态需要停止防火墙服务
停止防火墙服务

systemctl stop firewalld

禁用防火墙,下次开机启动后防火墙服务不再启动

systemctl disable firewalld

修改配置后重启
②修改用户名hostname
输入 vi /etc/hostname 将用户名修改为hadoop04
在这里插入图片描述
在这里插入图片描述

#用户名修改即时成效
hostnamectl set-hostname hadoop04

在这里插入图片描述
可通过 vi /etc/hostname 查看是否修改成功
③修改hosts
输入 vi etc/hosts 进入hosts文件(因为我这边是要搭建三个虚拟机集群所以配置了三个)
在这里插入图片描述

2.Linux(CentOS)虚拟机中jdk需要配置好【注意:关闭防火墙】

linux-jdk配置请参考:Linux系统安装jdk(包括环境配置)

3.将hadoop压缩包拖入

我这边放在了opt目录下
在这里插入图片描述

4.使用 tar -zxvf 命令解压文件

tar -zxvf hadoop-2.6.0-cdh5.14.2.tar.gz

在这里插入图片描述

5.将文件夹名字简化

不是必要步骤

mv hadoop-2.6.0-cdh5.14.2 hadoop

在这里插入图片描述

6.生成密钥

ssh-keygen -t rsa -P ""

在这里插入图片描述

7.设置免密登录

 cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys

二、hadoop 环境配置

1.输入cd /opt/hadoop/etc/hadoop,进入hadoop

cd /opt/hadoop/etc/hadoop

2.配置 hadoop-env.sh

#进入hadoop.sh文件
vi hadoop-env.sh
#配置j  JAVA_HOME 后面为java路径
export JAVA_HOME=/opt/jdk1.8.0_221/

在这里插入图片描述

3.配置core-site.xml

#进入core-site.xml
vi core-site.xml
#配置属性
<property>
  <name>fs.defaultFS</name>    #默认节点
  <value>hdfs://192.168.56.201:9000</value>
</property>
<property>
   <name>hadoop.tmp.dir</name>   #HDFS文件系统的临时目录
   <value>/opt/hadoop/tmp</value>
</property>
<property>
   <name>hadoop.proxyuser.root.hosts</name>   #其他机器的root用户可访问
   <value>*</value>
 </property>
<property>
   <name>hadoop.proxyuser.root.groups</name>  #其他root组下的用户都可以访问
   <value>*</value>
 </property>

3.配置hdfs-site.xml

#进入hdfs-site.xml
vi hdfs-site.xml
#配置相关属性
<property>
<name>dfs.replication</name>  #复制的份数(与连接机器的数量相等)
  <value>1</value>
</property>
<property>
  <name>dfs.namenode.secondary.http-address</name>  #namenode的备用节点
  <value>192.168.56.201:50090</value>
</property>

4.配置mapred-site.xml

#新建mapred-site.xml
vi mapred-site.xml
#配置属性 将文件mapred-site.xml.template的内容复制到mapred-site.xml
<property>
		<name>mapreduce.framework.name</name>  #mapreduce的框架名称
        <value>yarn</value>
</property>
<property>
        <name>mapreduce.jobhistory.address</name>  #mapreduce的工作地址
        <value>hadoop04:10020</value>
</property>
<property>
        <name>mapreduce.jobhistory.webapp.address</name> #web页面访问历史服务端口的配置
        <value>hadoop04:19888</value>
</property>

5.配置yarn-site.xml

#进入yarn-site.xml
vi yarn-site.xml
#配置
<property>
    <name>yarn.nodemanager.aux-services</name> #reducer获取数据方式
    <value>mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
    <name>yarn.resourcemanager.hostname</name>  #指定YARN的ResourceManager的地址
    <value>handoop04</value>
</property>
<property>
    <name>yarn.log-aggregation-enable</name> #日志聚集功能使用
    <value>true</value>
</property>
<property>
    <name>yarn.log-aggregation.retain-seconds</name> #日志保留时间设置7天
    <value>604800</value>
</property>

6.配置slaves

#进入slaves
vi slaves
#添加主机名
hadoop04

在这里插入图片描述

7.Hadoop环境变量配置

#进入profile
vi /etc/profile
#环境配置(shift+g 快速定位末行,在最后插入)
export HADOOP_HOME=/opt/hadoop
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
#保存退出并source
source /etc/profile

三、启动hadoop

1.格式化HDFS

hadoop namenode -format

2.启动hadoop

start-all.sh

3.启动历史服务

mr-jobhistory-daemon.sh start historyserver

4.检查是否启动成功

输入jps
在这里插入图片描述

5.访问Hadoop

#访问HDFS页面
http://192.168.56.201:50070   
#访问YARN的管理界面
http://192.168.56.201:8088   
#访问jobhistory页面
http://192.168.56.201:19888

出现以下界面说明启动成功
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

四.配置hadoop集群

1.关闭当前虚拟机,并复制

在这里插入图片描述
在这里插入图片描述

2.依此启动并修改ip地址和用户名

除去被复制的虚拟机,其他两个都需要修改

#修改ip地址
vi /etc/sysconfig/network-scripts/ifcfg-enp0s3

在这里插入图片描述
在这里插入图片描述

#修改用户名
vi /etc/hostname

在这里插入图片描述
在这里插入图片描述

#用户名修改即时生效
hostnamectl set-hostname hadoop05


在这里插入图片描述
#如果之前hosts没有配置过,需要配置
输入 vi /etc/hosts
在这里插入图片描述

3.重启网络

systemctl restart network

在这里插入图片描述

4.生成密钥,免密登录并远程连接

①.输入 ssh-keygen -t rsa -P "" 生成密钥(Overwrite (y/n)? y )
在这里插入图片描述
②.设置免密登录(> 为替换 >> 为追加)

cat /root/.ssh/id_rsa.pub > /root/.ssh/authorized_keys

在这里插入图片描述
③.远程连接
每一台虚拟机需要与其他虚拟机相连(@后面也可以写ip地址)

ssh-copy-id -i .ssh/id_rsa.pub -p22 root@hadoop05

以hadoop04为例
在这里插入图片描述
在这里插入图片描述
④.验证连接是否成功

#方式一
ssh root@hadoop05
#方拾二
ssh [email protected]

在这里插入图片描述

5.Moba连接成功,修改相关配置文件

在hadoop04中修改配置文件并将配置文件复制给另外两台虚拟机
①Moba连接成功
在这里插入图片描述
②进入到hadoop
输入 cd /opt/hadoop/etc/hadoop
③修改hdfs-site.xml文件配置

<property>
<name>dfs.replication</name>
  <value>3</value>  #文件的副本数
</property>
<property>
  <name>dfs.namenode.secondary.http-address</name>
  <value>192.168.56.202:50090</value> #备用节点
</property>

在这里插入图片描述
③在slaves文件中增加其他两个虚拟机的用户名
输入 vi slaves
在这里插入图片描述
④将刚刚修改的配置文件传给另外两台虚拟机[使用scp命令]

scp hdfs-site.xml 192.168.56.202:/opt/hadoop/etc/hadoop/hdfs-site.xml
scp hdfs-site.xml 192.168.56.203:/opt/hadoop/etc/hadoop/hdfs-site.xml
scp slaves 192.168.56.202:/opt/hadoop/etc/hadoop/slaves
scp slaves 192.168.56.203:/opt/hadoop/etc/hadoop/slaves

在这里插入图片描述

6.格式化HDFS并启动

①格式化HDFS

hadoop namenode -format

②启动
输入 start-all.sh 启动
启动结束后输入jps 检查是否启动
在这里插入图片描述

7.进入网址 192.168.56.201:50070

如果显示节点为3则说明集群配置成功
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/weixin_43992185/article/details/106952578