[大数据]Hadoop大数据开发基础----环境配置(三)

在此之前我们已经创建及配置了虚拟机master,这时有人会想,我们不是要搭建分布式集群吗,怎么只配置了一个虚拟机?不要着急,下面的文章中会提到

下面我们开始在虚拟机上安装hadoop,首先把hadoop的安装包上传到虚拟机的/opt目录下,然后运用命令 tar -zxf hadoop-2.6.5.tsr.gz -C /ysr/local,将Hadoop安装包解压到虚拟机master的/usr/local目录下
然后我们用cd /usr/local/hadoop-2.6.5/etc/hadoop/进入到hadoop的解压目录,然后输入命令ls可以看到如下图所示,被标出来的是hadoop涉及到的配置文件,共有7个
这里写图片描述
然后我们修改配置文件如下(注意修改文件的时候千万不要忘了输入:wq保存哦)
1.修改core-site.xml,这个是hadoop的核心配置文件,这里需要配置两个属性:fs.defaultFS配置了hadoop的HDFS系统的命名,位置为主机的8020端口,这里需要替换hdfs://master:8020中的master,更改名称为NameNode所在的机器名,hadoop.tmp.dir配置了hadoop的临时文件的位置 文件修改为如下图所示
这里写图片描述
2.修改hadoop-env.sh文件,修改JAVA_HOME的值为本机的安装jdk的位置,这里我们修改为
export JAVA_HOME=/usr/java/jdk1.7.0_80
3.修改yarn-env.sh文件如下如所示
这里写图片描述
4.修改mapred-site.xml如下图所示
这里写图片描述
5.修改yarn-site.xml文件,该文件是YARN框架的配置,修改为如下图所示。
这里写图片描述

这里写图片描述

这里写图片描述
6.修改slaves文件
这里写图片描述
7.修改hdfs-site.xml文件
这里写图片描述
8.修改/etc/hosts文件
这里写图片描述
至此虚拟机master配置完成,下一篇会提到克隆master节点组成分布式集群

猜你喜欢

转载自blog.csdn.net/qq_36563021/article/details/82584853