Hadoop单机运行环境搭建(基于Centos 7)

一、关闭防火墙
(1)关闭防火墙:systemctl stop firewalld.service
(2)禁用防火墙:systemctl disable firewalld.service
(3)查看防火墙:systemctl status firewalld.service
(4)关闭Selinux:vi /etc/selinux /config

将SELINUX=enforcing改为SELINUX=disabled

二、修改IP

vim /etc/sysconfig/network-scripts/eno16777736
      注:(“eno16777736”根据自己的网卡设置)

BOOTPROTO=static
ONBOOT=yes
IPADDR=192.168.X.51
GATEWAY=192.168.X.2
DNS1=8.8.8.8
DNS2=8.8.4.4
NETMASK=255.255.255.0

vi /etc/resolv.conf

nameserver 8.8.8.8
nameserver 8.8.4.4

重启网卡:

servie network restart

三、修改主机名

vim /etc/hostname
bigdata111

四、IP和主机名关系映射

vim /etc/hosts

192.168.1.121 bigdata111

在windows的C:\Windows\System32\drivers\etc路径下找到hosts并添加:

192.168.1.121 bigdata111

五、创建hadoop用户
打开终端窗口,输入如下命令创建新用户 :

sudo useradd -m hadoop -s /bin/bash

接着使用如下命令设置密码,可简单设置为 hadoop,按提示输入两次密码:

sudo passwd hadoop

可为 hadoop 用户增加管理员权限,方便部署,避免一些对新手来说比较棘手的权限问题:

sudo adduser hadoop sudo

六、SSH无密码登录
(1)使用如下命令登陆本机:

ssh localhost

此时会有如下提示(SSH首次登陆提示),输入 yes 。然后按提示输入密码 hadoop,这样就登陆到本机了。
(2)生成公钥和私钥:

exit	# 退出刚才的 ssh localhost
cd ~/.ssh/
ssh-keygen -t rsa	#会有提示,都按回车就可以
cat ./id_rsa.pub >> ./authorized_keys	# 加入授权

然后就会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)

七、安装jdk
(1)查询是否安装java软件,如有先卸载

rpm -qa|grep java	#查询是否安装
rpm -e 软件包名字		#卸载

(2)在/opt目录下创建两个子文件

mkdir /opt/module /opt/soft

(3)解压jdk到/opt/module目录下

tar -zxvf jdk-8u144-linux-x64.tar.gz
-C /opt/module/

(4)配置jdk环境变量

vi /etc/profile

export JAVA_HOME=/opt/mod/jdk1.8.0_144
export PATH= P A T H : PATH: JAVA_HOME/bin

source一下使其生效:(否则配置的环境无效)

source /etc/profile

(5)测试jdk安装成功

 java -version

能出现版本号就证明安装成功了。

八、安装hadoop
(1)将hadoop安装至/opt/mudole中:

tsr -zxvf ~/opt/soft/hadoop-2.6.0.tar.gz -C /opt/module	#解压到/opt/module中
cd /opt/module/
mv ./hadoop-2.6.0/ ./hadoop 	# 将文件夹名改为hadoop
chown -R hadoop ./hadoop	# 修改文件权限

(2)Hadoop 解压后即可使用。输入如下命令来检查 Hadoop 是否可用,成功则会显示 Hadoop 版本信息:

cd /opt/module/hadoop
./bin/hadoop version

(3)配置hadoop环境变量

vi /etc/profile

export HADOOP_HOME=/opt/module/hadoop-2.6.0
export PATH= P A T H : PATH: HADOOP_HOME/bin

source一下使其生效:source /etc/profile

(4)修改hadoop配置文件

cd /opt/module/hadoop/etc/hadoop	#进入这个目录

修改配置文件:vim core-site.xml

<configuration>    
	<property>        
		<name>hadoop.tmp.dir</name>        
		<value>file:/opt/module/hadoop/tmp</value>       	 				            
		<description>Abase for other temporary directories.</description>    	
	</property>    									
	<property>        						
		<name>fs.defaultFS</name>        			
		<value>hdfs://localhost:9000</value>    			
	</property>
</configuration>

修改配置文件: hdfs-site.xml

<configuration>   
 	<property>        
 		<name>dfs.replication</name>        
 		<value>1</value>   
  	</property>   
  	 <property>        
   		<name>dfs.namenode.name.dir</name>        
   		<value>file:/opt/module/hadoop/tmp/dfs/name</value>   
   	 </property>    
    	<property>        
    		<name>dfs.datanode.data.dir</name>        
    		<value>file:/opt/module/hadoop/tmp/dfs/data</value>    
    	</property>
</configuration>

(5)配置完成后,执行 NameNode 的格式化:

cd /opt/module/hadoop
hdfs namenode -format	#格式化命令

成功的话,会看到 “successfully formatted” 和 “Exitting with status 0” 的提示,若为 “Exitting with status 1” 则是出错。
在这里插入图片描述

(6)启动hadoop

cd /opt/module/hadoop
start-all.sh	#启动命令

若出现如下SSH提示,输入yes即可。

成功启动后,可以访问 Web 界面 http://localhost:50070 查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件。
在这里插入图片描述

发布了50 篇原创文章 · 获赞 15 · 访问量 1万+

猜你喜欢

转载自blog.csdn.net/weixin_43520450/article/details/105392906