Linux环境配置Hadoop

ubantu16配置Hadoop2.85

  1. 设置ssh免密码登录
 sudo apt-get install openssh-server   #安装SSH server
 $ ssh localhost                         #登陆SSH,第一次登陆输入yes
 $ exit                                  #退出登录的ssh localhost
 $ cd ~/.ssh/                            #如果没法进入该目录,执行一次ssh localhost
 $ ssh-keygen -t rsa  
cat ./id_rsa.pub >> ./authorized_keys #加入授权
$ ssh localhost                         #此时已不需密码即可登录localhost,并可见下图。如果失败则可以搜索SSH免密码登录来寻求答案

2.创建Hadoop用户

sudo useradd -m hadoop -s /bin/bash  #创建hadoop用户,并使用/bin/bash作为shell
$ sudo passwd hadoop                   #为hadoop用户设置密码,之后需要连续输入两次密码
$ sudo adduser hadoop sudo             #为hadoop用户增加管理员权限
$ su - hadoop                          #切换当前用户为用户hadoop
$ sudo apt-get update                  #更新hadoop用户的apt,方便后面的安装

3.安装JDk
在Oracle官网下载jdk
下载完成后创建Java目录并解压压缩包(注意要下载格式为tar.gz格式的文件)

 mkdir /usr/lib/jvm                           #创建jvm文件夹
$ sudo tar zxvf jdk-7u80-linux-x64.tar.gz  -C /usr/lib #/ 解压到/usr/lib/jvm目录下
$ cd /usr/lib/jvm                                 #进入该目录
$ mv  jdk1.7.0_80 java                         #重命名为java
$ vi ~/.bashrc                                 #给JDK配置环境变量

编辑Java环境变量,在bashrc文件底部加上环境变量路径。

export JAVA_HOME=/usr/lib/jvm/java
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

配置好后使用命令

$ source ~/.bashrc                     #使新配置的环境变量生效
$ java -version                          #检测是否安装成功,查看java版本

并检验Java版本,出现版本则配置完成。
4.安装Hadoop
先下载hadoop-2.8.5.tar.gz,链接如下:
http://mirrors.hust.edu.cn/apache/hadoop/common/
下面进行安装:

$ sudo tar -zxvf  hadoop-2.8.5.tar.gz -C /usr/local    #解压到/usr/local目录下
$ cd /usr/local
$ sudo mv  hadoop-2.8.5    hadoop                      #重命名为hadoop
$ sudo chown -R hadoop ./hadoop                        #修改文件权限

安装好后和jdk一样在~./bashrc中配置环境变量。

export HADOOP_HOME=/usr/local/hadoop
export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

同样,执行source ~./bashrc使设置生效,并查看hadoop是否安装成功
查看Hadoop版本

Hadoop version

5.Hadoop伪分布式配置
编辑Hadoop安装目录中中的hadoop-env.sh文件,并进行以下更改并检查是否要更改任何其他配置。
export JAVA_HOME=/opt/jdk1.8.0_192
export HADOOP_CONF_DIR=${HADOOP_CONF_DIR:-"/home/linuxidc/hadoop-2.8.5/etc/hadoop"}
更改core-site.xml文件中的配置

使用vim编辑core-site.xml,或者您可以使用任何编辑器。 该文件位于 /usr/local/hadoop/etc/hadoop/ 中,并添加以下条目。

<configuration>
        <property>
             <name>hadoop.tmp.dir</name>
             <value>file:/usr/local/hadoop/tmp</value>
             <description>Abase for other temporary directories.</description>
        </property>
        <property>
             <name>fs.defaultFS</name>
             <value>hdfs://localhost:9000</value>
        </property>
</configuration>

hdfs-site.xml文件中的配置更改

<configuration>
        <property>
             <name>dfs.replication</name>
             <value>1</value>
        </property>
        <property>
             <name>dfs.namenode.name.dir</name>
             <value>file:/usr/local/hadoop/tmp/dfs/name</value>
        </property>
        <property>
             <name>dfs.datanode.data.dir</name>
             <value>file:/usr/local/hadoop/tmp/dfs/data</value>
        </property>
</configuration>

配置完成后使用hdfs namenode -format 来执行namenode的格式化。
启动hadoop程序:./usr/local/hadoop/sbin/start-dfs.sh
启动完成后,输入jps检查namenode和DataNode是否都开启。
6.进入Hadoop管理界面
成功启动后,可以访问 Web 界面 http://localhost:50070 查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件。

猜你喜欢

转载自blog.csdn.net/skyanddream/article/details/89490181