【教程】【环境搭建】大数据伪分布式搭建Hadoop(Win10+ECS+putty+FileZilla)

前言

Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。本文采用云上伪分布式搭建,一是因为操作简单,二是因为没有多余的资金购买设备。。命令行基本放成一行一段,方便右边直接一键复制,一步一步走防止出错。如果有遇到问题请仔细找出错误信息,到网上去搜索。

预置环境

1.本地环境

操作系统:Win10
预置软件:
		FileZilla_3.47.1_win64(本地与云服务器之间进行文件传输)
		portable-putty-x64(SSH本地连接云服务器)

2.云服务器

平台:阿里云
CPU: 2核
内存: 4 GiB
操作系统: Ubuntu 16.04 64位

基础配置

以下的test为本次实验创建的用户名,可自行替换

1.创建新用户

(1)创建一个新的普通用户test,并使用 /bin/bash 作为 shell

sudo useradd -m test -s /bin/bash

(2)设置密码,请按系统提示输入两次密码

sudo passwd test

(3)为test用户增加管理员权限,方便后续部署

sudo adduser test sudo

(4)把登录用户从root用户切换到test用户

su test

(5)更新apt,后续我们使用apt安装软件

sudo apt-get update

(6)安装vim

sudo apt-get install vim

安装JDK

1.传输JDK压缩文件

使用Filezilla将JDK的安装压缩包传到/test/home/Downloads,若没有Downloads文件夹,则自己新建一个

mkdir Downloads

2.解压JDK

(1)进入/usr/lib,创建jvm目录用来存放JDK文件

cd /usr/lib
sudo mkdir jvm

(2)进入test用户的主目录

cd ~ 

(3)注意区分大小写字母,刚才已经通过FileZilla把JDK安装包jdk-8u162-linux-x64.tar.gz上传到该目录下

cd Downloads

(4) 把JDK文件解压到/usr/lib/jvm目录下

sudo tar -zxvf ./jdk-8u162-linux-x64.tar.gz -C /usr/lib/jvm

3.确认JDK

(1)进入/usr/lib/jvm,显示目录内容列表

cd /usr/lib/jvm
ls

出现jdk1.8.0_162则成功

4.设置环境变量

(1)进入test用户的主目录,打开了test用户的环境变量配置文件

cd ~
vim ~/.bashrc

(2)在开头添加以下配置信息并保存退出

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_162
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

(3)使配置立即生效

source ~/.bashrc

5.安装确认

查看版本信息

java -version

如果能够在屏幕上返回如下信息,则说明安装成功:

java version "1.8.0_162"
Java(TM) SE Runtime Environment (build 1.8.0_162-b12)
Java HotSpot(TM) 64-Bit Server VM (build 25.162-b12, mixed mode)

安装Hadoop

1.更新apt

sudo apt-get update

2.安装SSH和配置SSH无密码登陆

(1)安装 SSH server

sudo apt-get install openssh-server

(2)登陆本机

ssh localhost

(3)退出刚才的 ssh localhost

exit

(4)若没有该目录,请先执行一次ssh localhost

cd ~/.ssh/

(5)会有提示,都按回车即可

ssh-keygen -t rsa

(6)加入授权

cat ./id_rsa.pub >> ./authorized_keys

(7)此时SSH就可以无密码登录了

ssh localhost

3.检查hostname配置文件

打开hosts文件

sudo vim /etc/hosts

以下是正确的配置:

192.168.1.106  iZbp11gznj7n38xkztu64dZ
127.0.0.1       localhost
# The following lines are desirable for IPv6 capable hosts
::1     localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters

“私有IP Ubuntu主机名”
“127.0.0.1 localhost”
其他几行基本都一样的,看一看这两行有没有问题。(基本是不用改的)

4.安装Hadoop

Hadoop的安装压缩包先用FileZilla传到Downloads的文件夹下

(1)进入test用户的主目录

cd ~

(2)解压到/usr/local中

sudo tar -zxf ~/Downloads/hadoop-2.7.1.tar.gz -C /usr/local

(3)进入/usr/local/,将文件夹名改为hadoop

cd /usr/local/
sudo mv ./hadoop-2.7.1/ ./hadoop

(4)修改文件权限

sudo chown -R test:123 ./hadoop

5.安装确认

(1)进入/usr/local/hadoop,查看版本

cd /usr/local/hadoop
./bin/hadoop version

安装成功则会显示Hadoop 2.7.1

6.Hadoop伪分布式配置

(1)打开core-site.xml文件

vim /usr/local/hadoop/etc/hadoop/core-site.xml

原内容:

<configuration>
</configuration>

修改为:(括号及其内容记得替换)

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://(私有IP):9000</value>
    </property>
</configuration>

(2)同样修改hdfs-site.xml:

vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml

修改为:

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/data</value>
    </property>
</configuration>

(3)进入/usr/local/hadoop,执行NameNode 的格式化:

cd /usr/local/hadoop
./bin/hdfs namenode -format 

出现Exitting with status 0提示则正确,如果出现Exitting with status 1也不要着急,回去往上看看java的异常,去全网搜搜基本都能解决的

(4)在hadoop文件夹下,开启 NameNode 和 DataNode 守护进程:

cd /usr/local/hadoop
./sbin/start-dfs.sh

若出现SSH提示,输入yes即可

(5)查询进程

jps

出现以下内容则成功

21923 Jps
21592 DataNode
21417 NameNode
21806 SecondaryNameNode

7.停止Hadoop

cd /usr/local/hadoop
./sbin/stop-dfs.sh

后记

环境算是搭建完成了,中间不知道错了多少次,通过这次搭建提升了不少解决Error的能力,有时间去尝试搭建真正的分布式。

参考文章

厦门大学的林子雨老师写过一系列大数据环境搭建的博客教程,可以去看看他的博客,写得很详细。
1.在阿里云中搭建大数据实验环境
2.为Ubuntu系统添加新的普通用户
3.使用Putty软件实现SSH登录到Ubuntu系统
4.使用FTP软件向ECS实例中的Ubuntu系统上传和下载文件
5.在ECS实例的Ubuntu系统中安装Java
6.在ECS实例的Ubuntu系统中安装Hadoop
7.搜索了N篇解决Bug的文章,这里就不列出了,实在太多了。。

发布了143 篇原创文章 · 获赞 140 · 访问量 27万+

猜你喜欢

转载自blog.csdn.net/qq_43733499/article/details/104672758