Hadoop伪分布式搭建步骤

安装单节点的基础上进行。-----点击超链接可以知道如何安装单节点。

1、开启sudo(作用是可以避免root用户与普通用户来回切换)。-------配置单节点时也可以设置sudo。

2、可以修改主机名(看你是否想要修改主机名,如果没有必要,可以不修改)。

$ sudo vim /etc/sysconfig/network

修改【HOSTNAME=????】

3、无密码登陆----使用普通用户

$ ssh-keygen -t rsa     一路回车。

4、进入.ssh目录,将公钥文件更名为authorized_keys文件,即可实现ssh连接自己不再需要密码。

确保authorized_keys的权限为600

$ cd /home/betty/.ssh   -------进入.ssh目录。

$ mv id_rsa.pub authorized_keys 

$ chmod 600 authorized_keys

结果验证

$ ssh localhost

成功后,最好删除id_rsa.pub文件

5、更改配置文件信息

需要配置三个配置文件 core-site.xml  hdfs-site.xml slaves

$ vim /home/betty/soft/hadoop/etc/hadoop/core-site.xml

配置core-site.xml(Hadoop集群的特性,作用于全部进程及客户端)
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

$ vim /home/betty/soft/hadoop/etc/hadoop/hdfs-site.xml 

hdfs-site.xml(配置HDFS集群的工作属性, 主要是用来指定集群中数据块的副本系数)
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

$ vi /home/betty/soft/hadoop/etc/hadoop/slaves(目的配置datanode节点)

添加:【dog1】------我的主机名为dog1

6、重启机器

$ sudo reboot 

7、对文件系统进行格式化

$ hdfs namenode -format

如果Error: JAVA_HOME is not set and could not be found.
 修改hadoop-env.sh:
                export JAVA_HOME=/home/hyxy/soft/jdk

8、启动守护进程

$ start-all.sh   ----------启动所有(不建议使用)

$start-dfs.sh -----------单独启动hdfs

$start-yarn.sh----------单独启动yarn

还可以单独启动:

    单独启动namenode

         hadoop-daemon.sh start namenode

    单独启动SecondaryNameNode

         hadoop-daemon.sh start secondarynamenode

     单独启动datanode

          hadoop-daemon.sh start datanode

9、查看各线程是否开启

$ jps

10、并访问50070----打开任意浏览器输入:IP地址:50070

访问格式:IP地址:50070

如果虚拟机内能访问到50070而本机不能????
    ping一下是否两台机器能通信
    检查防火墙是否关闭
        su root
        service iptables stop
        chkconfig iptables off

11、关闭线程

$ stop-all.sh ---------关闭所有(不建议使用)

$ stop-dfs.sh --------单独关闭hdfs

$ stop-yarn.sh ------单独关闭yarn

11、配置成功!

猜你喜欢

转载自blog.csdn.net/Betty_betty_betty/article/details/84190376