大数据挖掘分析与应用 (四) HDFS环境搭建

四 HDFS环境搭建

1.jdk的安装(装java)

  1. 检查自带jdk,有就卸载
    在这里插入图片描述
    找jdk:rpm -qa|grep java
    切换命令 :su -root
    删除jdk:rpm -e --nodeps 名字
    在这里插入图片描述

  2. 安装jdk
    解压: tar -zxvf jdk名字 ~C 解压的位置
    在这里插入图片描述
    配置环境变量:vim ~/.bash_profile

在这里插入图片描述
配置完重启这个文件使配置文件生效:source ~/.bash_profile
检验下:java -version
在这里插入图片描述
2 安装SSH(实现免密登录)

检测有没有ssh:ps -e | grep ssh
在这里插入图片描述

  1. 生成密钥:ssh-keygen -t rsa
    (rsa是公钥)
    在这里插入图片描述在这里插入图片描述
    pub是公钥

  2. 生成的密钥拷贝到特定的文件夹下
    在这里插入图片描述
    密钥如下:在这里插入图片描述

  3. 测试下连通性:ssh 主机名/ip地址

连接本地,然后exit退出
ifconfig可以查出ip地址,用ssh localhost和ssh ip地址一样
在这里插入图片描述
修改地址和主机名的映射:vim /etc/hosts
(用root用户)
在这里插入图片描述
查看修改主机名:在这里插入图片描述

3.安装HDFS(hadoop)

  1. 解压 和上面一样tar -zxvf hadoop名字 ~C 解压的位置

    在这里插入图片描述
    bin里面装的客户端命令集
    cmd是windows系统用的
    在这里插入图片描述
    可以删掉cmd
    在这里插入图片描述
    sbin是HDFS系统的命令
    在这里插入图片描述

hadoop的配置文件
在这里插入图片描述

在这里插入图片描述

  1. 配置hadoop文件
    三个文件
    第一个
    在这里插入图片描述
    在这里插入图片描述
    原来的文件如下
    在这里插入图片描述
    更改为:追加一个java文件变量
    在这里插入图片描述
    第二个:core-site在这里插入图片描述
    查找主机名
    在这里插入图片描述
    8020前面是主机名
    在这里插入图片描述
    在这里插入图片描述
    配置个临时文件夹存放hdfs的,在第二个上面(官网上有)
    在这里插入图片描述
    在这里插入图片描述
    第三个:系统中的一些配置在这里插入图片描述
    只有1个副本,一个节点
    在这里插入图片描述
    在这里插入图片描述
    第四个 localhost变成本机名
    在这里插入图片描述

4.启动hdfs
格式换系统(仅第一次执行)
之前tmp没有文件。格式化后就有了tmp下有dfs
bin目录下 ./hdfs namenode -format
在这里插入图片描述
启动hdfs命令
在sbin下启动 ./start-dfs.sh
在这里插入图片描述
在这里插入图片描述
验证命令
1.jps在这里插入图片描述
2.网站验证
在虚拟机里的网页看
ip:50070
在这里插入图片描述
在这里插入图片描述
在本机电脑看,
1要关闭防火墙chkconfig iptables off
2要关闭防火墙服务service iptables stop
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/weixin_43872169/article/details/104829698