【大数据存储】实验二 HDFS操作实验

实验二 HDFS操作实验

  1. 启动Hadoop,执行jps,检查Hadoop相关进程是否启动成功

启动hadoop

执行jps,可以看到名称节点和数据节点,第二名称节点都打开了,则hadoop相关进程启动成功

  1. 在本地文件系统“/home”下新建两个文件夹,分别命名为“local1”和“local2”

Cd进入/home文件夹

创建文件夹

sudo mkdir local1 local2

  1. 在“local1”下新建4个文本文件“hello.txt”、“hadoop.txt”、“test1.abc”、“file.abc”,文件里输入任意内容

创建成功

  1. 在HDFS根目录下创建目录“h1”、“h2”

Cd 进入hadoop根目录

hdfs dfs -mkdir h1

  1. 将“local1”下所有文件上传至“/h1”中

hdfs dfs -put /home/local1/* h1

查看已创建成功

  1. 删除“/h1”下后缀为“txt”的文件

  1. 将“local1”下以“h”开头的所有文件上传至“/h2”中

查找h开头的文件

  1. 输出“/h1”和“/h2”下所有文件内容

  1. 将“/h1”下“f”开头且后缀为“abc”的文件下载至“local2”中

hdfs dfs -get h1/hello.txt /home/local2

  1. 输出“local2”中所有文件内容

  1. 删除“h1”目录

  1. 在浏览器中查看HDFS中文件

  1. 关闭Hadoop

心得体会:

Hdfs内是一个虚拟的文件环境,无法直接查看,只能通过shell命令查看,出现错误

时通过赋予权限得到解决

猜你喜欢

转载自blog.csdn.net/m0_70098011/article/details/137236777