HDFS的基本操作

HDFS的基本操作

命令行客户端的常用命令

1、上传文件到集群中

hdfs dfs -put 本地路径   hdfs上的路径

例如:把本地 linux 上root目录下的a.txt上传到集群中的根目录下

 hadoop fs -put /root/a.txt   /

相同功能的另外一种写法

hadoop fs -copyFromLocal

2、下载文件到本地

hadoop fs -get hdfs上的路径

例如:把集群中的根目录下的a.txt下载到本地 linux 上根目录

hadoop fs -get /a.txt


3、查看hdfs 中的目录信息

hadoop fs -ls /


4、创建文件夹

在集群中创建一个目录aaa     hadoop fs -mkdir /目录名称

hadfs dfs -mkdir /aaa

在集群中创建子目录可以使用  -p        hadoop fs -mkdir -p /目录名称/子目录名称

hadoop fs -mkdir -p /bbb/ccc

5、删除文件或文件夹

删除文件:  hadoop fs -rm /文件名

例如:删除根目录下的a.txt

hadoop fs -rm /a.txt


递归删除文件夹(如果文件夹里面有文件则需要递归删除  -r)    hadoop fs -rm -r /文件夹名称

例如删除根目录下的bbb文件夹

hadoop fs -rm -r/bbb

HDFS如何动态扩容

扩容就是增加datanode

datanode可以在线扩容

步骤

1、       准备好一台服务器,配置好环境:网络、ip、防火墙、免密登陆、jdk

2、       从原集群的任意一台机器上复制hadoop安装包到新机器上

3、       在原集群的slaves文件中添加新机器 的主机名

4、       在新机器上启动datanode即可

A、      直接用start-dfs.sh

B、      或者在新机器上手动启动一个datanode进程 :hadoop-daemon.sh start datanode

HDFS的一些配置属性

副本数量

hdfs中存储文件快可以有多个副本,默认3个

参数: dfs.blocksize   默认:134217728

在hdfs.side.xml文件中

此参数用于客户端



猜你喜欢

转载自blog.csdn.net/li93675/article/details/80677629