HDFS的基本操作
命令行客户端的常用命令
1、上传文件到集群中
hdfs dfs -put 本地路径 hdfs上的路径
例如:把本地 linux 上root目录下的a.txt上传到集群中的根目录下
hadoop fs -put /root/a.txt /
相同功能的另外一种写法
hadoop fs -copyFromLocal
2、下载文件到本地
hadoop fs -get hdfs上的路径
例如:把集群中的根目录下的a.txt下载到本地 linux 上根目录
hadoop fs -get /a.txt
3、查看hdfs 中的目录信息
hadoop fs -ls /
4、创建文件夹
在集群中创建一个目录aaa hadoop fs -mkdir /目录名称
hadfs dfs -mkdir /aaa
在集群中创建子目录可以使用 -p hadoop fs -mkdir -p /目录名称/子目录名称
hadoop fs -mkdir -p /bbb/ccc
5、删除文件或文件夹
删除文件: hadoop fs -rm /文件名
例如:删除根目录下的a.txt
hadoop fs -rm /a.txt
递归删除文件夹(如果文件夹里面有文件则需要递归删除 -r) hadoop fs -rm -r /文件夹名称
例如删除根目录下的bbb文件夹
hadoop fs -rm -r/bbb
HDFS如何动态扩容
扩容就是增加datanode
datanode可以在线扩容
步骤
1、 准备好一台服务器,配置好环境:网络、ip、防火墙、免密登陆、jdk
2、 从原集群的任意一台机器上复制hadoop安装包到新机器上
3、 在原集群的slaves文件中添加新机器 的主机名
4、 在新机器上启动datanode即可
A、 直接用start-dfs.sh
B、 或者在新机器上手动启动一个datanode进程 :hadoop-daemon.sh start datanode
HDFS的一些配置属性
副本数量
hdfs中存储文件快可以有多个副本,默认3个
参数: dfs.blocksize 默认:134217728
在hdfs.side.xml文件中
此参数用于客户端