【深入理解Hadoop之二】HDFS上传下载数据流程

 

一:上传流程:

1:客户端要上传数据需要调用FileSystem的create方法创建文件,

2:首先DistributeFileSystem会通过RPC远程调namenode创建一个没有任何块依赖的空文件,在这个过程中会检查该文件是否存在,该文件父目录是否存在如果可以上传namenode会向客户端返回一个FSDateOutputStream对象,否则向客户端抛出一个异常。

3:FSDateOutputStream对象封装了一个DFSOutputStream,DFSOutputStream将数据分块拆分成数据包,放入一个队列,这个队列由DataStreamer消费,DataStreamer向namenode请求分配存数据块datanode,分配的三台datanode会构建一个pipline去写数据

4:当数据成功写入pipline中最后一个节点时,会发送一个写入成功的确认信息。

5:同时FSDateOutputStream还会维护着一个ACK Queue,来接收从pipline发送回的确认信息。

6:当所有块都写入完毕后客户端调用close方法关闭数据流,之后会将所有块数据写入到pipline中,并且等待ACK Queue成功返回,之后通知namenode完成数据的写入。

二:下载流程:

1:客户端要下载数据需要调用FileSystem的open方法读取文件

2:DistributeFileSystem会通过RPC远程调用namenode查找首批数据块所在的datanode位置,namenode返回给客户端一组datanode位置信息。

3:DistributedFileSystem返回FSDataInputStream给客户端,用来读取数据,客户端选取最近的datanode建立连接,FSDataInputStream开始不断地调用read方法进行读数据。这个过程中如果需要的话DistributeFileSystem会去获取下一批block所在的datanode

4:当所有数据读取完毕后调用close方法关闭连接。

            

发布了39 篇原创文章 · 获赞 66 · 访问量 8万+

猜你喜欢

转载自blog.csdn.net/qq_34696236/article/details/84331185
今日推荐