HDFS数据流-剖析文件读取及写入

时间:2022-05-23 18:45:49

HDFS数据流-剖析文件读取及写入

文件读取

HDFS数据流-剖析文件读取及写入

1. 客户端通过调用FileSystem对象的open方法来打开希望读取的文件,对于HDFS来说,这个对象是分布式文件系统的一个实例。
2. DistributedFileSystem通过使用RPC来调用namenode,以确定文件起始块的位置。对于每一个块,namenode返回存有该块副本的datanode地址。此外,这些datanode根据他们与客户端的距离来排序(根据集群的网络拓扑)。如果该客户端本身就是一个namenode,并保存有相应数据块的一个副本时,该节点就会从本地datanode读取数据。DistributedFileSystem类返回一个FSDataInputStream对象(一个支持文件定位的输入流)给客户端并读取数据。FSDataInputStream类转而封装DFSInputStream对象,该对象管理着datanode和namenode的I/O
3. 客户端对这个输入流调用read()方法。
4. 存储着文件起始几个块的datanode地址的DFSInputStream随机连接距离最近的datanode。通过对数据流反复调用read方法,可以将数据从datanode传输到客户端
5. 到达块的末端时,DFSInputStream关闭与该datanode的连接,然后寻找下一个块的最佳datanode。客户端只需要读取连续的流,并且对于客户端都是透明的。
6. 客户端从流中读取数据时,块是按照打开DFSInputStream与datanode新建连接的顺序读取的。他也会根据需要询问namenode来检索下一批数据块的datanode的位置。一旦客户端完成读取,就对FSDataInputStream调用close()方法。
在读取数据时,如果DFSInputStream在与datanode通信时遇到错误,会尝试从这个块的另一个最邻近datanode读取数据。它也会记住那个故障datanode,以保证以后不会反复读取该节点上后续的块。DFSInputStream也会通过校验和确认从datanode发来的数据是否完整。如果发现有损坏的块,就在DFSInputStream试图从其他datanode读取其复本之前通知namanode.
这个设计的一个重点是,namenode告知客户端每个块中最佳的datanode,并让客户端直接连接到该datanode检索数据。由于数据流分散在集群中的所有datanode,所以这种设计能是HDFS可扩展到大量的并发客户端。同时,namenode只需要相应块位置的请求(这些信息存储在内存中,因而非常高效),无需相应数据请求,否则随着客户端数量的增长,namenode会很快成为瓶颈。

文件写入

HDFS数据流-剖析文件读取及写入

1. 客户端通过对DistributedFileSystem对象调用create方法来新建文件
2. DistributedFileSystem对namenode创建一个RPC调用,在文件系统的命名空间中新建一个文件,此时该文件中还没有相应的数据块。Namenode执行各种不同的检查以确保这个文件不存在以及客户端有新建该文件的权限。如果这些检查均通过,namenode就会为创建新文件记录一条记录;否则,文件创建失败并向客户端抛出一个IOException异常。DistributedFileSystem向客户端返回一个FSDataOutputStream对象,由此客户端可以开始写入数据。就像读取时间一项,FSDataOutputStream封装一个DFSOutputStream对象,该对象负责处理datanode和namenode之间的通信。
3. 在客户端写入数据时,DFSOutputStream将它分成一个个的数据包,并写入内部队列,称为数据队列(data queue)。DataStreamer处理数据队列,它的责任是根据datanode构成一个管线--假设复本数为3,所以管线中有3个节点。
4. DataStreamer将数据包流式传输到管线中第一个datanode,该datanode存储数据包并将它发送到管线中的第二个datanode。同样第二个datanode存储该数据包并且发送给管线中的第三个(也是最后一个)datanode。
5. DFSOutputStream也维护着一个内部数据包队列来等待datanode的收到确认回执,称为确认队列(ack queue)。收到管线中所有datanode确认信息后,该数据包才会从确认队列删除。
如果在数据写入期间datanode发生故障,则执行以下操作
(1)首先关闭管线,确认把队列中的所有数据包都添加回数据队列的最前端,以确保故障节点下游的datanode不会漏掉任何一个数据包。
(2)为存储在另一正常datanode的当前数据块指定一个新的标识,并将该标识传送给namenode,以便故障datanode在恢复后可以删除存储的部分数据块。
(3)从管线中删除故障数据节点并且把余下的数据块写入管线中另外两个正常的datanode。
(4)Namenode注意到块副本数量不足时,会在另一个节点上创建一个新的副本。
只要写入了dfs.replication.min的复本数(默认为1),写操作就会成功,并且这个块可以在集群中异步复制,直到达到其目标复本数(dfs.replication默认为3)
6. 客户端完成数据的写入后,对数据流调用close方法。
7. 该操作将剩余的所有数据包写入datanode管线,并在联系到namenode且发送文件写入完成信号之前,等待确认。Namenode已经知道文件由哪些块组成(通过DataStreamer请求分配数据块),所以它在返回成功前只需要等待数据块进行最小量的复制。