在线客服
扫描二维码
下载博学谷APP扫描二维码
关注博学谷微信公众号
今天继续梳理的知识点是HDFS的基本原理,主要内容包括NameNode概述、DataNode概述、HDFS的工作机制(HDFS写数据流程和HDFS读数据流程),总之全文都是总结的学习干货,希望对于相信大数据的朋友能够有一些帮助,下面我们一起来学习并理解以下的内容吧!
1、NameNode概述
NameNode是HDFS的核心,相信这一点大家都知道,所以NameNode也被称为Master。NameNode仅存储HDFS的元数据:文件系统中所有文件的目录树,并跟踪整个集群中的文件。NameNode不存储实际数据或数据集。数据本身实际存储在DataNodes中。NameNode知道HDFS中任何给定文件的块列表及其位置。使用此信息NameNode知道如何从块中构建文件。NameNode并不持久化存储每个文件中各个块所在的 DataNode 的位置信息,这些信息会在系统启动时从数据节点重建。NameNode对于HDFS至关重要,当NameNode关闭时,HDFS / Hadoop集群无法访问。总结一下,NameNode是Hadoop集群中的单点故障。NameNode所在机器通常会配置有大量内存(RAM)。
2、DataNode概述
DataNode负责将实际数据存储在HDFS中。DataNode也称为Slave。NameNode和DataNode会保持不断通信。DataNode启动时,它将自己发布到NameNode并汇报自己负责持有的块列表。当某个DataNode关闭时,它不会影响数据或群集的可用性。NameNode将安排由其他DataNode管理的块进行副本复制。DataNode所在机器通常配置有大量的硬盘空间。因为实际数据存储DataNode中。DataNode会定期向NameNode发送心跳,如果NameNode长时间没有接受到DataNode发送的心跳, NameNode就会认为该DataNode失效。block汇报时间间隔取参数dfs.blockreport.intervalMsec,参数未配置的话默认为6小时。
3、HDFS的工作机制
NameNode负责管理整个文件系统元数据;DataNode负责管理具体文件数据块存储;Secondary NameNode协助NameNode进行元数据的备份。HDFS的内部工作机制对客户端保持透明,客户端请求访问HDFS都是通过向NameNode申请来进行。HDFS写数据流程和HDFS读数据流程总结如下:
(1)HDFS写数据流程
A.client发起文件上传请求,通过RPC与NameNode建立通讯,NameNode检查目标文件是否已存在,父目录是否存在,返回是否可以上传;
B.client请求第一个block该传输到哪些DataNode服务器上;
C.NameNode根据配置文件中指定的备份数量及副本放置策略进行文件分配,返回可用的DataNode的地址,如:A、B、C;
D.client请求3台DataNode中的一台A上传数据(本质上是一个RPC调用,建立pipeline),A收到请求会继续调用B,然后B调用C,将整个pipeline建立完成,后逐级返回client;
E.client开始往A上传第一个block,以packet为单位(默认64K),A收到一个packet就会传给 B,B 传给 C;A 每传一个packet会放入一个应答队列等待应答。
F.数据被分割成一个个packet数据包在pipeline上依次传输,在pipeline反方向上,逐个发送ack(命令正确应答),最终由pipeline中第一个DataNode节点A将pipeline ack发送给client;
G.当一个block传输完成之后,client再次请求NameNode上传第二个block到服务器。
(2)HDFS读数据流程
A、Client 向 NameNode 发起 RPC 请求,来确定请求文件 block 所在的位置;
B.NameNode 会视情况返回文件的部分或者全部block 列表,对于每个block,NameNode 都会返回含有该block副本的DataNode地址;
C.这些返回的DN地址,会按照集群拓扑结构得出 DataNode 与客户端的距离,然后进行排序,排序两个规则:网络拓扑结构中距离 Client 近的排靠前;心跳机制中超时汇报的DN 状态为STALE,这样的排靠后;
D.Client 选取排序靠前的DataNode来读取block,如果客户端本身就是DataNode,那么将从本地直接获取数据;
E.底层上本质是建立Socket Stream(FSDataInputStream),重复的调用父类DataInputStream的read方法,直到这个块上的数据读取完毕;
F.当读完列表的block后,若文件读取还没有结束,客户端会继续向NameNode获取下一批的block列表;
G.读取完一个block都会进行checksum验证,如果读取DataNode时出现错误,客户端会通知 NameNode,然后再从下一个拥有该block副本的DataNode继续读。
H.read 方法是并行的读取block信息,不是一块一块的读取;NameNode只是返回Client 请求包含块的DataNode地址,并不是返回请求块的数据;
I.最终读取来所有的block会合并成一个完整的最终文件。
以上就是HDFS基本原理总结的全部内容了,大家都理解了吗?如果觉得本文总结的干货有用,不妨把文章分享出去,让更多的人看到~
— 申请免费试学名额 —
在职想转行提升,担心学不会?根据个人情况规划学习路线,闯关式自适应学习模式保证学习效果
讲师一对一辅导,在线答疑解惑,指导就业!
相关推荐 更多
2019年大数据在各行业的应用 深度解析
如今,我们都生活在一个数字化的世界里,大数据的应用也变得越来越广泛,它深度改变着我们的生产生活方式。本文小编就来深度解析一下,2019年大数据在各行业的应用。这些行业都从大数据中获取了当下真正有价值的信息,从而极大地提高了生产效率。
7879
2019-07-22 18:00:56
Hive数据仓库层级划分介绍
本文就Hive数据仓库层级划分进行详细介绍,全文大概分为数据仓库的四个操作和四逻辑架构层次两个部分。这些都是Hive数据仓库的基础知识,大家一定要掌握哦!
11130
2019-08-09 19:31:31
Flink电商项目实战介绍
随着Flink技术的飞速发展,Flink在实时处理数据方面体现出越来越显著的优势。Flink作为一个针对流数据和批数据的分布式处理引擎,其应用领域越来越广泛。本文将向大家介绍Flink电商项目实战教程,感兴趣的话就一起接着看下去吧~
5454
2020-05-11 14:58:14
为什么大数据技术那么火?
大数据技术的概念早在2008年被Google提出。在我国2012年提出《大数据研究和发展计划》,从此我国的开放、共享和只能的大数据时代正式开启。随着一线互联网企业在大数据领域的成熟应用,以及国内政策的支持。2016年,云计算大数据技术再次成为人们所追捧的热门技术,与此同时国内大数据人才培养体系逐渐完善,为大数据的普及应用提供源源不断的人才支撑。
4227
2020-09-15 17:36:12
大数据可视化分析工具常用的有哪些?
企业基础数据才能制定出正确的策略,常用的分析工具有、Tableau、ECharts、Highcharts、魔镜、图表秀等。在大数据时代有价值的商品则是数据,大数据技术为决策提供依据,在政府、企业、科研项目等决策中扮演着重要的角色。
5256
2020-09-24 16:39:22
热门文章
- 前端是什么
- 前端开发的工作职责
- 前端开发需要会什么?先掌握这三大核心关键技术
- 前端开发的工作方向有哪些?
- 简历加分-4步写出HR想要的简历
- 程序员如何突击面试?两大招带你拿下面试官
- 程序员面试技巧
- 架构师的厉害之处竟然是这……
- 架构师书籍推荐
- 懂了这些,才能成为架构师 查看更多
扫描二维码,了解更多信息
