DataNode工作机制

1.DataNode工作机制

  

  1.一个数据块在DataNode上以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据的效验和,以及时间戳;

  2.DataNode启动后向NameNode注册,通过后,周期性的向NameNode上报所有的块信息;

  3.心跳是每三秒一次,心跳返回结果带有NameNode给该DataNode的命令如复制块数据到另一台机器,或删除某个数据块。如果超过10分钟没有收到某个DataNode的心跳,则认为该节点不可用;

  4.集群运行中可以安全加入和退出一些机器;

2.数据完整性

  1.当DataNode读取block的时候,它会计算checksum;

  2.如果计算后的checksum,与block创建时值不一样,说明block已经损坏;

  3.client读取其他DataNode上的block;

  4.DataNode在其文件创建后周期验证checksum;

    

3.掉线时限参数设置

  DataNode进程死亡或者网络故障造成DataNode无法与NameNode通信,NameNode不会立即把该节点判定为死亡,要进过一段时间,这段时间暂称作超时时长。HDFS默认的超时时长为10分钟+30秒。如果定义超时时间为timeout,则超时时长的计算公式为:

timeout = 2 * dfs.namenode.heartbeat.recheck-interval + 10 * dfs.heartbeat.interval。

  而默认的dfs.namenode.heartbeat.recheck-interval大小为五分钟,dfs.heartbeat.interval默认为三秒;

  需要注意的是hdfs-site.xml配置文件的heartbeat.recheck.interval的单位为毫秒,dfs.heartbeat.interval的单位为秒;

<property>
    <name>dfs.namenode.heartbeat.recheck-interval</name>
    <value>300000</value>
</property>
<property>
    <name> dfs.heartbeat.interval </name>
    <value>3</value>
</property>

4.服役新数据节点

  随着公司业务的增长,数据量越来越大,原有的数据节点的容量已经不能满足存储数据的需求,需要在原有的集群基础上添加新的数据节点;

  4.1 环境准备

    4.1.1 克隆一台虚拟机

    4.1.2 修改ip地址和主机名称

    4.1.3 修改xcall和xsync文件,增加新增节点的同步ssh

    4.1.4 删除原来HDFS文件系统留存的文件/opt/module/hadoop/data

    4.1.5 服役新节点具体步骤

      (1) 在NameNode的/opt/module/hadoop/etc/hadoop目录下创建dfs.hosts文件,内容如下:

#添加如下主机名称(包含新服役的节点)
hadoop102
hadoop103
hadoop104
hadoop105

      (2) 在NameNode的hdfs-site.xml配置文件中增加dfs.hosts属性

<property>
    <name>dfs.hosts</name>
    <value>/opt/module/hadoop/etc/hadoop/dfs.hosts</value>
</property>

      (3)刷新NameNode

hdfs dfsadmin -refreshNodes

      (4) 更新resourcemanager节点

yarn rmadmin -refreshNodes

      (5) 在NameNode的/opt/module/hadoop/etc/hadoop目录下的slaves文件中增加新主机名称

#增加 105 
hadoop102
hadoop103
hadoop104
hadoop105

        分发给其他集群

./xsync xsync
./xsync /opt/module/hadoop/etc/hadoop/

      (6)单独命令启动新的数据节点和节点管理器

hadoop-daemon.sh start datanode
yarn-daemon.sh start nodemanager

      (7) 在web浏览器上检查是否OK

      (8) 如果数据不均衡,可以用命令实现集群的在平衡

./start-balancer.sh

5.服役旧数据节点

  5.1 添加白名单

    添加到白名单的主节点,都允许犯法NameNode,不在白名单的主机节点,都会被退出;

      5.1.1 在NameNode的/opt/module/hadoop/etc/hadoop目录下创建whitelist文件

        

      5.1.2 在NameNode的hdfs-site.xml配置文件中增加dfs.hosts属性 

     <property>
        <name>dfs.hosts</name>
        <value>/opt/module/hadoop/etc/hadoop/whitelist</value>
     </property>

      5.1.3 刷新NameNode,刷新resourcemanager    

 hdfs dfsadmin -refreshNodes
yarn rmadmin -refreshNodes

      

        在启动白名单的时候,黑名单中的主机自动删除了,挂掉了;

  5.2 添加黑名单

    在黑名单上面的主机都会被强制退出

      5.2.1 在NameNode的/opt/module/hadoop/etc/hadoop目录下创建blacklist文件

        

      5.2.2 在NameNode的hdfs-site.xml配置文件中增加dfs.hosts.exclude属性

<property>
    <name>dfs.hosts.exclude</name>
    <value>/opt/module/hadoop/etc/hadoop/blacklist</value>
</property>

      5.2.3 刷新NameNode,刷新resourcemanager

 hdfs dfsadmin -refreshNodes
yarn rmadmin -refreshNodes

    

6.DataNode多目录

  6.1 DataNode也可以配置成多个目录,每个目录存储的数据不一样;即:数据不是副本;

  6.2 配置如下【hdfs-site.xml】

<property>
    <name>dfs.datanode.data.dir</name>
    <value>file:///${hadoop.tmp.dir}/dfs/data1,file:///${hadoop.tmp.dir}/dfs/data2</value>
</property>

    

猜你喜欢

转载自www.cnblogs.com/wnwn/p/12560223.html