大数据HBase学习之旅第一篇

「这是我参与11月更文挑战的第32天,活动详情查看:2021最后一次更文挑战」。

一、HBase 简介

1.1、HBase 定义

HBase 是一种分布式、可扩展、支持海量数据存储的 NoSQL 数据库。

1.2、HBase 数据模型

逻辑上,HBase 的数据模型同关系型数据库很类似,数据存储在一张表中,有行有列。但从 HBase 的底层物理存储结构(K-V)来看,HBase 更像是一个 multi-dimensional map。

1.2.1、HBase 逻辑结构

image.png

1.2.2、HBase 物理存储结构

image.png

1.2.3、数据模型

  1. Name Space

    命名空间,类似于关系型数据库的 DatabBase 概念,每个命名空间下有多个表。HBase有两个自带的命名空间,分别是 hbase 和 default,hbase 中存放的是 HBase 内置的表,default 表是用户默认使用的命名空间。

  2. Region

    类似于关系型数据库的表概念。不同的是,HBase 定义表时只需要声明列族即可,不需要声明具体的列。这意味着,往 HBase 写入数据时,字段可以动态、按需指定。因此,和关系型数据库相比,HBase 能够轻松应对字段变更的场景。

  3. Row

    HBase 表中的每行数据都由一个 RowKey 和多个 Column(列)组成,数据是按照 RowKey的字典顺序存储的,并且查询数据时只能根据 RowKey 进行检索,所以 RowKey 的设计十分重要。

  4. Column

    HBase 中的每个列都由 Column Family(列族)和 Column Qualifier(列限定符)进行限定,例如 info:name,info:age。建表时,只需指明列族,而列限定符无需预先定义。

  5. Time Stamp

    用于标识数据的不同版本(version),每条数据写入时,如果不指定时间戳,系统会自动为其加上该字段,其值为写入 HBase 的时间。

  6. Cell

    由{rowkey, column Family:column Qualifier, time Stamp} 唯一确定的单元。cell 中的数据是没有类型的,全部是字节码形式存贮。

1.3、HBase 基本架构

image.png

架构角色:

  1. Region Server

    Region Server 为 Region 的管理者,其实现类为 HRegionServer,主要作用如下:

    对于数据的操作:get, put, delete;

    对于 Region 的操作:splitRegion、compactRegion。

  2. Master

    Master 是所有 Region Server 的管理者,其实现类为 HMaster,主要作用如下:

    对于表的操作:create, delete, alter

    对于 RegionServer的操作:分配 regions到每个RegionServer,监控每个 RegionServer

    的状态,负载均衡和故障转移。

  3. Zookeeper

    HBase 通过 Zookeeper 来做 Master 的高可用、RegionServer 的监控、元数据的入口以及集群配置的维护等工作。

  4. HDFS

    HDFS 为 HBase 提供最终的底层数据存储服务,同时为 HBase 提供高可用的支持。

二、HBase 快速入门

2.1、HBase 安装部署

2.1.1、Zookeeper 正常部署

首先保证 Zookeeper 集群的正常部署,并启动之:

[moe@hadoop102 ~]$ zk.sh start
复制代码

image.png

2.1.2、Hadoop 正常部署

Hadoop 集群的正常部署并启动:

[moe@hadoop102 ~]$ myhadoop.sh start
复制代码

image.png

2.1.3、HBase 的解压

解压 Hbase 到指定目录:

[moe@hadoop102 ~]$ tar -zxvf /opt/software/hbase-1.3.1-bin.tar.gz -C /opt/module/

[moe@hadoop102 module]$ mv hbase-1.3.1/ hbase
复制代码

2.1.4、HBase 的配置文件

修改 HBase 对应的配置文件。

  1. hbase-env.sh 修改内容:

    export JAVA_HOME=/opt/module/jdk1.8.0_212
    export HBASE_MANAGES_ZK=false
    复制代码
  2. hbase-site.xml 修改内容:

    <configuration>
    
            <property>
                    <name>hbase.rootdir</name>
                    <value>hdfs://hadoop102:8020/HBase</value>
            </property>
    
            <property>
                    <name>hbase.cluster.distributed</name>
                    <value>true</value>
            </property>
    
            <!-- 0.98 后的新变动,之前版本没有.port,默认端口为 60000 -->
            <property>
                    <name>hbase.master.port</name>
                    <value>16000</value>
            </property>
    
            <property> 
                    <name>hbase.zookeeper.quorum</name>
                    <value>hadoop102,hadoop103,hadoop104</value>
            </property>
    
            <property> 
                    <name>hbase.zookeeper.property.dataDir</name>
                    <value>/opt/module/zookeeper-3.5.7/zkData</value>
            </property>
    
    </configuration>
    复制代码
  3. regionservers:

    hadoop102
    hadoop103
    hadoop104
    复制代码
  4. 软连接 hadoop 配置文件到 HBase:

    [moe@hadoop102 ~]$ ln -s /opt/module/hadoop-3.1.3/etc/hadoop/core-site.xml /opt/module/hbase/conf/core-site.xml
    [moe@hadoop102 ~]$ ln -s /opt/module/hadoop-3.1.3/etc/hadoop/hdfs-site.xml /opt/module/hbase/conf/hdfs-site.xml
    复制代码

    image.png

2.1.5、HBase 远程发送到其他集群

[moe@hadoop102 module]$ xsync hbase/
复制代码

2.1.6、HBase 服务的启动

  1. 启动方式1

    bin/hbase-daemon.sh start master
    bin/hbase-daemon.sh start regionserver
    复制代码

    提示:如果集群之间的节点时间不同步,会导致 regionserver 无法启动,抛出ClockOutOfSyncException 异常。

    修复提示:

    a、同步时间服务

    b、属性:hbase.master.maxclockskew 设置更大的值

    <property>
     <name>hbase.master.maxclockskew</name>
     <value>180000</value>
     <description>Time difference of regionserver from master</description>
    </property>
    复制代码
  2. 启动方式2

    bin/start-hbase.sh
    复制代码

    image.png

    对应的停止服务:

    bin/stop-hbase.sh
    复制代码

2.1.7、查看 HBase 页面

启动成功后,可以通过“host:port”的方式来访问 HBase 管理页面,例如:

http://hadoop102:16010

image.png

2.2、HBase Shell 操作

2.2.1、基本操作

  1. 进入 HBase 客户端命令行

    bin/hbase shell
    复制代码

    image.png

  2. 查看帮助命令

    hbase(main):001:0> help
    复制代码
  3. 查看当前数据库中有哪些表

    hbase(main):002:0> list
    复制代码

2.2.2、表的操作

  1. 创建表

    hbase(main):003:0> create 'student','info'
    复制代码
  2. 插入数据到表

    put 'student','1001','info:sex','male'
    put 'student','1001','info:age','18'
    put 'student','1002','info:name','Janna'
    put 'student','1002','info:sex','female'
    put 'student','1002','info:age','20'
    复制代码
  3. 扫描查看表数据

    hbase(main):009:0> scan 'student'
    复制代码

    image.png

  4. 查看表结构

    hbase(main):010:0> describe 'student'
    复制代码

    image.png

  5. 更新指定字段的数据

    hbase(main):011:0> put 'student','1001','info:name','Nick'
    hbase(main):012:0> put 'student','1001','info:age','100'
    复制代码
  6. 查看“指定行”或“指定列族:列”的数据

    hbase(main):001:0> get 'student','1001'
    复制代码

    image.png

    hbase(main):002:0> get 'student','1001','info:name'
    复制代码

    image.png

  7. 统计表数据行数

    hbase(main):003:0> count 'student'
    复制代码

    image.png

  8. 删除数据

    删除某 rowkey 的全部数据:

    hbase(main):004:0> deleteall 'student','1001'
    复制代码

    删除某 rowkey 的某一列数据:

    hbase(main):007:0> delete 'student','1002','info:sex'
    复制代码

    image.png

  9. 清空表数据

    hbase(main):010:0> truncate 'student'
    复制代码

    提示:清空表的操作顺序为先 disable,然后再 truncate。

    image.png

  10. 删除表

    • 首先需要先让该表为 disable 状态:

      hbase(main):014:0> disable 'student'
      复制代码

      提示:如果直接 drop 表,会报错:ERROR: Table student is enabled. Disable it first.

      image.png

    • 然后才能 drop 这个表:

      hbase(main):013:0> drop 'student'
      复制代码

三、HBase 进阶

3.1、架构原理

image.png

  1. StoreFile

    保存实际数据的物理文件,StoreFile 以 HFile 的形式存储在 HDFS 上。每个 Store 会有一个或多个 StoreFile(HFile),数据在每个 StoreFile 中都是有序的。

  2. MemStore

    写缓存,由于 HFile 中的数据要求是有序的,所以数据是先存储在 MemStore 中,排好序后,等到达刷写时机才会刷写到 HFile,每次刷写都会形成一个新的 HFile。

  3. WAL

    由于数据要经 MemStore 排序后才能刷写到 HFile,但把数据保存在内存中会有很高的概率导致数据丢失,为了解决这个问题,数据会先写在一个叫做 Write-Ahead logfile 的文件中,然后再写入 MemStore 中。所以在系统出现故障的时候,数据可以通过这个日志文件重建。

3.2、写流程

image.png

写流程:

  1. Client 先访问 zookeeper,获取 hbase:meta 表位于哪个 Region Server。

  2. 访问对应的 Region Server,获取 hbase:meta 表,根据读请求的 namespace:table/rowkey,查询出目标数据位于哪个 Region Server 中的哪个 Region 中。并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的 meta cache,方便下次访问。

  3. 与目标 Region Server 进行通讯;

  4. 将数据顺序写入(追加)到 WAL;

  5. 将数据写入对应的 MemStore,数据会在 MemStore 进行排序;

  6. 向客户端发送 ack;

  7. 等达到 MemStore 的刷写时机后,将数据刷写到 HFile。

3.3、读流程

image.png

读流程:

  1. Client 先访问 zookeeper,获取 hbase:meta 表位于哪个 Region Server。

  2. 访问对应的 Region Server,获取 hbase:meta 表,根据读请求的 namespace:table/rowkey,查询出目标数据位于哪个 Region Server 中的哪个 Region 中。并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的 meta cache,方便下次访问。

  3. 与目标 Region Server 进行通讯;

  4. 分别在 Block Cache(读缓存),MemStore 和 Store File(HFile)中查询目标数据,并将查到的所有数据进行合并。此处所有数据是指同一条数据的不同版本(time stamp)或者不同的类型(Put/Delete)。

  5. 将从文件中查询到的数据块(Block,HFile 数据存储单元,默认大小为 64KB)缓存到Block Cache。

  6. 将合并后的最终结果返回给客户端。

3.4、StoreFile Compaction

由于memstore每次刷写都会生成一个新的HFile,且同一个字段的不同版本(timestamp)和不同类型(Put/Delete)有可能会分布在不同的 HFile 中,因此查询时需要遍历所有的 HFile。为了减少 HFile 的个数,以及清理掉过期和删除的数据,会进行 StoreFile Compaction。

Compaction 分为两种,分别是 Minor Compaction 和 Major Compaction。Minor Compaction会将临近的若干个较小的 HFile 合并成一个较大的 HFile,但不会清理过期和删除的数据。Major Compaction 会将一个 Store 下的所有的 HFile 合并成一个大 HFile,并且会清理掉过期和删除的数据。

image.png

3.5、Region Split

image.png

猜你喜欢

转载自juejin.im/post/7037003256240799781