企业级Redis开发运维从入门到实践 (30)— Redis Cluster(集群)的数据分布

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/zx711166/article/details/83346003

数据分布理论

分布式数据库首先要解决把整个数据集按照分区规则映射到多个节点的问题,即把数据集划分到多个节点上,每个节点负责整体数据的一个子集。

分布式存储数据分区:
在这里插入图片描述

常见的分区规则:

  • 哈希分区
  • 顺序分区
分区方法 特点 代表产品
哈希分区 离散度好
数据分布业务无关
无法顺序访问
Redis Cluster
Cassandra
Dynamo
顺序分区 离散度易倾斜
数据分布业务相关
可顺序访问
Bigtable
HBase
Hypertable

由于Redis Cluster采用哈希分区规则,下面分别介绍常见的几种哈希分区规则。

哈希分区规则

1、节点取余分区
  • 公式: hash(key)%N (使用特定的数据,如Redis的键或用户ID,再根据节点数量N使用),计算出哈希值,用来决定数据映射到哪一个节点上
  • 存在一个问题:当节点数量变化时,如扩容或收缩节点,数据节点映射关系需要重新计算,会导致数据的重新迁移。
    在这里插入图片描述
  • 突出优点:是简单性,常用于数据库的分库分表规则,一般采用预分区的方式,提前根据数据量规划好分区数,比如划分为512或1024张表,保证可支撑未来一段时间的数据量,再根据负载情况将表迁移到其他数据库中。扩容时通常采用翻倍扩容,避免数据映射全部被打乱导致全量迁移的情况。

在这里插入图片描述

节点取余的特点总结
  • 客户端分片:哈希 + 取余(非常简单)。
  • 节点伸缩:数据节点关系变化,导致数据迁移。
  • 迁移数量和添加节点数量有关:建议翻倍扩容;会降低性能,增加底层数据源访问而造成压力。
2、一致性哈希分区(节点取余分区的优化)

每个节点分配一个token,范围一般在0~ 2 23 2^{23} ,这些token构成一个哈希环。数据读写 执行节点查找操作时,先根据key计算hash值,然后顺时针找到第一个大于等于该哈希值的token节点。

在这里插入图片描述

这种方式相比节点取余最大的好处在于加入和删除节点只影响哈希环中相邻的节点,对其他节点无影响。
在这里插入图片描述

虽然减少了影响,但是还是会存在的一些问题:

  • 加减节点会造成哈希环中部分数据无法命中,需要手动处理或者忽略这部分数据(下图所示),因此一致性哈希常用于缓存场景(上图中 n1~n5 之间的数据无法在 n5 节点访问 [数据漂移],只能通过 n2 节点访问)。
    在这里插入图片描述
  • 当使用少量节点时,节点变化将大范围影响哈希环中数据映射,因此这种方式不适合少量数据节点的分布式方案。
  • 普通的一致性哈希分区在增减节点时需要增加一倍或减去一半节点才能保证数据和负载的均衡。
一致性哈希的特点总结
  • 客户端分片:哈希 + 顺时针(优化取余)。
  • 节点伸缩:只影响邻近节点,但是还是有数据迁移。
  • 翻倍伸缩:保证最小迁移数据和负载均衡。
3、虚拟槽哈希分区
  • 使用分散度良好的哈希函数(例如CRC16)把所有数据映射到一个固定范围的整数集合中,整数定义为槽(slot)。这个范围 一般远远大于节点数。
  • 槽是集群内数据管理和迁移的基本单位。
  • 采用大范围槽的主要目的是为了方便数据拆分和集群扩展。
  • 每个节点会负责一定数量的槽。
  • 客户端管理节点、槽、数据:例如Redis Cluster。

当前集群有5个节点,每个节点平均大约负责3276个槽。由于采用高质量的哈希算法,每个槽所映射的数据通常比较均匀,将数据平均划分到5个 节点进行数据分区。
在这里插入图片描述

虚拟槽分配

Redis Cluser采用虚拟槽分区,所有的键根据哈希函数映射到0~16383整 数槽内,计算公式:slot=CRC16(key)&16383。每一个节点负责维护一部分槽以及槽所映射的键值数据。
在这里插入图片描述

Redis虚拟槽分区的特点总结
  • 解耦数据和节点之间的关系,简化了节点扩容和收缩难度。
  • 节点自身维护槽的映射关系,不需要客户端或者代理服务维护槽分区元数据。
  • 支持节点、槽、键之间的映射查询,用于数据路由、在线伸缩等场景。

猜你喜欢

转载自blog.csdn.net/zx711166/article/details/83346003