redis5.0版本集群搭建

模式简介

Redis 集群是一个可以在多个 Redis 节点之间进行数据共享的设施(installation)。 

Redis 集群不支持那些需要同时处理多个键的 Redis 命令,比如:mget, 因为执行这些命令需要在多个 Redis 节点之间移动数据, 并且在高负载的情况下, 这些命令将降低 Redis 集群的性能, 并导致不可预测的行为。 

Redis 集群通过分区(partition)来提供一定程度的可用性(availability): 即使集群中有一部分节点失效或者无法进行通讯, 集群也可以继续处理命令请求。

Redis 集群提供了以下两个好处: 

将数据自动切分(split)到多个节点的能力。

当集群中的一部分节点失效或者无法进行通讯时, 仍然可以继续处理命令请求的能力。

redis集群TCP端口

每个Redis集群中的节点都需要打开两个TCP连接。一个连接用于正常的给Client提供服务,比如6379,还有一个额外的端口(通过在这个端口号上加10000)作为数据端口,比如16379。第二个端口(本例中就是16379)用于集群总线,这是一个用二进制协议的点对点通信信道。这个集群总线(Cluster bus)用于节点的失败侦测、配置更新、故障转移授权,等等。客户端从来都不应该尝试和这些集群总线端口通信,它们只应该和正常的Redis命令端口进行通信。注意,确保在你的防火墙中开放着两个端口,否则,Redis集群节点之间将无法通信。

命令端口和集群总线端口的偏移量总是10000。

redis集群数据共享

Redis 集群使用数据分片(sharding)而非一致性哈希(consistency hashing)来实现: 一个 Redis 集群包含 16384 个哈希槽(hash slot), 数据库中的每个键都属于这 16384 个哈希槽的其中一个, 集群使用公式 CRC16(key) % 16384 来计算键 key 属于哪个槽, 其中 CRC16(key) 语句用于计算键 key 的 CRC16 校验和 。

集群中的每个节点负责处理一部分哈希槽。 举个例子, 一个集群可以有三个哈希槽, 其中:

  •   节点 A 负责处理 0 号至 5500 号哈希槽。
  •   节点 B 负责处理 5501 号至 11000 号哈希槽。
  •   节点 C 负责处理 11001 号至 16384 号哈希槽。 

这种将哈希槽分布到不同节点的做法使得用户可以很容易地向集群中添加或者删除节点。 比如说:

如果用户将新节点 D 添加到集群中, 那么集群只需要将节点 A 、B 、 C 中的某些槽移动到节点 D 就可以了。

与此类似, 如果用户要从集群中移除节点 A , 那么集群只需要将节点 A 中的所有哈希槽移动到节点 B 和节点 C , 然后再移除空白(不包含任何哈希槽)的节点 A 就可以了。

因为将一个哈希槽从一个节点移动到另一个节点不会造成节点阻塞, 所以无论是添加新节点还是移除已存在节点, 又或者改变某个节点包含的哈希槽数量, 都不会造成集群下线。

Redis 集群中的主从复制

为了使得集群在一部分节点下线或者无法与集群的大多数(majority)节点进行通讯的情况下, 仍然可以正常运作, Redis 集群对节点使用了主从复制功能: 集群中的每个节点都有 1 个至 N 个副本(replica), 其中一个副本为主节点(master), 而其余的 N-1 个副本为从节点(slave)。

在之前列举的节点 A 、B 、C 的例子中, 如果节点 B 下线了, 那么集群将无法正常运行, 因为集群找不到节点来处理 5501 号至 11000 号的哈希槽。

另一方面, 假如在创建集群的时候(或者至少在节点 B 下线之前), 我们为主节点 B 添加了从节点 B1 , 那么当主节点 B 下线的时候, 集群就会将 B1 设置为新的主节点, 并让它代替下线的主节点 B , 继续处理 5501 号至 11000 号的哈希槽, 这样集群就不会因为主节点 B 的下线而无法正常运作了。

不过如果节点 B 和 B1 都下线的话, Redis 集群还是会停止运作

Redis 集群的一致性保证(guarantee)

Redis 集群不保证数据的强一致性(strong consistency): 在特定条件下, Redis 集群可能会丢失已经被执行过的写命令。

使用异步复制(asynchronous replication)是 Redis 集群可能会丢失写命令的其中一个原因。 考虑以下这个写命令的例子:

  1. 客户端向主节点 B 发送一条写命令。
  2. 主节点 B 执行写命令,并向客户端返回命令回复。
  3. 主节点 B 将刚刚执行的写命令复制给它的从节点 B1 、 B2 和 B3 。

主节点对命令的复制工作发生在返回命令回复之后, 因为如果每次处理命令请求都需要等待复制操作完成的话, 那么主节点处理命令请求的速度将极大地降低 —— 我们必须在性能和一致性之间做出权衡。

Redis 集群另外一种可能会丢失命令的情况是, 集群出现网络分裂(network partition), 并且一个客户端与至少包括一个主节点在内的少数(minority)实例被孤立。

举个例子, 假设集群包含 A 、 B 、 C 、 A1 、 B1 、 C1 六个节点, 其中 A 、B 、C 为主节点, 而 A1 、B1 、C1 分别为三个主节点的从节点, 另外还有一个客户端 Z1 。

假设集群中发生网络分裂, 那么集群可能会分裂为两方, 大多数(majority)的一方包含节点 A 、C 、A1 、B1 和 C1 , 而少数(minority)的一方则包含节点 B 和客户端 Z1 。

在网络分裂期间, 主节点 B 仍然会接受 Z1 发送的写命令:

  • 如果网络分裂出现的时间很短, 那么集群会继续正常运行;
  • 但是, 如果网络分裂出现的时间足够长, 使得大多数一方将从节点 B1 设置为新的主节点, 并使用 B1 来代替原来的主节点 B , 那么 Z1 发送给主节点 B 的写命令将丢失。

注意, 在网络分裂出现期间, 客户端 Z1 可以向主节点 B 发送写命令的最大时间是有限制的, 这一时间限制称为节点超时时间(node timeout), 是 Redis 集群的一个重要的配置选项:

  • 对于大多数一方来说, 如果一个主节点未能在节点超时时间所设定的时限内重新联系上集群, 那么集群会将这个主节点视为下线, 并使用从节点来代替这个主节点继续工作。
  • 对于少数一方, 如果一个主节点未能在节点超时时间所设定的时限内重新联系上集群, 那么它将停止处理写命令, 并向客户端报告错误。

集群模式安装

主机名 ip地
redis01 10.0.0.10
redis02 10.0.0.60
redis03 10.0.0.61
redis04 10.0.0.70
redis05 10.0.0.71
redis06 10.0.0.72

修改连接数限制

# vim /etc/security/limits.conf

* soft noproc 10240
* hard noproc 10240
* soft nofile 65535
* hard nofile 65535

免秘钥认证

  # yum install -y sshpass

# ssh-keygen -t rsa -f /root/.ssh/id_rsa -P ""

  # for i in redis0{1..6};do sshpass -p123456 ssh-copy-id -i /root/.ssh/id_rsa.pub  "-o StrictHostKeyChecking=no" $i;done

分发配置文件 

redis单机搭建 https://www.cnblogs.com/zh-dream/p/12094075.html 

将单机redis搭建 的配置文件分发到各个节点:
# for i in 10.0.0.{61,60,70,71,72};do scp -r /data/module/* $i:/data/module/ ;done

修改绑定端口

# sed -ri "s/^bind 10.*/bind `hostname -I`/" /data/module/redis-5.0.0/etc/redis.conf

修改环境变量

# echo "export PATH=$PATH:/data/module/redis-5.0.0/bin" >> /etc/profile
# . /etc/profile

建立数据目录

# for i in redis0{2..6};do ssh $i "mkdir /data/module/redis-5.0.0/data" ;done

# for i in redis0{2..6};do ssh $i "mkdir /data/module/redis-5.0.0/logs" ;done

 创建集群

[root@redis01 etc]# redis-cli --cluster create 10.0.0.10:6379 10.0.0.60:6379 10.0.0.61:6379 10.0.0.70:6379 10.0.0.71:6379 10.0.0.72:6379 --cluster-replicas 1 -a 123456
Warning: Using a password with '-a' or '-u' option on the command line interface may not be safe.
>>> Performing hash slots allocation on 6 nodes...
Master[0] -> Slots 0 - 5460
Master[1] -> Slots 5461 - 10922
Master[2] -> Slots 10923 - 16383
Adding replica 10.0.0.70:6379 to 10.0.0.10:6379
Adding replica 10.0.0.71:6379 to 10.0.0.60:6379
Adding replica 10.0.0.72:6379 to 10.0.0.61:6379
M: bb273c158818c55f8f3ad0d0b2d971157fd56c90 10.0.0.10:6379
   slots:[0-5460] (5461 slots) master
M: 5a6291fd3fb00119ae4828f5b86554fe4f35a1a7 10.0.0.60:6379
   slots:[5461-10922] (5462 slots) master
M: fc80f137ccb33e09fe33f2e3364de00bbbc4e888 10.0.0.61:6379
   slots:[10923-16383] (5461 slots) master
S: 312b3228330eff446e5c9c159182bcdcd61353c6 10.0.0.70:6379
   replicates bb273c158818c55f8f3ad0d0b2d971157fd56c90
S: 97c7b9789303a8f1eb8f8516ab0d598c304635b8 10.0.0.71:6379
   replicates 5a6291fd3fb00119ae4828f5b86554fe4f35a1a7
S: ad58497a499e41df39d2f597e64beb046c5dc756 10.0.0.72:6379
   replicates fc80f137ccb33e09fe33f2e3364de00bbbc4e888
Can I set the above configuration? (type 'yes' to accept): yes
>>> Nodes configuration updated
>>> Assign a different config epoch to each node
>>> Sending CLUSTER MEET messages to join the cluster
Waiting for the cluster to join
...
>>> Performing Cluster Check (using node 10.0.0.10:6379)
M: bb273c158818c55f8f3ad0d0b2d971157fd56c90 10.0.0.10:6379
   slots:[0-5460] (5461 slots) master
   1 additional replica(s)
S: 97c7b9789303a8f1eb8f8516ab0d598c304635b8 10.0.0.71:6379
   slots: (0 slots) slave
   replicates 5a6291fd3fb00119ae4828f5b86554fe4f35a1a7
S: 312b3228330eff446e5c9c159182bcdcd61353c6 10.0.0.70:6379
   slots: (0 slots) slave
   replicates bb273c158818c55f8f3ad0d0b2d971157fd56c90
M: 5a6291fd3fb00119ae4828f5b86554fe4f35a1a7 10.0.0.60:6379
   slots:[5461-10922] (5462 slots) master
   1 additional replica(s)
M: fc80f137ccb33e09fe33f2e3364de00bbbc4e888 10.0.0.61:6379
   slots:[10923-16383] (5461 slots) master
   1 additional replica(s)
S: ad58497a499e41df39d2f597e64beb046c5dc756 10.0.0.72:6379
   slots: (0 slots) slave
   replicates fc80f137ccb33e09fe33f2e3364de00bbbc4e888
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.

猜你喜欢

转载自www.cnblogs.com/zh-dream/p/12249767.html