LVS + Keepalived 고 가용성 클러스터 배포 (상세한 그림 및 텍스트!)

LVS + Keepalived 고 가용성 클러스터 배포 (상세한 그림 및 텍스트!)

1. LVS + Keepalived 고 가용성 클러스터

1. LVS

Linux 가상 서버

LVS는 실제로 IP 주소 기반의 가상화 된 애플리케이션과 동일하며 IP 주소 및 콘텐츠 요청 배포를 기반으로로드 밸런싱을위한 효율적인 솔루션을 제안합니다.

2. Keepalived 기능 및 역할

자동 장애 조치 지원 (장애 조치)

노드 상태 확인 지원 (Health Checking)

LVS로드 스케줄러 및 노드 서버의 가용성을 확인합니다. 마스터 호스트가 실패하면 백업 노드로 전환하여 정상적인 비즈니스를 보장합니다. 마스터가 실패하면 클러스터에 다시 참여하고 비즈니스는 마스터 노드로 다시 전환됩니다.

3. Keepalived 구현 원칙 분석

  1. Keepalived는 VRRP 핫 백업 프로토콜을 채택하여 Linux 서버의 다중 머신 핫 백업 기능을 실현합니다.
  2. VRRP (Virtual Routing Redundancy Protocol)는 라우터를위한 백업 솔루션입니다.
  3. 여러 라우터가 핫 백업 그룹을 구성하고 공유 가상 IP 주소를 통해 외부에 서비스를 제공합니다.
  4. 동시에 서비스를 제공하는 각 상시 대기 그룹에는 하나의 주 라우터 만 있고 다른 라우터는 중복 상태에 있습니다.
  5. 현재 온라인 라우터에 장애가 발생하면 다른 라우터가 설정된 우선 순위에 따라 가상 IP 주소를 자동으로 인수하고 서비스를 계속 제공합니다.

둘째, LVS-DR의 ARP 문제

ARP 테이블 항목에 따르면 라우터는 새 요청 메시지를 RealServer로 전달하여 Director의 VIP가 무효화되도록합니다.

  • 해결책:

노드 서버를 처리하려면 커널 매개 변수 arp_announce = 2를 설정합니다. 시스템은 IP 패킷의 소스 주소를 사용하여 ARP 요청의 소스 주소를 설정하지 않지만 전송 인터페이스의 IP 주소를 선택합니다.
ARP의 두 가지 문제를 해결하기위한 방법 설정

  • /etc/sysctl.conf 파일 수정
net.ipv4.conf.lo.arp_ignore=1
net.ipv4.conf.lo.arp_announce=2
net.ipv4.conf.all.arp_ignore=1
net.ipv4.conf.all.arp_announce=2

3, LVS로드 밸런싱 DR 모드 클러스터 배포 단계

환경 설정 :

주최자 운영 체제 IP 주소 필요한 도구 / 서비스
메인로드 스케줄러 CentOS7
7-2
ens33 : 192.168.2.4 ipvsadm 、 keepalived
백업로드 스케줄러 CentOS7
7-1
ens33 : 192.168.2.3 ipvsadm 、 keepalived
NFS 서버 CentOS7
7-3
ens33 : 192.168.2.5 rpcbind 、 nfs-utils
웹 노드 서버 1 CentOS7
7-4
192.168.2.6
lo : 0 (VIP) : 192.168.2.100
rpcbind, nfs-utils, httpd
웹 노드 서버 2 CentOS7
7-5
192.168.2.7
lo : 0 (VIP) : 192.168.2.100
rpcbind, nfs-utils, httpd
고객 윈도우 10 192.168.2.10

노트 :

1) 서버, 스케줄러 및 클라이언트는 동일한 MAC 주소를 가져서는 안됩니다. 그렇지 않으면 오류가보고됩니다. 동일한 LAN에서는 게이트웨이와 DNS가 필요하지 않습니다.

2) 여기의 스케줄러에는 더 이상 가상 네트워크 카드 ens33 : 0이 필요하지 않습니다.

여기에 사진 설명 삽입

1. 공유 스토리지 배포

NFS 서버 : ens33 : 192.168.2.5

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

yum -y install nfs-utils rpcbind

systemctl start rpcbind.service
systemctl start nfs.service
systemctl enable nfs.service
systemctl enable rpcbind.service

mkdir /opt/test1
mkdir /opt/test2

chmod 777 /opt/test1
chmod 777 /opt/test2

vim /etc/exports
/opt/test1 192.168.2.0/24(rw,sync)
/opt/test2 192.168.2.0/24(rw,sync)

exportfs -rv

여기에 사진 설명 삽입

2. 노드 서버 구성

웹 노드 서버 1 : ens33 : 192.168.2.6 lo : 0 (VIP) : 192.168.2.100
웹 노드 서버 2 : ens33 : 192.168.2.7 lo : 0 (VIP) : 192.168.2.100
다음은 두 서버의 동일한 구성입니다.

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

(1) 가상 IP 주소 구성 (VIP : 192.168.2.100)

#此地址仅用做发送 Web 响应数据包的源地址,并不需要监听客户机的访问请求(改由调度器监听并分发)。
#因此使用虚接口 lo:0 来承载 VIP 地址,并为本机添加一条路有记录,将访问 VIP 的数据限制在本地,以避免通信紊乱。

vim /etc/sysconfig/network-scripts/ifcfg-lo:0
DEVICE=lo:0
IPADDR=192.168.2.100
NETMASK=255.255.255.255
ONBOOT=yes

ifup lo:0
ifconfig lo:0

#设置临时的路由,重启失效;禁锢路由
route add -host 192.168.2.100 dev lo:0
#查看路由
route -n

#开机自动添加路由,生产环境应该用这个
vim /etc/rc.local
/sbin/route add -host 192.168.2.100 dev lo:0
chmod +x /etc/rc.d/rc.local

여기에 사진 설명 삽입

(2) 커널의 ARP 응답 매개 변수 조정

vim /etc/sysctl.conf
......
net.ipv4.conf.lo.arp_ignore = 1 #系统只响应目的IP为本地IP的ARP请求
net.ipv4.conf.lo.arp_announce = 2 #系统不使用IP包的源地址来设置ARP请求的源地址,而选择发送接口的IP地址
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2

sysctl -p

yum install -y nfs-utils rpcbind httpd
systemctl start rpcbind
systemctl enable rpcbind
systemctl start httpd.service
systemctl enable httpd.service

여기에 사진 설명 삽입

(3) 두 웹 서버의 처음 두 단계는 동일하지만 다음 구성은 동일하지 않습니다.

Web1 서버 : ens33 : 192.168.2.6 lo : 0 (VIP) : 192.168.2.100

showmount -e 192.168.2.5

mount.nfs 192.168.2.5:/opt/test1 /var/www/html
df -h
echo 'this is test1 web!' > /var/www/html/index.html

여기에 사진 설명 삽입

Web2 서버 : ens33 : 192.168.2.7 lo : 0 (VIP) : 192.168.2.100

showmount -e 192.168.2.5

mount.nfs 192.168.2.5:/opt/test2 /var/www/html
df -h
echo 'this is test2 web!' > /var/www/html/index.html

여기에 사진 설명 삽입

3.로드 스케줄러 구성

메인로드 스케줄러 : 192.168.2.4 lo : 0 (VIP) : 192.168.2.100

(1) 방화벽을 끄고 ip_vs 모듈을로드합니다.

systemctl stop firewalld.service 
systemctl disable firewalld.service 
setenforce 0

#加载ip_vs模块,并安装ipvsadm工具
modprobe ip_vs
cat /proc/net/ip_vs
yum install -y ipvsadm

여기에 사진 설명 삽입

(2) proc 응답 매개 변수 조정

#由于 LVS 负载调度器和各节点需要共用 VIP 地址,应该关闭Linux 内核的重定向参数响应,不充当路由器,
vim /etc/sysctl.conf
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0

sysctl -p

여기에 사진 설명 삽입

(3) 부하 분산 전략 구성

메인로드 스케줄러 : 192.168.2.4

ipvsadm-save > /etc/sysconfig/ipvsadm
或者
ipvsadm --save > /etc/sysconfig/ipvsadm

systemctl start ipvsadm.service

#清除原有策略
ipvsadm -C
ipvsadm -A -t 192.168.2.4:80 -s rr
ipvsadm -a -t 192.168.2.4:80 -r 192.168.2.6:80 -g #如果这里是隧道模式,直接将-g替换成-i即可
ipvsadm -a -t 192.168.2.4:80 -r 192.168.2.7:80 -g

#查看节点状态,Route代表 DR模式
ipvsadm -ln

여기에 사진 설명 삽입

백업로드 스케줄러 : 192.168.2.3

ipvsadm-save > /etc/sysconfig/ipvsadm
或者
ipvsadm --save > /etc/sysconfig/ipvsadm

systemctl start ipvsadm.service

#清除原有策略
ipvsadm -C
ipvsadm -A -t 192.168.2.3:80 -s rr
ipvsadm -a -t 192.168.2.3:80 -r 192.168.2.6:80 -g #如果这里是隧道模式,直接将-g替换成-i即可
ipvsadm -a -t 192.168.2.3:80 -r 192.168.2.7:80 -g

#查看节点状态,Route代表 DR模式
ipvsadm -ln

여기에 사진 설명 삽입

(4) keeplived 구성

주로드 스케줄러 : 192.168.2.4
대기로드 스케줄러 : 192.168.2.3

yum -y install keepalived
cd /etc/keepalived/
cp keepalived.conf keepalived.conf.bak

여기에 사진 설명 삽입

구성 파일 수정

vim keepalived.conf
......
#定义全局参数
global_defs {

#10行修改,邮件服务指向本地
smtp_server 127.0.0.1

#12行修改,指定服务器(路由器)的名称,主备服务器名称须不同,主为LVS_01,备为LVS_02
router_id LVS_01

#14行修改;加注释;vrrp_strict:严格遵守VRRP协议。下列情况将会阻止启动Keepalived:1. 没有VIP地址。2. 单播邻居。3. 在VRRP版本2中有IPv6地址。
#vrrp_strict

}
#定义VRRP热备实例参数
vrrp_instance VI_1 {

#20行修改;指定热备状态,主为MASTER,备为BACKUP
state MASTER

#21行修改;指定承载vip地址的物理接口
interface ens33

#22行修改;指定虚拟路由器的ID号,每个热备组保持一致
virtual_router_id 10

#23行修改;指定优先级,数值越大优先级越高,主为100,备为90
priority 100
#通告间隔秒数(心跳频率)
advert_int 1
#定义认证信息,每个热备组保持一致
authentication {
#认证类型
auth_type PASS

#27行修改,指定验证密码,主备服务器保持一致
auth_pass 123456
}

#指定群集vip地址
virtual_ipaddress {
192.168.2.100
}
}

#34行修改,指定虚拟服务器地址(VIP)、端口,定义虚拟服务器和Web服务器池参数
virtual_server 192.168.2.100 80 {
#健康检查的间隔时间(秒)
delay_loop 6
#指定调度算法,轮询(rr)
lb_algo rr
#37行修改,指定群集工作模式,直接路由(DR)
lb_kind DR
#连接保持时间(秒)
persistence_timeout 50
#应用服务采用的是TCP协议
protocol TCP

#41行修改,指定第一个Web节点的地址、端口
real_server 192.168.2.6 80 {
#节点的权重
weight 1

#43行删除,添加以下健康检查方式
	    TCP_CHECK {
	    #添加检查的目标端口
		connect_port 80
		#添加连接超时(秒)
		connect_timeout 3
		#添加重试次数
		nb_get_retry 3
		#添加重试间隔
		delay_before_retry 4
	}
}

#添加第二个 Web节点的地址、端口
real_server 192.168.2.7 80 {
    weight 1
    TCP_CHECK {
		connect_port 80
		connect_timeout 3
		nb_get_retry 3
		delay_before_retry 4
	}
}
}
#删除后面多余的配置

systemctl start keepalived
#查看虚拟网卡vip
ip addr show dev ens33

수정 후 서비스 시작

여기에 사진 설명 삽입

구성 매개 변수가 세 위치에서만 다르기 때문에 구성 파일을 원격으로 대기 스케줄러에 복사하고 대기 스케줄러에서 다음 매개 변수를 수정하십시오.

#12行修改,指定服务器(路由器)的名称,主备服务器名称须不同,主为LVS_01,备为LVS_02
router_id LVS_02
#20行修改;指定热备状态,主为MASTER,备为BACKUP
state BACKUP
#23行修改;指定优先级,数值越大优先级越高,主为100,备为90
priority 90

두로드 스케줄러를 구성하고 시작한 후 "ip addr show dev ens33"을 사용하여 가상 네트워크 카드 vip를 확인합니다.

주로드 스케줄러 : 192.168.2.4에서

여기에 사진 설명 삽입

백업로드 스케줄러 : 192.168.2.3

여기에 사진 설명 삽입

4. 테스트 검증

(1) 클라이언트에서 http://192.168.2.100/을 방문하여 테스트로드 밸런스가 성공적으로 새로 고쳐지고 폴링 표시

여기에 사진 설명 삽입

(2) 메인 디스패치 서버의 keepalived.service 서비스를 종료하고 테스트합니다.

여기에 사진 설명 삽입

Windows 10 클라이언트가 http://192.168.2.100/에 다시 액세스하면 여전히 작동하며 폴링 표시

여기에 사진 설명 삽입

추천

출처blog.csdn.net/qq_35456705/article/details/113665705