LVS负载均衡群集理论+LVS-NAT部署实操——超详细!!!

一、理解负载均衡群集的原理

1.1、企业群集应用概述

■ 群集的含义

  • Cluster,集群、群集
  • 由多台主机构成,但对外之表现为一个整体

■问题

  • 互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器力不从心

■解决方法

  • 使用价格昂贵的小型机、大型机
  • 使用普通服务器构建服务群集

1.2、企业群集分类

■根据群己所针对的目标差异,可分为三种类型

  • 负载均衡群集
  • 高可用群集
  • 高性能运算群集

■负载均衡群集

  • 提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体性能。
  • LB的负载分配依赖于主节点的分流算法。

■高可用群集

  • 提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果。
  • HA的工作方式包括双工和主从两种模式。

■高性能运算群集

  • 提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力。
  • 高性能依赖于“分布式运算”、“并行计算”,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力。

1.3、负载均衡群集架构

■负载均衡的架构

  • 第一层,负载调度器(根据需求,选择双工主从
  • 第二层,服务器池(根据客户需求选择可用区)
  • 第三层,共享存储(内容重分发)

■负载均衡的结构

在这里插入图片描述

1.4、负载均衡群集工作模式分析

■负载均衡群集是目前企业用的最多的群集类型
■群集的负载调度技术有三种工作模式

  • 地址转换
  • IP隧道
  • 直接路由

1.4.1、NAT模式

■地址转换

  • Network Address Translation,简称NAT模式。
  • 类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口。
  • 服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式。

1.4.2、TUN模式

■IP隧道

  • lPTunnel,简称TUN模式。
  • 采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的lnternet连接直接回应客户机,而不再经过负载调度器。
  • 服务器节点分散在互联网中的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信。

1.4.3、DR模式

■直接路由

  • Direct Routing,简称DR模式。
  • 采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络。
  • 负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道。

1.5、关于LVS虚拟服务器

■LVS负载调度算法

  • 轮询(Round Robin)
    ◆将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器),均等地对待每一台服务器,而不管服务器实际的连接数和系统负载。
  • 加权轮询(Weighted Round Robin)
    ◆根据调度器设置的权重值来分发请求,权重值高的节点优先获得任务,分配的请求数越多。
    ◆保证性能强的服务器承担更多的访问流量。
  • 最少连接(Least Connections)
    ◆根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点。
  • 加权最少连接(Weighted Least Connections)
    ◆在服务器节点的性能差异较大时,可以为真实服务器自动调整权重。
    ◆性能较高的节点将承担更大比例的活动连接负载。

1.6、使用ipvsdam工具

■LVS群集创建于管理

  1. 创建虚拟服务器
  2. 添加、删除服务器节点
  3. 查看群集及节点情况
  4. 保存负载均衡策略

1.7、NFS共享存储服务

■Network File System,网络文件系统

  • 依赖于RPC(远端过程调用)
  • 需安装nfs-utils、rpcbind软件包
  • 系统服务:nfs、rpcbind
  • 共享配置文件:letc/exports

■使用NFS发布共享资源

  • 安装nfs-utils、rpcbind软件包
  • 设置共享目录
  • 启动NFS服务程序
  • 查看本机发布的NFS共享目录

■在客户机中访问NFS共享资源

  • 安装rpcbind软件包,并启动rpcbind服务
  • 手动挂载NFS共享目录
  • fstab自动挂载设置

二、LVS—NAT部署实战

2.1、案例环境

        LVS调度器作为Web服务器池的网关,LVS两块网卡,分别连接内外网,使用轮询(rr)调度算法。

实验拓扑图:
在这里插入图片描述

2.2、虚拟机配置

调度器
对外公网       20.0.0.21(NAT)                   业务端口:80 路由转发功能
私有网络      192.168.100.21(VM1)

WE1
私有网络      192.168.100.22(VM1)     网关:192.168.100.21

WE2
私有网络      192.168.100.23(VM1)     网关:192.168.100.21

存储
私有网络      192.168.100.24(VM1)     网关:192.168.100.21

2.3、实验步骤

2.3.1、调度器配置

  • 调度器需要两块网卡,在虚拟机添加一块网卡后,对新增的网卡进行配置
[root@localhost ~]# nmcli connection   ## 查看新增网卡的UUID号
NAME   UUID                                  TYPE      DEVICE 
ens33  b3fda006-674b-48c0-b672-594c67beffbd  ethernet  ens33  
ens37  f0f1e5c4-d10a-35b3-b6fe-1da1e9da397f  ethernet  ens37
[root@localhost ~]# cd /etc/sysconfig/network-scripts/
[root@localhost network-scripts]# cp ifcfg-ens33 ifcfg-ens37  ## 把ens33网卡 的配置复制到 ens37网卡
[root@localhost network-scripts]# vi ifcfg-ens37  ## 改成如下配置
NAME=ens37
UUID=f0f1e5c4-d10a-35b3-b6fe-1da1e9da397f
DEVICE=ens37
ONBOOT=yes
IPADDR=192.168.100.21
NETMASK=255.255.255.0
= >> wq  保存
[root@localhost network-scripts]# route -n
-bash: route: command not found     
  • 配置负载调度器SNAT转发规则
[root@localhost network-scripts]# yum install net-tools   ## 没有这条命令就安装
[root@localhost network-scripts]# route -n
Kernel IP routing table  
Destination          Gateway         Genmask         Flags   Metric   Ref  Use   Iface
20.0.0.0             0.0.0.0      255.255.255.0        U      100      0    0    ens33
192.168.100.0        0.0.0.0      255.255.255.0        U      101      0    0    ens37

创建虚拟服务器(注意:NAT模式要两块网卡,调度器的地址是外网口地址)
群集的VIP地址为20.0.0.21,针对TCP 80端口提供负载分流服务,使用的轮询调度算法。对于负载均衡调度器来说,vip必须是本机实际已启用的IP地址
[root@localhost ~]# ipvsadm -A -t 20.0.0.21:80 -s rr 
[root@localhost ~]# ipvsadm -a -t 20.0.0.21:80 -r 192.168.100.22:80 -m  ## 添加服务器节点
[root@localhost ~]# ipvsadm -a -t 20.0.0.21:80 -r 192.168.100.23:80 -m
[root@localhost ~]# ipvsadm -ln   ## 查看节点状态,加个“-n”将以数字形式显示地址、端口信息(实验了,-l和-L是一样的)
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  20.0.0.21:80 rr
  -> 192.168.100.22:80            Masq    1      0          0         
  -> 192.168.100.23:80            Masq    1      0          0  
[root@localhost ~]# ipvsadm-save > /opt/ipvsadm   ## 保存策略
[root@localhost ~]# vi /etc/sysctl.conf   ## 开启调度服务器路由转发功能
net.ipv4.ip_forward = 1  ## 最后一行添加
= >> wq 保存
[root@localhost ~]# sysctl -p   ## 让路由转发生效
net.ipv4.ip_forward = 1

ipvsadm命令选项解析:
-C:清除内核虚拟服务器表中的所有记录
-A:增加一台新的虚拟服务器
-t:说明虚拟服务器提供的是tcp的服务
-s rr:启用轮询算法
-a:在一个虚拟服务器中增加一台新的真实服务器
-r:指定RIP地址及TCP端口
-m:指定LVS的工作模式为NAT模式("-g" 是DR模式,"-i" 是TUN模式)
ipvsadm:启用LVS功能

2.3.2、存储服务器配置

[root@localhost ~]# rpm -q nfs-utils   ## 我的这台虚拟机装过nfs,rpcbind
nfs-utils-1.3.0-0.61.el7.x86_64
[root@localhost ~]# rpm -q rpcbind 
rpcbind-0.2.0-47.el7.x86_64
[root@localhost ~]# yum -y install nfs-utils rpcbind  ## 没装的需要装nfs,rpcbind
 [root@localhost ~]# mkdir /opt/51xit /opt/52xit    ## 创建测试页目录
[root@localhost ~]# ll /opt
total 0
drwxr-xr-x  2 root root 6 Sep 21 01:46 51xit
drwxr-xr-x  2 root root 6 Sep 21 01:46 52xit
drwxr-xr-x. 2 root root 6 Oct 30  2018 rh
[root@localhost ~]# echo 'this is 51xit.top' > /opt/51xit/index.html   ## 分别给测试页输入内容
[root@localhost ~]# echo 'this is 52xit.top' > /opt/52xit/index.html
[root@localhost ~]# cat /opt/51xit/index.html    ## 查看测试页
this is 51xit.top
[root@localhost ~]# cat /opt/52xit/index.html 
this is 52xit.top
[root@localhost ~]# vi /etc/exports    
/opt/51xit 192.168.100.0/24(rw,sync)   ## rw:读写,sync:同步
/opt/52xit 192.168.100.0/24(rw,sync)
= >> wq 保存
[root@localhost ~]# systemctl restart nfs rpcbind   ## 重启服务
[root@localhost ~]# systemctl enable nfs rpcbind   ## 开机自启
Created symlink from /etc/systemd/system/multi-user.target.wants/nfs-server.service to /usr/lib/systemd/system/nfs-server.service.
[root@localhost ~]# showmount -e    ## 说明 nfs共享目录已经共享出去了
Export list for localhost.localdomain:
/opt/52xit 192.168.100.0/24
/opt/51xit 192.168.100.0/24

2.3.3、Web服务器1配置

[root@localhost ~]# yum -y install nfs-utils
[root@localhost ~]# showmount -e 192.168.100.24
Export list for 192.168.100.24:
/opt/52xit 192.168.100.0/24
/opt/51xit 192.168.100.0/24
[root@localhost ~]# yum -y install httpd   ## 安装http,可以使用apache服务
[root@localhost ~]# systemctl start httpd   ## 开启http
[root@localhost ~]# systemctl enable httpd   ## 开机自启http
Created symlink from /etc/systemd/system/multi-user.target.wants/httpd.service to /usr/lib/systemd/system/httpd.service.
[root@localhost ~]# mount 192.168.100.24:/opt/52xit /var/www/html/  ## 创建临时挂载
在浏览器输入 192.168.100.22 测试一下

测试成功
在这里插入图片描述

[root@localhost ~]# vi /etc/fstab   ## 进行永久挂载
192.168.100.24:/opt/51xit /var/www/html nfs defaults,_netdev 0 0   ## _netdev告诉我们挂载的目录需要网络
[root@localhost ~]# init 6  ## 重启虚拟机
这时候在清除浏览器缓存,在浏览器输入 192.168.100.22 测试挂载是否成功
[root@localhost ~]# df -Th  ## 通过这个方式也可以查看是否挂载成功
192.168.100.24:/opt/51xit nfs4       82G  4.0G   78G   5% /var/www/html

测试成功
在这里插入图片描述

2.3.4、Web服务器2配置

[root@localhost ~]# yum -y install nfs-utils
[root@localhost ~]# showmount -e 192.168.100.24
Export list for 192.168.100.24:
/opt/52xit 192.168.100.0/24
/opt/51xit 192.168.100.0/24
[root@localhost ~]# yum -y install httpd   ## 安装http
[root@localhost ~]# systemctl start httpd   ## 开启http
[root@localhost ~]# systemctl enable httpd   ## 开机自启http
Created symlink from /etc/systemd/system/multi-user.target.wants/httpd.service to /usr/lib/systemd/system/httpd.service.
[root@localhost ~]# mount 192.168.100.24:/opt/52xit /var/www/html/  ## 创建临时挂载
在浏览器输入 192.168.100.23 测试一下

测试成功

在这里插入图片描述

root@localhost ~]# vi /etc/fstab   ## 进行永久挂载
192.168.100.24:/opt/52xit /var/www/html nfs defaults,_netdev 0 0   ## _netdev告诉我们挂载的目录需要网络
[root@localhost ~]# init 6  ## 重启虚拟机
这时候在清除浏览器缓存,在浏览器输入 192.168.100.23 测试挂载是否成功
[root@localhost ~]# df -Th  ## 通过这个方式也可以查看是否挂载成功
192.168.100.24:/opt/52xit nfs4       82G  4.0G   78G   5% /var/www/html

测试成功

在这里插入图片描述

2.4、验证实验

  • 我们在浏览器输入 20.0.0.21,刷新两次会分别轮询到不同的两个网页

在这里插入图片描述

在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/m0_46563938/article/details/108705774