企业负载均衡——lvs负载均衡的基础知识(工作在四层)(3种模式+10种调度算法)

1.什么叫lvs

LVS(Linux Virtual Server)即Linux虚拟服务器,是由章文嵩博士主导的开源负载均衡项目,目前LVS已经被集成到Linux内核模块中

该项目在Linux内核中实现了基于IP的数据请求负载均衡调度方案,
其体系结构下图所示

(1)终端互联网用户从外部访问公司的外部负载均衡服务器,把终端用户的Web请求会发送给LVS调度器
(2)调度器根据自己预设的算法决定将该请求发送给后端的某台Web服务器。比如,轮询算法可以将外部的请求平均分发给后端的所有服务器,终端用户访问LVS调度器虽然会被转发到后端真实的服务器
但如果真实服务器连接的是相同的存储,提供的服务也是相同的服务,最终用户不管是访问哪台真实服务器
得到的服务内容都是一样的,整个集群对用户而言都是透明的
(3)最后根据LVS工作模式的不同,真实服务器会选择不同的方式将用户需要的数据发送到终端用户

在这里插入图片描述

从上图中可以看出,用户的请求访问WEB资源时,首先到达LVS负载均衡器,再由lvs将用户的请求转给web服务器。
这样做的好处是:可以均衡后端服务器的压力,避免由于同一时间某台服务器的访问压力过大,造成系统瘫痪。

注:FullNAT(访问来源ip跟访问目的ip,效率低,麻烦,要编辑内核的,)以及EnhanceNAT(阿里巴巴,还不成熟)增强nat

2.lvs的优点与缺点

在互联网企业当中,通过LVS提供的负载均衡技术和Linux操作系统实现一个高性能、高可用的服务器群集
它具有良好可靠性、可扩展性和可操作性,从而以低廉的成本实现最优的服务性能

(1)LVS的优点:

  • 高并发连接 :LVS基于内核网络层面工作,有超强的承载能力和并发处理能力,单台LVS负载均衡器,可支持上万并发连接
  • 稳定性强: 是工作在网络4层之上仅作分发之用,这个特点也决定了它在负载均衡软件里的性能最强,稳定性最好,对内存和cpu资源消耗极低
  • 成本低廉 :硬件负载均衡器少则十几万,多则几十万上百万,LVS只需一台服务器和就能免费部署使用,性价比极高
  • 配置简单: LVS配置非常简单,仅需几行命令即可完成配置,也可写成脚本进行管理
  • 支持多种算法: 支持多种论调算法,可根据业务场景灵活调配进行使用
  • 支持多种工作模型: 可根据业务场景,使用不同的工作模式来解决生产环境请求处理问题
  • 应用范围广: 因为LVS工作在4层,所以它几乎可以对所有应用做负载均衡,包括http、数据库、DNS、ftp服务等

(2)缺点:

工作在4层,不支持7层规则修改,机制过于庞大,不适合小规模应用

3.lvs的组成与相关术语

lvs组成:ipvs+ipvsadm

ipvs:是一段代码工作在内核地址空间,是实现真正的调度的代码
ipvsadm:是另一段工作在用户空间,负责编写ipvs的内核框架编写规则,
定义谁是集群服务,谁是后端真实的服务器
DS:指的是前端负载均衡器的节点(调度器)
RS:指的是后端真实的工作服务器
VIP:向外部直接面向用户请求,作为用户请求的目标IP
DIP:主要用于和内部主机通信的IP地址
RIP:后端服务器的IP地址
CIP:访问客户端的IP 地址

4.lvs三种工作模式与原理

  • (1)NAT(Network Address Translation)即网络地址转换,其作用是通过数据报头的修改

使得位于企业内部的私有IP地址可以访问外网,以及外部用用户可以访问位于公司内部的私有IP主机

VS/NAT工作模式拓扑结构如下图所示
LVS负载调度器可以使用两块网卡配置不同的IP地址
eth0设置为私钥IP与内部网络通过交换设备相互连接,
eth1设备为外网IP与外部网络联通

在这里插入图片描述
工作流程:
(1):用户通过互联网DNS服务器解析到公司负载均衡设备上面的外网地址,相对于真实服务器而言,LVS外网IP又称VIP(Virtual IP Address),用户通过访问VIP,即可连接后端的真实服务器(Real Server),而这一切对用户而言都是透明的,用户以为自己访问的就是真实服务器,但他并不知道自己访问的VIP仅仅是一个调度器,也不清楚后端的真实服务器到底在哪里、有多少真实服务器。
(2):用户将请求发送至124.126.147.168,此时LVS将根据预设的算法选择后端的一台真实服务器(192.168.0.1~192.168.0.3),将数据请求包转发给真实服务器,并且在转发之前LVS会修改数据包中的目标地址以及目标端口,目标地址与目标端口将被修改为选出的真实服务器IP地址以及相应的端口。
(3)真实的服务器将响应数据包返回给LVS调度器,调度器在得到响应的数据包后会将源地址和源端口修改为VIP及调度器相应的端口,修改完成后,由调度器将响应数据包发送回终端用户,另外,由于LVS调度器有一个连接Hash表,该表中会记录连接请求及转发信息,当同一个连接的下一个数据包发送给调度器时,从该Hash表中可以直接找到之前的连接记录,并根据记录信息选出相同的真实服务器及端口信息

缺点:返回的数据包再次经过lvs调度器,容易出现lvs的单点突发问题

  • (2)基于TUN的LVS负载均衡(lvs的TUN模式、ip隧道模式)

在LVS(NAT)模式的集群环境中,由于所有的数据请求及响应的数据包都需要经过LVS调度器转发 也就是客户端通过请求资源,最终资源也是调度器返回给客户端的,有回送的数据包

如果后端服务器的数量大于10台,则调度器就会成为整个集群环境的瓶颈我们知道,数据请求包往往远小于响应数据包的大小,因为响应数据包中包含有客户需要的具体数据,

所以LVS(TUN)的思路就是将请求与响应数据分离 让调度器仅处理数据请求,而让真实服务器响应数据包直接返回给客户端,不再由调度器往返资源

VS/TUN工作模式拓扑结构如下图所示
在这里插入图片描述
其中,IP隧道(IP tunning)是一种数据包封装技术,它可以将原始数据包封装并添加新的包头(内容包括新的源地址及端口、目标地址及端口),从而实现将一个目标为调度器的VIP地址的数据包封装,通过隧道转发给后端的真实服务器(Real Server),通过将客户端发往调度器的原始数据包封装,并在其基础上添加新的数据包头(修改目标地址为调度器选择出来的真实服务器的IP地址及对应口),LVS(TUN)模式要求真实服务器可以直接与外部网络连接,真实服务器在收到请求数据包后直接给客户端主机响应数据。

缺点:在LVS(TUN)模式下,由于需要在LVS调度器与真实服务器之间创建隧道连接,这同样会增加服务器的负担

  • (3)基于DR的LVS负载均衡(DR模式——直接路由模式)
    与LVS(TUN)类似,DR模式也叫直接路由模式,其体系结构如下图所示:
    在这里插入图片描述
    该模式中LVS依然仅承担数据的入站请求以及根据算法选出合理的真实服务器,最终由后端真实服务器负责将响应数据包发送返回给客户端
    与隧道模式不同的是,直接路由模式(DR模式)要求调度器与后端服务器必须在同一个局域网内

VIP地址需要在调度器与后端所有的服务器间共享,因为最终的真实服务器给客户端回应数据包时需要设置源IP为VIP地址

在VS/DR 中,调度器根据各个服务器的负载情况,动态地选择一台服务器,不修改也不封装IP报文,而是将数据帧的MAC地址改为选出服务器的MAC地址,再将修改后 的数据帧在与服务器组的局域网上发送。因为数据帧的MAC地址是选出的服务器,所以服务器肯定可以收到这个数据帧,从中可以获得该IP报文。当服务器发现 报文的目标地址VIP是在本地的网络设备上,服务器处理这个报文,然后根据路由表将响应报文直接返回给客户。

(1)假设client,director,vip,realServer的ip及mac地址如下
在这里插入图片描述(2)client向vip发起请求,director接收到请求,ip包头的信息如下
在这里插入图片描述
(3)LVS根据负载均衡算法,选择一台realServer,修改dst mac地址为realServer的mac地址,将数据包转发到局域网,此时ip包头信息如下
在这里插入图片描述
(4)realServer接收到包,拆开后发现目标IP(VIP)与本地匹配,于是处理这个报文。随后重新封装报文,发送到局域网,IP包头及数据帧头信息如下
在这里插入图片描述
(5):如果,通过路由将包路由到client
注意事项
a. LVS必须与realServer在同一个局域网,因为LVS收到数据包后,只修改了dst mac地址,然后广播出去,如果LVS与realServer不在统一网段,realServer永远收不到数据包
b. LVS-DR不需要路由转发,同一局域网内,不经过路由
c. realServer需要配置 vip

5.LVS负载均衡的10种调度算法

根据前面的介绍,我们了解了LVS的三种工作模式,但不管实际环境中采用的是哪种模式
调度算法进行调度的策略与算法都是LVS的核心技术
因为只有通过调度算法才可以实现后端服务器之间真正意义上的均衡,缓解企业服务器的压力,提高用户的访问效率
LVS在内核中主要实现了以下十种调度算法

(1)轮询调度算法
轮询调度(Round Robin 简称’RR’)算法就是按依次循环的方式将请求调度到不同的服务器上
该算法最大的特点就是实现简单
轮询算法假设所有的服务器处理请求的能力都一样的,调度器会将所有的请求平均分配给每个真实服务器
俗话说:你一个,我一个(web1接收一个访问,web2接收一个访问,这样轮询)

(2)加权轮询调度算法
加权轮询(Weight Round Robin 简称’WRR’)算法主要是对轮询算法的一种优化与补充,LVS会考虑每台服务器的性能
并给每台服务器添加一个权值,如果服务器A的权值为1,服务器B的权值为2
则调度器调度到服务器B的请求会是服务器A的两倍,权值越高的服务器,处理的请求越多
俗话说:拿钱多的干的活就多(哪个服务器性能好哪个服务器就多接受客户的请求)

(3)最小连接调度算法
最小连接调度(Least Connections 简称’LC’)算法是把新的连接请求分配到当前连接数最小的服务器
最小连接调度是一种动态的调度算法,它通过服务器当前活跃的连接数来估计服务器的情况
调度器需要记录各个服务器已建立连接的数目,当一个请求被调度到某台服务器,其连接数加1;当连接中断或者超时,其连接数减1。
俗话说:谁比较闲就让谁干活
集群系统的真实服务器具有相近的系统性能,采用最小连接调度算法可以比较好地均衡负载

(4)加权最小连接调度算法
加权最少连接(Weight Least Connections 简称’WLC’)算法是最小连接调度的超集,各个服务器相应的权值表示其处理性能
服务器的缺省权值为1,系统管理员可以动态地设置服务器的权值
加权最小连接调度在调度新连接时尽可能使服务器的已建立连接数和其权值成比例
调度器可以自动问询真实服务器的负载情况,并动态地调整其权值
俗话说:根据实际情况给后端服务器分配任务

(5)基于局部的最少连接算法
基于局部的最少连接调度(Locality-Based Least Connections 简称’LBLC’)算法是针对请求报文的目标IP地址的负载均衡调度
目前主要用于Cache集群系统,因为在Cache集群客户请求报文的目标IP地址是变化的
这里假设任何后端服务器都可以处理任一请求,算法的设计目标是在服务器的负载基本平衡情况下
将相同目标IP地址的请求调度到同一台服务器,来提高各台服务器的访问局部性和Cache命中率,从而提升整个集群系统的处理能力
LBLC调度算法先根据请求的目标IP地址找出该目标IP地址最近使用的服务器,若该服务器是可用的且没有超载,将请求发送到该服务器
若服务器不存在或该服务器超载且有服务器处于一半的工作负载,则使用’最少连接’的原则选出一个可用的服务器,将请求发送到服务器

(6)带复制的基于局部性的最少连接算法
带复制的基于局部性的最少连接(Locality-Based Least Connections with Replication 简称’LBLCR’)算法也是针对目标IP地址的负载均衡
目前主要用于Cache集群系统,它与LBLC算法不同之处是它要维护从一个目标IP地址到一组服务器的映射
而LBLC算法维护从一个目标IP地址到一台服务器的映射。按’最小连接’原则从该服务器组中选出一一台服务器
若服务器没有超载,将请求发送到该服务器;若服务器超载,则按’最小连接’原则从整个集群中选出一台服务器
将该服务器加入到这个服务器组中,将请求发送到该服务器
同时,当该服务器组有一段时间没有被修改,将最忙的服务器从服务器组中删除,以降低复制的程度

(7)目标地址散列调度算法
目标地址散列调度(Destination Hashing 简称’DH’)算法先根据请求的目标IP地址
作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若服务器是可用的且并未超载,将请求发送到该服务器,否则返回空

(8)源地址散列调度算法
源地址散列调度(Source Hashing 简称’SH’)算法先根据请求的源IP地址
作为散列键(Hash Key)从静态分配的散列表找出对应的服务器
若该服务器是可用的且并未超载,将请求发送到该服务器,否则返回空
它采用的散列函数与目标地址散列调度算法的相同,它的算法流程与目标地址散列调度算法的基本相似

(9)最短的期望的延迟算法
最短的期望的延迟调度(Shortest Expected Delay 简称’SED’)算法基于WLC算法
举个例子吧,ABC三台服务器的权重分别为1、2、3
那么如果使用WLC算法的话一个新请求进入时它可能会分给ABC中的任意一个,使用SED算法后会进行一个运算
A:(1+1)/1=2 B:(1+2)/2=3/2 C:(1+3)/3=4/3 就把请求交给得出运算结果最小的服务器

(10)最少队列调度
最少队列调度(Never Queue 简称’NQ’)算法,无需队列
如果有realserver的连接数等于0就直接分配过去,不需要在进行SED运算

发布了111 篇原创文章 · 获赞 0 · 访问量 2532

猜你喜欢

转载自blog.csdn.net/qq_42024433/article/details/104775002