使用 Haproxy 搭建 Web 群集(搭建步骤、日志以及参数优化)


前言

  • 目前常见的 Web 集群调度器分为软件和硬件,软件常使用开源的 LVS、Haproxy、Nginx
  • Haproxy 是目前比较流行的一种群集调度工具,同类群集调度工具有很多,比如 LVS 和 Nginx
  • 相比较而言,LVS 性能最好,但是搭建相对复杂,Nginx 的 upstream 模块支持群集功能,但是对群集节点的健康检查功能不强,高并发性能没有 Haproxy 好
  • 硬件一般使用比较多的是 F5,也有很多人使用国内的一些产品,如梭子鱼、绿盟等,有兴趣的同学可以自行查阅

一、Haproxy 应用分析

  1. LVS 在企业应用中抗负载能力很强,但存在不足:
    • LVS 不支持正则处理,不能实现动静分离
    • 对于大型网站,LVS 的实施配置复杂,维护成本相对较高
  2. Haproxy 是一款可提供高可用性、负载均衡、及基于 TCP 和 HTTP 应用的代理的软件
    • 适用于负载大的 Web 站点
    • 运行在硬件上可支持数以万计的并发连接的连接请求

二、负载均衡常用调度算法

LVS、Haproxy、Nginx 最常用的调度算法有三种,如下所述:

1.轮询(RR)

  • RR(Round Robin)算法是最简单最常用的一种算法,即轮询调度
  • 例如:有三个节点 A、B、C,第一个用户访问会被指派到节点 A,第二个用户会被指派到节点 B,第三个用户会被指派带节点 C,第四个用户访问继续指派到节点 A,轮询分配访问请求以实现负载均衡效果
  • 此算法还有一种加权轮询,即根据每个节点的权重轮询分配访问请求

2.最小连接数(LC)

  • LC 算法即最小连接数算法,即根据后端的节点连接数大小动态分配前端请求
  • 例如:有三个节点 A、B、C,各节点的连接数分别为 4、5、6,此时如果有第一个用户连接请求,会被指派到 A 上,A 的连接数变成了 4+1=5,现在为 5、5、6
  • 有第二个用户请求时,会继续被指派到 A 上,连接数变成了 6、5、6
  • 再由新的请求则会指派给 B,连接数变成了 6、6、6,每次将新的请求指派给连接数最小的客户端
  • 由于实际情况下 A、B、C 的连接数会动态释放,很难会出现连接数一样的情况,因此 LC 算法相比较 RR 算法有很大改进,是目前用的比较多的一种算法

3.来源访问(SH)

  • SH(Source Hashing)即基于来源访问调度算法,此算法用于一些有 Session 会话记录在服务器端的场景,可以基于来源的 IP、Cookie 等做群集调度
  • 例如:使用基于源 IP 的群集调度算法,有三个节点 A、B、C,第一个用户的第一次访问被指派到了 A,第二个用户的第一次访问被指派到了 B
  • 当第一个用户的第二次访问时会被继续指派到 A,第二个用户的第二次访问时依旧会被指派的 B
  • 只要负载均衡调度器不重启,第一个用户访问都会被指派到 A,第二个用户访问都会被指派到 B,以实现集群的调度
  • 此调度算法好处是实现会话保持,但某些 IP 访问量非常大时会引起负载不均衡,部分节点访问量超大,影响业务使用

三、搭建步骤

  • 使用三台服务器模拟搭建一套 Web 群集,具体的拓扑图如下所示:
    mark

1.环境

主机 操作系统 IP 地址 主要软件
Haproxy 服务器 CentOS 7 192.168.126.11 haproxy-1.59.tar.gz
Nginx 服务器 1 CentOS 7 192.168.126.12 nginx-1.12.2.tar
Nginx 服务器 2 CentOS 7 192.168.126.13 nginx-1.12.2.tar
客户端 Win10 192.168.126.10 Edge 浏览器

2.编译安装 Nginx 服务器

  1. 搭建 Nginx 1(CentOS 7-2)
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
#关闭防火墙及安全策略

yum -y install pcre-devel zlib-devel gcc gcc-c++ make
#安装响应软件包

useradd -M -s /sbin/nologin nginx
#Nginx服务程序默认以 nobody 身份运行,为其创建专门的用户账号,以便更准确地控制其访问权限

cd /opt
#用 Xshell,把下载好的软件包'拖'至此目录下
tar zxvf nginx-1.12.2.tar.gz
#解压缩

cd nginx-1.12.2/
./configure \
--prefix=/usr/local/nginx \
--user=nginx \
--group=nginx
#配置软件模块

make -j 2 && make install
#编译安装

ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/
#优化路径,以便系统识别nginx的操作命令

echo "Hello test123" > /usr/local/nginx/html/test.html
#建立测试页面

/usr/local/nginx/sbin/nginx
#以绝对路径启动服务

netstat -natp | grep nginx
#检测

http://192.168.126.12/test.html
#回到 VMware,打开火狐浏览器进行访问测试

mark

  1. 搭建 Nginx 2(Cent0S 7-3)
  • 搭建步骤与 Nginx 1 相同,不同之处在于建立的测试页面
echo "Hello test321" > /usr/local/nginx/html/test.html

http://192.168.126.13/test.html
#回到 VMware,打开火狐浏览器进行访问测试

mark

3.编译安装 Haproxy

软件包传送门:haproxy-1.5.19.tar(提取码:h0yd)

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

yum install -y pcre-devel bzip2-devel gcc gcc-c++ make

cd /opt
tar zxvf haproxy-1.5.19.tar.gz

cd haproxy-1.5.19/

uname -r
#查看内核,kernel 大于 2.6.2 则使用以下参数
#否则为 TARGET=linux26
make TARGET=linux2628 ARCH=x86_64
#内核版本,系统位数,64位系统

make install

4.Haproxy 服务器配置

  • Haproxy 配置文件根据功能和用途通常分为五个部分,即 global、defaults、listen、frontend 和 backend
  • 但有些部分不是必需的,可以根据需要进行配置
mkdir /etc/haproxy
cp examples/haproxy.cfg /etc/haproxy/
cd /etc/haproxy/
vim haproxy.cfg

global
#为设定的全局配置部分
#属于进程级别的配置,通常和使用的操作系统配置相关

#4~5行,修改配置全局日志记录,local0为日志设备,默认存放到系统日志
		log /dev/log   local0 info		
        log /dev/log   local0 notice
        #log loghost    local0 info
        maxconn 4096                #每个 haproxy 进程可以接受的最大连接数,需考虑 ulimit-n 的限制
#8行,注释,chroot运行路径,为该服务自设置的根目录,一般需将此行注释掉
        #chroot /usr/share/haproxy
        uid 99                      #用户UID
        gid 99                      #用户GID
        daemon                      #守护进程模式

defaults
#为缺省默认配置部分
#这些设置参数属于公共配置,一般会被自动集成到 listen、frontend 和 backend 中
#如果没有在这几部分特别声明,将按照配置参数设置
		log     global					#缺省日志配置,定义日志为global配置中的日志记录定义
        mode    http					#设置 Haproxy 默认运行模式,为http
        option  httplog					#采用http日志格式记录日志
        option  dontlognull				#不记录健康检查日志信息
        retries 3						#检查节点服务器失败次数,连续达到三次失败,则认为节点不可用
        redispatch						#当服务器负载很高时,自动结束当前队列处理比较久的连接
        maxconn 2000					#最大连接数
        contimeout      5000			#连接超时时间
        clitimeout      50000			#客户端超时时间
        srvtimeout      50000			#服务器超时时间

#删除下面所有的listen项,添加
listen  webcluster 0.0.0.0:80
        #定义一个名为 webcluster 的 Haproxy 监控页面,监听端口为 80
        option httpchk GET /test.html
        #检查服务器的test.html文件
        balance roundrobin
        #负载均衡调度算法使用轮询算法roundrobin
        server inst1 192.168.80.100:80 check inter 2000 fall 3
        #定义在线节点
        server inst2 192.168.80.101:80 check inter 2000 fall 3

mark

mark
补充:

  • balance roundrobin:负载均衡调度算法
  • 轮询算法:roundrobin;最小连接数算法:leastconn;来源访问调度算法:source,类似于nginx的ip_hash
  • check inter 2000:表示haproxy服务器和节点之间的一个心跳频率
  • fall 3:表示连续三次检测不到心跳频率则认为该节点失效
  • 若节点配置后带有“backup”表示该节点只是个备份节点,只有主节点失效该节点才会上
  • 不携带“backup”,表示为主节点,和其它主节点共同提供服务

5.添加并开启 haproxy 系统服务

cp /opt/haproxy-1.5.19/examples/haproxy.init /etc/init.d/haproxy
cd /etc/init.d
chmod +x haproxy
#赋权

chkconfig --add /etc/init.d/haproxy
#增加该服务,让chkconfig指令得以管理它,并同时在系统启动的叙述文件内增加相关数据

ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy
#优化路径,把 haproxy 放入系统命令路径以识别

service haproxy start
或
/etc/init.d/haproxy start
#开启服务

6.测试 Web 群集

  • 通过以上步骤,已经搭建完成了 Haproxy 的 Web 群集,接下来需要验证群集是否工作正常
  • 一个群集一般需要具备两个特征,第一个是高性能,第二个是高可用

6.1 测试高性能

  • 在客户端使用浏览器打开 http://192.168.126.11/test.html
    mark
  • 刷新浏览器页面,用以测试负载均衡效果
    mark
  • 可以看到负载均衡已经生效,满足了群集的高性能需求

6.2 测试高可用性

  • 现将停止 Nginx 1 的服务,用于模拟故障
    mark
  • 再客户端使用浏览器打开 http://192.168.126.11/test.html
    mark
  • 可以看到仍然可以访问 另一台 Nginx 节点服务器的页面,即当一台节点出现故障,并不会影响群集的使用,这样就满足了高可用性
  • 也可以恢复 节点1 的 Nginx,再停止 节点2 的 Nginx 服务,用以测试高可用性

四、Haproxy 的日志

  • 默认 haproxy 的日志是输出到系统的 syslog 中,查看起来不是非常方便,为了更好的管理 haproxy 的日志,我们在生产环境中一般单独定义出来

1.修改 Haproxy 配置文件中关于日志配置的选项

  • 加入以下配置(之前配置时已经更改过,现在是有的,这里了解参考下)
  • 需要将 haproxy 的 info 及 notice 日志分别记录到不同的日志文件中
vim /etc/haproxy/haproxy.cfg
global

log /dev/log local0 info
log /dev/log local0 notice


service haproxy restart
#重启生效

2.修改 rsyslog 配置

  • 需要修改 rsyslog 配置,为了便于管理
  • 将 haproxy 相关的配置独立定义到 haproxy.conf,并放到 /etc/rsyslog.d/ 下,rsyslog 启动时会自动加载此目录下的所有配置文件
vim /etc/rsyslog.d/haproxy.conf

if ($programname == 'haproxy' and $syslogseverity-text == 'info')
then -/var/log/haproxy/haproxy-info.log
&̲~
if ($programname == 'haproxy' and $syslogseverity-text == 'notice')
then -/var/log/haproxy/haproxy-notice.log
&~

mark

  • 这部分配置是将 haproxy 的 info 日志记录到 /var/log/haproxy/haproxy-info.log 下,将 notice 日志记录到 /var/log/haproxy/haproxy-notice.log 下
  • “&~” 表示当日志写入到日志文件后,rsyslog 停止处理这个信息
systemctl restart rsyslog.service
#重启完后,再用客户端重新访问页面,然后就可以看到由日志文件生成了

cd /var/log/

cd /var/log/haproxy/
ls
cat haproxy-info.log
#查看新生成的日志文件的内容

mark


五、Haproxy 的参数优化

  • 关于 Haproxy 的参数优化,以下列举了几个关键的参数,并对各参数在生产环境的优化建议做了说明
  • 如下表所示:
参数 参数说明 优化建议
maxconn 最大连接数 此参数根据应用的实际使用情况进行调整,推荐使用 10 240
daemon 守护进程模式 Haproxy 可以使用非守护进程模式启动,生产环境建议使用守护进程模式启动
nbproc 负载均衡的并发进程数 建议与当前服务器 CPU 核数相等或为其 2 倍
retries 重试次数 此参数主要用于对群集节点的检查,如果节点多且并发量大,设置为 2 次或 3 次;而在服务器节点不多的情况下,可以设置为 5 次或 6 次
option http-server-close 主动关闭 http 请求选项 建议在生产环境中使用此选项,避免由于 timeout 时间设置过长导致 http 连接堆积
timeout http-keep-alive 长连接超时时间 此选项设置长时间连接超时时间,具体可参考应用自身特点设置,可以设置为 10s
timeout http-request http 请求超时时间 建议将此事件设置为 5~10s,增加 http 连接释放速度
timeout client 客户端超时时间 如果访问量过大,节点响应慢,可以将此事件设置短一些,建议设置为 1min 左右就可以了

猜你喜欢

转载自blog.csdn.net/weixin_51486343/article/details/113051309