Haproxy搭建Web群集

tech2022-07-06  234

文章目录

一、常见的Web集群调度器二、Haproxy应用分析三、Haproxy调度算法原理四、Haproxy配置文件详解4.1Haproxy配置文件通常分为三个部分4.2global配置参数4.3defaults配置项配置默认参数4.4listen配置项目一般为配置应用模块参数 五、使用Haproxy搭建Web群集5.1实验环境5.2实验步骤 六、Haproxy日志管理七、Haproxy参数优化

一、常见的Web集群调度器

●目前常见的Web集群调度器分为软件和硬件 ●软件通常使用开源的LVS、Haproxy、Nginx ●硬件一般使用比较多的是F5,也有很多人使用国内的一些产品,如梭子鱼、绿盟等

二、Haproxy应用分析

●LVS在企业应用中抗负载能力很强,但存在不足 LVS不支持正则处理,不能实现动静分离(nginx都支持) 对于大型网站,LVS的实施配置复杂,维护成本相对较高

●Haproxy是一款可提供高可用性、负载均衡、及基于TCP和HTTP应用的代理的软件 适用于负载大的Web站点 运行在硬件上可支持数以万计的并发连接的连接请求

三、Haproxy调度算法原理

●Haproxy支持多种调度算法,最常用的有三种

第一种: R算法是最简单最常用的一种算法,即轮询调度 理解举例 有三个节点A、B、C,第一个用户访问会被指派到节点A,第二个用户访问会被指派到节点B,第三个用户访问会被指派到C节点 第四个用户访问继续指派到节点A,轮询分配访问请求实现负载均衡效果

第二种: LC算法即最小连接数算法,根据后端的节点连接数大小动态分配前端请求 理解举例 有三个节点A、B、C,各节点的连接数分别为A:4、B:5、C:6,此时如果有第一个用户连接请求,会被指派到A上,连接数变为A:5、B:5、C:6 第二个用户请求会继续分配到A上,连接数变为A6、B:5、C:6;再有新的请求会分配给B,每次将新的请求指派给连接数最小的客户端 由于实际情况下A、B、C的连接数会动态释放,很难会出现一样连接数的情况,因此此算法相比较rr算法有很大改进,是目前用到比较多的一种算法

第三种: SH即基于来源访问调度算法,此算法用于一些有 Session会话记录在服务器端的场景,可以基于来源的IP、Cookie等做集群调度(上一次请求分给哪个web服务器的下次还是分给该服务器) 理解举例 有三个节点A、B、C,第一个用户第一次访问被指派到了A,第二个用户第次访问被指派到了B 当第一个用户第二次访问时会被继续指派到A,第二个用户第二次访问时依旧会被指派到B,只要负载均衡调度器不重启,第一个用户访问都会被指派到A,第二个用户访问都会被指派到B,实现集群的调度 此调度算法好处是实现会话保持,但某些IP访问量非常大时会引起负载不均衡,部分节点访问量超大,影响业务使用

四、Haproxy配置文件详解

4.1Haproxy配置文件通常分为三个部分

● global:全局配置 ● defaults:默认配置 ● listen:应用组件配置

4.2global配置参数

●log127.0.0.1 lcal0:配置日志记录,local0为日志设备,默认存放到系统日志 ●log127.0.0.1 loca1 notice:notice为日志级别,通常有24个级别 ●maxconn4096:最大连接数 ●uid 99:用户uid ●gid 99:用户gid

4.3defaults配置项配置默认参数

一般会被应用组件继承,如果在应用组件中没有特别声明,将安装默认配置参数设置 ●log global:定义日志为global配置中的日志定义 ●mode http:模式为http ●option httplog:采用http日志格式记录日志 ●retries 3:检查节点服务器失败连续达到三次则认为节点不可用 ●maxconn2000:最大连接数 ●contimeout5000:连接超时时间 ●clitimeout50000:客户端超时时间 ●srvtimeout50000:服务器超时时间

4.4listen配置项目一般为配置应用模块参数

●listen appli4- backup 0.0.0.0:10004:定义一个appli4- backup的应用 ●option httpchk /index.html检查服务器的index.html文件 ●option persist:强制将请求发送到已经down掉的服务器(注释掉,否则起服务会报错) ●balance roundrobin:负载均衡调度算法使用轮询算法 ●server inst1 192.168.114.56:80 check inter 2000 fall 3:定义在线节点 ●server inst2 192.168 114.56:81 check inter 2000 fall 3 backup:定义备份节点

五、使用Haproxy搭建Web群集

5.1实验环境

三台虚拟服务器模拟搭建一套Web集群;网站使用nginx搭建; 虚拟机安装Centos 7.6的系统,另外一台Windows10作为客户端

5.2实验步骤

两台Nginx节点服务器配置 1.安装依赖包

[root@nginx1 ~]# yum -y install gcc gcc-c++ make pcre-devel zlib-devel

2.为web服务器创建用户nginx,便于管理,再进行编译安装

[root@nginx1 ~]# useradd -M -s /sbin/nologin nginx [root@nginx1 ~]# tar zxf nginx-1.12.0.tar.gz [root@nginx1 ~]# cd nginx-1.12.0/ [root@nginx1 nginx-1.12.0]# ./configure \ --prefix=/usr/local/nginx \ --user=nginx \ --group=nginx [root@nginx1 nginx-1.12.0]# make && make install

3.两台Nginx节点服务器创建首页,首页文件名一样,内容不一样

[root@nginx1 nginx-1.12.0]# cd /usr/local/nginx/html/ [root@nginx1 html]# echo "this is test01 web" > index.html ([root@nginx2 html]# echo "this is test02 web" > index.html) [root@nginx1 html]# ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/ [root@nginx1 html]# systemctl stop firewalld.service [root@nginx1 html]# setenforce 0 [root@nginx1 html]# nginx

Haproxy服务器 1.安装依赖包

[root@localhost ~]# yum -y install gcc gcc-c++ make pcre-devel bzip2-devel

2.安装haproxy软件包

[root@localhost ~]# tar zxf haproxy-1.5.19.tar.gz [root@localhost ~]# cd haproxy-1.5.19/ [root@localhost haproxy-1.5.19]# make TARGET=linux26 [root@localhost haproxy-1.5.19]# make install

3.在/etc目录下创建haproxy目录,将软件包中的配置文件模板复制到haproxy目录中

[root@localhost haproxy-1.5.19]# mkdir /etc/haproxy [root@localhost haproxy-1.5.19]# cp examples/haproxy.cfg /etc/haproxy/

4.修改haproxy.cfg配置参数

[root@localhost haproxy-1.5.19]# cd /etc/haproxy/ [root@localhost haproxy]# vim haproxy.cfg 下面两项前面加上注释 #chroot /usr/share/haproxy #固有目录,可注释掉 #redispatch #当使用了cookie时,haproxy将会将其请求的后端服务器的serverID插入到cookie中,以保证会话的SESSION持久性;而此时,如果后端的服务器宕掉了,但是客户端的cookie是不会刷新的,如果设置此参数,将会将客户的请求强制定向到另外一个后端server上,以保证服务的正常。需要注释掉 将原来的listen配置项删除,添加如下参数 listen webcluster 0.0.0.0:80 option httpchk GET /index.html balance roundrobin server inst1 14.0.0.20:80 check inter 2000 fall 3 server inst2 14.0.0.30:80 check inter 2000 fall 3

5.将软件包中的服务启动脚本复制到/etc/init.d下,便于service管理

root@localhost ~]# cp /root/haproxy-1.5.19/examples/haproxy.init /etc/init.d/haproxy [root@localhost ~]# chmod +x /etc/init.d/haproxy [root@localhost ~]# chkconfig --add /etc/init.d/haproxy [root@localhost ~]# ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy [root@localhost ~]# service haproxy start Starting haproxy (via systemctl): [ 确定 ]

6.在win10的浏览器中访问haproxy服务器的IP地址进行验证,能够成功访问并且刷新网页能跳转到另一台nginx服务器的页面代表实验成功

六、Haproxy日志管理

●默认是输出到系统的syslog(系统日志)中,生成环境中一般单独定义 ●定义的方法步骤 修改Haproxy配置文件中关于日志配置的选项,加入配置 log /dev/log local0 info log /dev/log local0 notice 修改rsyslog配置,将Haproxy相关的配置独立定义到haproxy.conf,并放到/etc/rsyslog.d下 保存配置文件并重启rsyslog服务,完成rsyslog配置 ●访问Haproxy集群测试网页并查看日志信息 ●具体配置(基于上面的Haproxy搭建web群集实验)

[root@localhost ~]# vim /etc/haproxy/haproxy.cfg global区段修改如下参数 log /dev/log local0 info log /dev/log local0 notice [root@localhost ~]# service haproxy restart [root@localhost ~]# vim /etc/rsyslog.d/haproxy.conf

[root@localhost ~]# systemctl restart rsyslog.service

在win10客户端浏览器中访问网页,查看指定haproxy的日志文件内容进行验证

[root@localhost ~]# cat /var/log/haproxy/haproxy-info.log Sep 2 19:38:58 localhost haproxy[71265]: 14.0.0.130:50276 [02/Sep/2020:19:38:58.834] webcluster webcluster/inst1 0/0/0/0/0 200 255 - - ---- 1/1/0/1/0 0/0 "GET / HTTP/1.1" Sep 2 19:38:59 localhost haproxy[71265]: 14.0.0.130:50276 [02/Sep/2020:19:38:58.835] webcluster webcluster/inst2 242/0/1/0/243 200 255 - - ---- 1/1/0/1/0 0/0 "GET / HTTP/1.1"

七、Haproxy参数优化

随着企业网站负载增加, haproxy参数优化相当重要 ●maxconn:最大连接数,根据应用实际情况进行调整,推荐使用10240 ●daemon:守护进程模式, Haproxy可以使用非守护进程模式启动,建议使用守护进程模式启动 ●nbproc:负载均衡的并发进程数,建议与当前服务器CPU核数相等或为其2倍 retries:重试次数,主要用于对集群节点的检查,如果节点多,且并发量大,设置为2次或3次 ●option http-server-close:主动关闭http请求选项,建议在生产环境中使用此选项 ●timeout http-keep-alive:长连接超时时间,设置长连接超时时间,可以设置为10s ●timeout http-request:http请求超时时间,建议将此时间设置为5~10s,增加http连接释放速度 ●timeout client:客户端超时时间,如果访问量过大,节点响应慢,可以将此时间设置短一些,建议设置为1min左右就可以了

最新回复(0)