haproxy和nginx负载均衡

yjmyzz 阅读:121 2022-08-20 17:00:51 评论:0

haproxy负载均衡的实验过程如下:

1: 先看下haproxy的配置。配置inter 20000为20s检测一次,这个是为了更明显的抓下haproxy的负载均衡探测机制。

listen test9090 
        bind 127.0.0.1:9090 
        mode tcp 
        server localhost90 127.0.0.1:90 check inter 20000 
        server localhost91 127.0.0.1:91 check inter 20000 

2: 后端我是用nginx进行测试,看下nginx的配置如下。可在/var/www/html/建个index.html进行测试

server { 
            listen       90; 
            listen       91; 
            location /{ 
                    root /var/www/html; 
            } 
    } 

先用curl 127.0.0.1:9090进行测试,并在机器上开两个窗口看下抓包是否均衡正常,两个窗口运行的命令分别如下:tcpdump -i lo -nn 'port 90' tcpdump -i lo -nn 'port 91'看下负载均衡能否正常工作。

干货:haproxy和nginx负载均衡干货:haproxy和nginx负载均衡
干货:haproxy和nginx负载均衡干货:haproxy和nginx负载均衡

上面抓包的截图证明nginx监听的90和91端口都有在监听。使用抓包来检测比看日志来更细点,所以还是用抓包来分析了。

3: 抓包查看haproxy的健康检测机制

因为我们配置了inter 20000,也就是告诉haproxy20s检测一次,抓包查看也是20s检查一下。注意下,这个检测是在客户端无任务请求的时候进行探测的,也就是处理请求跟探测是分开的。
干货:haproxy和nginx负载均衡干货:haproxy和nginx负载均衡

4: 模拟线上故障,nginx挂掉91端口

把listen 91这个nginx的配置去除,然后reload一下,会发现前端的请求如果分发到91端口的话,就会挂掉,经抓包发现haproxy需要探测三次才会把故障的给切下线。我们配置的是20s探测一次,也是最长可能得探测60s才能把故障的切除掉。如果这60s内有1w请求的话,那就会丢掉5k个。如果用在线上的话,探测机制肯定不会是20s一次,一般最多3s会切换掉。
干货:haproxy和nginx负载均衡干货:haproxy和nginx负载均衡

nginx负载均衡的配置如下:

1: 先看下nginx的反向代理负载均衡配置,如下:

upstream backend { 
        server 127.0.0.1:90 weight=1 max_fails=3 fail_timeout=30; 
        server 127.0.0.1:91 weight=5 max_fails=3 fail_timeout=30; 
    }还是把配置打向后端的90和91端口,然后后面再模拟故障的发生。 
 
server { 
            listen 9090; 
            location / { 
                    proxy_pass http://backend; 
            } 
    }前端还是使用9090来监听,把请求转发到90和91端口。 

2: 后端我还是是用nginx进行测试,看下nginx的配置如下。可在/var/www/html/建个index.html进行测试

server { 
            listen       90; 
            listen       91; 
            location /{ 
                    root /var/www/html; 
            } 
    }抓包同样会发生90和91的包都有过来。 

3: 抓包查看nginx反向代理负载均衡的健康检测机制

抓包你会发现nginx在没有请求的时候,90和91端口上没有任务的请求。也就是在没有请求的时候,是不会对后端的代理服务器进行检测的。

4: 模拟线上故障,nginx挂掉91端口

把listen 91这个nginx的配置去除,然后reload一下,发现前端的访问没有任务影响。抓包如下,请求有打包91,但由于91没请求到数据。nginx的均衡还会再次去90上取数据。也就是说,nginx如果后端挂掉91端口的话,对前端的请求没有任务影响,只要并发支撑得住的话。
干货:haproxy和nginx负载均衡干货:haproxy和nginx负载均衡
干货:haproxy和nginx负载均衡干货:haproxy和nginx负载均衡

综合一下:

haproxy对于后端的服务器就算请求没过来也有一直在健康检测,发现有故障的时候在请求没到来的时候会切掉,但如果在检测期间请求到达的话,会有异常。haproxy只会把请求转到后端的一台服务器。

nginx对于后端的服务器没有一直在健康检测,请求过来的时候,分发还是进行分发,只是请求不到数据的时候,会再向好的机器进行请求,直到请求正常为止。nginx请求转到后端一台不成功的话,还会转向另外一台服务器。同时我也测试了下squid,发现squid跟nginx的反向代理负载均衡很相似。

所以如果有用haproxy做为前端负载均衡的话 ,如果后端服务器要维护,在高并发的情况,肯定是会影响用户的。但如果是nginx做为前端负载均衡的话,只要并发撑得住,后端切掉几台不会影响到用户。至于两者的性能,得再继续研究。


本文参考链接:https://unclewang.blog.csdn.net/article/details/111355580
标签:nginx
声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

关注我们

一个IT知识分享的公众号