码迷,mamicode.com
首页 > 其他好文 > 详细

Nginx七层负载均衡实战

时间:2020-04-19 00:31:59      阅读:85      评论:0      收藏:0      [点我收藏+]

标签:节点   补丁   错误   class   lb01   tun   wal   systemctl   efault   

1.Nginx负载均衡基本概述

①为什么要使用负载均衡

当我们的Web服务器直接面向用户,往往要承载大量并发请求,单台服务器难以负荷,我使用多台Web服务器组成集 群,前端使用Nginx负载均衡,将请求分散的打到我们的后端服务器集群中,实现负载的分发。那么会大大提升系统的吞 吐率、请求性能、高容灾。
技术图片

往往我们接触的最多的是SLB(Server Load Balance)负载均衡,实现最多的也是SLB、那么SLB它的调度节点和服务节 点通常是在一个地域里面。那么它在这个小的逻辑地域里面决定了他对部分服务的实时性、响应性是非常好的。
所以说当海量用户请求过来以后,它同样是请求调度节点,调度节点将用户的请求转发给后端对应的服务节点,服务节点 处理完请求后在转发给调度节点,调度节点最后响应给用户节点。这样也能实现一个均衡的作用,那么Nginx则是一个典 型的SLB。

②负载均衡的叫法

负载均衡  
负载  
Load Balance  
LB

③公有云中叫法

SLB 阿里云负载均衡  
QLB 青云负载均衡  
CLB 腾讯云负载均衡  
ULB ucloud负载均衡

④常见的负载均衡的软件

Nginx  
Haproxy  
LVS

技术图片
⑤负载均衡能实现的应用场景一: 四层负载均衡

所谓四层负载均衡指的是OSI七层模型中的传输层,那么传输层Nginx已经能支持TCP/IP的控制,所以只需要对客户端 的请求进行TCP/IP协议的包转发就可以实现负载均衡,那么它的好处是性能非常快、只需要底层进行应用处理,而不需要进行一些复杂的逻辑。
技术图片

⑥负载均衡能实现的应用场景二:七层负载均衡

七层负载均衡它是在应用层,那么它可以完成很多应用方面的协议请求,比如我们说的http应用的负载均衡,它可以实现 http信息的改写、头信息的改写、安全应用规则控制、URL匹配规则控制、以及转发、rewrite等等的规则,所以在应用 层的服务里面,我们可以做的内容就更多,那么Nginx则是一个典型的七层负载均衡SLB。
技术图片

⑦四层负载均衡与七层负载均衡区别

四层负载均衡数据包在底层就进行了分发,而七层负载均衡数据包则是在最顶层进行分发、由此可以看出,七层负载均衡 效率没有四负载均衡高。
七层负载均衡更贴近于服务,如:http协议就是七层协议,我们可以用Nginx可以作会话保持,URL路径规则匹 配、head头改写等等,这些是四层负载均衡无法实现的。
注意:四层负载均衡不识别域名,七层负载均衡识别域名。

2.Nginx负载均衡配置场景

Nginx要实现七层负载均衡需要用到proxy_pass代理模块配置. Nginx负载均衡与Nginx代理不同地方在于,Nginx的一个location仅能代理一台服务器,而Nginx负载均衡则是将客户端请求代理转发至一组upstream虚拟服务池。

技术图片

  • Nginx upstream虚拟配置语法
Syntax: upstream name { ... }
Default: ‐
Context: http

# upstream例
upstream backend {
	server backend1.example.com weight=5;
	server backend2.example.com:8080;
	server unix:/tmp/backend3;
	server backup1.example.com:8080 backup;
}
server {
	location / {
		proxy_pass http://backend;
}

①环境准备

角色 外网IP(NAT) 内网IP(LAN) 主机名
LB01 eth0:10.0.0.5 eth1:172.16.1.5 lb01
WEB01 eth0:10.0.0.7 eth1:172.16.1.7 web01
WEB02 eth0:10.0.0.8 eth1:172.16.1.8 web02

②Web01服务器上配置nginx

[root@web01?~]#?cd?/etc/nginx/conf.d/? 
[root@web01?conf.d]#?cat?node.conf?? 
server?{? ????
    listen?80;? ????
    server_name?node.pingface.com;? ????
    location?/?{? ????????
        root?/node;? ????????
        index?index.html;? ????
    }? 
}? 
[root@web01?conf.d]#?mkdir?/node? [root@web01?conf.d]#?echo?"Web01..."?>?/node/index.html? [root@web01?conf.d]#?systemctl?restart?nginx

③Web02服务器上配置nginx

[root@web02?~]#?cd?/etc/nginx/conf.d/? 
[root@web02?conf.d]#?cat?node.conf?? 
server?{? ????
    listen?80;? ????
    server_name?node.pingface.com;? ????
    location?/?{? ????????
        root?/node;? ????????
        index?index.html;? ????
    }
}? 
[root@web02?conf.d]#?mkdir?/node
[root@web02?conf.d]#?echo?"Web02..."?>?/node/index.html
[root@web02?conf.d]#?systemctl?restart?nginx

④准备Nginx负载均衡调度使用的proxy_params

[root@Nginx?~]#?vim?/etc/nginx/proxy_params? 
    
proxy_set_header?Host?$http_host;? 
proxy_set_header?X‐Real‐IP?$remote_addr;? 
proxy_set_header?X‐Forwarded‐For?$proxy_add_x_forwarded_for;?
proxy_connect_timeout?30;? 
proxy_send_timeout?60;? 
proxy_read_timeout?60;?
proxy_buffering?on;? 
proxy_buffer_size?32k;? 
proxy_buffers?4?128k;

⑤配置Nginx负载均衡

[root@lb01?~]#?cd?/etc/nginx/conf.d/? 
[root@lb01?conf.d]#?cat?node_proxy.conf?? 
upstream?node?{? ????
    server?172.16.1.7:80;? ????
    server?172.16.1.8:80;? 
}? 
server?{? ????
    listen?80;? ????
    server_name?node.pingface.com;?
????location?/?{? ????????
        proxy_pass?http://node;? ????????
        include?proxy_params;? ????
    }? 
}? 
[root@lb01?conf.d]#?systemctl?restart?nginx

打开浏览器访问:http://node.pingfacecom

⑥负载均衡常见典型故障

如果后台服务连接超时,Nginx是本身是有机制的,如果出现一个节点down掉的时候,Nginx会更据你具体负载均衡的 设置,将请求转移到其他的节点上,但是,如果后台服务连接没有down掉,但是返回错误异常码了如:504、502、500, 这个时候你需要加一个负载均衡的设置,如下:proxy_next_upstream http_500 | http_502 | http_503 | http_504 |http_404;意思是,当其中一台返回错误码404,500…等错误时,可以分配到下一台服务器程序继续处理,提高平台访问成功率。
server?{? ????
    listen?80;? ????
    server_name?node.pingface.com;?
????location?/?{? ????????
        proxy_pass?http://node;? ????????proxy_next_upstream?error?timeout?http_500?http_502?http_503?http_504;? ????
    }? 
}

3.Nginx负载均衡调度算法

调度算法 概述
轮询 按时间顺序逐一分配到不同的后端服务器(默认),rr轮询
weight 加权轮询,weight值越大,分配到的访问几率越高
ip_hash 每个请求按访问IP的hash结果分配,这样来自同一IP的固定访问一个后端服务器
url_hash 按照访问URL的hash结果来分配请求,是每个URL定向到同一个后端服务器
least_conn 最少链接数,那个机器链接数少就分

①Nginx负载均衡[rr]轮询具体配置

upstream?load_pass?{? ????
    server?10.0.0.7:80;? ???
    server?10.0.0.8:80;? 
}

②Nginx负载均衡[wrr]权重轮询具体配置

upstream?load_pass?{? ????
    server?10.0.0.7:80?weight=5;? ????
    server?10.0.0.8:80;? 
}

③Nginx负载均衡ip_hash

具体配置不能和weight一起使用

# 如果客户端都走相同代理,?会导致某一台服务器连接过多? 
upstream?load_pass?{? ????
    ip_hash;? ????
    server?10.0.0.7:80;?
????server?10.0.0.8:80;? 
}

4.Nginx负载均衡后端状态

后端Web服务器在前端Nginx负载均衡调度中的状态

状态 概述
down 当前的server暂时不参与负载均衡
backup 预留的备份服务器
max_fails 允许请求失败的次数
fail_timeout 经过max_fails失败后, 服务暂停时间
max_conns 限制最大的接收连接数

①down状态测试

该Server不参与负载均衡的调度

upstream?load_pass?{? ????
	# 不参与任何调度,?一般用于停机维护? ????
	server?10.0.0.7:80?down;? 
}

②测试backup以及down状态

upstream?load_pass?{? ????
    server?10.0.0.7:80?down;? ????
    server?10.0.0.8:80?backup;? ????
    server?10.0.0.9:80?max_fails=1?fail_timeout=10s;? 
}?
location??/?{? ????
    proxy_pass?http://load_pass;? ????
    include?proxy_params;? 
}

③测试max_fails失败次数和fail_timeout多少时间内失败多少次则标记down

upstream?load_pass?{? ????
    server?10.0.0.7:80;? ????
    server?10.0.0.8:80?max_fails=2?fail_timeout=10s;? 
}

④测试max_conns最大TCP连接数

upstream?load_pass?{? ????
    server?10.0.0.7:80;? ????
    server?10.0.0.8:80?max_conns=1;? 
}

5.Nginx负载均衡健康检查

在Nginx官方模块提供的模块中,没有对负载均衡后端节点的健康检查模块,但可以使用第三方模块。 nginx_upstream_check_module来检测后端服务的健康状态。

健康检查模块下载

①安装依赖包

[root@lb02 ~]# yum install ‐y gcc glibc gcc‐c++ pcre‐devel openssl‐devel patch

②下载nginx源码包以及nginx_upstream_check模块第三方模块

[root@lb02 ~]# wget http://nginx.org/download/nginx‐1.14.2.tar.gz  
[root@lb02 ~]# wget https://github.com/yaoweibin/nginx_upstream_check_module/archive/master.zip

③解压nginx源码包以及第三方模块

[root@lb02 ~]# tar xf nginx‐1.14.2.tar.gz  [root@lb02 ~]# unzip master.zip

④进入nginx目录,打补丁(nginx的版本是1.14补丁就选择1.14的,p1代表在nginx目录,p0是不在nginx目录)

[root@lb02 ~]# cd nginx‐1.14.2/ 
    
[root@lb02 nginx‐1.14.2]# patch ‐p1 <../nginx_upstream_check_modulemaster/check_1.14.0+.patch  ./configure ‐‐prefix=/etc/nginx ‐‐sbin‐path=/usr/sbin/nginx ‐‐modulespath=/usr/lib64/nginx/modules ‐‐conf‐path=/etc/nginx/nginx.conf ‐‐error‐logpath=/var/log/nginx/error.log ‐‐http‐log‐path=/var/log/nginx/access.log ‐‐pidpath=/var/run/nginx.pid ‐‐lock‐path=/var/run/nginx.lock ‐‐http‐client‐body‐temppath=/var/cache/nginx/client_temp ‐‐http‐proxy‐temp‐path=/var/cache/nginx/proxy_temp ‐‐httpfastcgi‐temp‐path=/var/cache/nginx/fastcgi_temp ‐‐http‐uwsgi‐temppath=/var/cache/nginx/uwsgi_temp ‐‐http‐scgi‐temp‐path=/var/cache/nginx/scgi_temp ‐user=nginx ‐‐group=nginx ‐‐with‐compat ‐‐with‐file‐aio ‐‐with‐threads ‐‐withhttp_addition_module ‐‐with‐http_auth_request_module ‐‐with‐http_dav_module ‐‐withhttp_flv_module ‐‐with‐http_gunzip_module ‐‐with‐http_gzip_static_module ‐‐withhttp_mp4_module ‐‐with‐http_random_index_module ‐‐with‐http_realip_module ‐‐withhttp_secure_link_module ‐‐with‐http_slice_module ‐‐with‐http_ssl_module ‐‐withhttp_stub_status_module ‐‐with‐http_sub_module ‐‐with‐http_v2_module ‐‐with‐mail ‐‐withmail_ssl_module ‐‐with‐stream ‐‐with‐stream_realip_module ‐‐with‐stream_ssl_module ‐‐withstream_ssl_preread_module ‐‐add‐module=/root/nginx_upstream_check_module‐master ‐‐with‐ccopt=‘‐O2 ‐g ‐pipe ‐Wall ‐Wp,‐D_FORTIFY_SOURCE=2 ‐fexceptions ‐fstack‐protector‐strong ‐param=ssp‐buffer‐size=4 ‐grecord‐gcc‐switches ‐m64 ‐mtune=generic ‐fPIC‘ ‐‐with‐ld‐opt=‘Wl,‐z,relro ‐Wl,‐z,now ‐pie‘  
    
[root@lb02 nginx‐1.14.2]# make && make install

⑤在已有的负载均衡上增加健康检查的功能

[root@lb01 conf.d]# cat proxy_web.conf 
upstream web {      
    server 172.16.1.7:80 max_fails=2 fail_timeout=10s;      
    server 172.16.1.8:80 max_fails=2 fail_timeout=10s;      
    check interval=3000 rise=2 fall=3 timeout=1000 type=tcp;      
    #interval  检测间隔时间,单位为毫秒      
    #rise      表示请求2次正常,标记此后端的状态为up      
    #fall      表示请求3次失败,标记此后端的状态为down      
    #type      类型为tcp      
    #timeout   超时时间,单位为毫秒  } 
server {      
    listen 80;      
    server_name web.pingface.com;      
    location / {          
        proxy_pass http://web;          
        include proxy_params;      
    } 
    location /upstream_check {          
        check_status;      
    }  
}

6.Nginx负载均衡会话保持

在使用负载均衡的时候会遇到会话保持的问题,可通过如下方式进行解决。  
1.使用nginx的ip_hash,根据客户端的IP,将请求分配到对应的IP上  
2.基于服务端的session会话共享(NFS,MySQL,memcache,redis,file)

在解决负载均衡绘画问题,我们需要了解session和cookie的区别。  
浏览器端存的是cookie每次浏览器发请求到服务端时,报文头是会自动添加cookie信息的。  
服务端会查询用户的cookie作为key去存储里找对应的value(session)同一域名下的网站的cookie都是一样的,所以无论几台服务器,无论请求分配到哪一台服务器上同一用户的cookie是不变的。也就是说cookie对应的session也是唯一的。所以这里只要保证多台业务服务器访问同一个共享存储服务器(NFS,MySQL,memcache,redis,file)就行了

6.1使用磁盘(本地文件)存储session

①配置Nginx

[root@web01?conf.d]#?cat?php.conf? 
server?{? ????
    listen?80;? ????
    server_name?php.pingface.com;? ????
    root?/code/phpMyAdmin‐4.8.4‐all‐languages;?
????location?/?{? ????????
        index?index.php?index.html;? ????
    }?
????location?~?\.php$?{? ????????
        fastcgi_pass?127.0.0.1:9000;? ????????fastcgi_param?SCRIPT_FILENAME?$document_root$fastcgi_script_name;? ????????include?fastcgi_params;? ????
    }? 
}? 
[root@web01?conf.d]#?systemctl?restart?nginx

②安装phpmyadmin (web01和web02上都装)

PHP版本要在7.0以上

[root@web01?conf.d]#?cd?/code? [root@web01?code]#?wget?https://files.phpmyadmin.net/phpMyAdmin/4.8.4/phpMyAdmin‐4.8.4‐alllanguages.zip? 
[root@web01?code]#?unzip?phpMyAdmin‐4.8.4‐all‐languages.zip

③配置phpmyadmin连接远程的数据库

[root@web01?code]#?cd?phpMyAdmin‐4.8.4‐all‐languages/? 
[root@web01?phpMyAdmin‐4.8.4‐all‐languages]#?cp?config.sample.inc.php?config.inc.php? [root@web01?phpMyAdmin‐4.8.4‐all‐languages]#?vim?config.inc.php? 
/*?Server?parameters?*/? 
$cfg[‘Servers‘][$i][‘host‘]?=?‘172.16.1.51‘;

④配置授权

[root@web01?conf.d]#?chown?‐R?www.www?/var/lib/php

使用浏览器访问页面,获取cookie信息

[root@web01?phpMyAdmin‐4.8.4‐all‐languages]#?ll?/var/lib/php/session/? 总用量?4? ‐rw‐‐‐‐‐‐‐.?1?www?www?2424?8月??21?18:41?sess_80a339880e754b1919d3004754f40f15

⑤将web01上配置好的phpmyadmin以及nginx的配置文件推送到web02主机上

[root@web01?code]#?scp?‐rp??phpMyAdmin‐4.8.4‐all‐languages?root@172.16.1.8:/code/? [root@web01?code]#?scp?/etc/nginx/conf.d/php.conf??root@172.16.1.8:/etc/nginx/conf.d/

⑥在web02上重载Nginx服务

[root@web02?code]#?systemctl?restart?nginx

⑦授权

[root@web02?code]#?chown?‐R?www.www?/var/lib/php/

⑧接入负载均衡

[root@lb01?conf.d]#?vim?proxy_php.com.conf?? 
upstream?php?{? ????????
    server?172.16.1.7:80;? ????????
    server?172.16.1.8:80;? 
}? 
server?{?
????????listen?80;? ????????
    server_name?php.pingface.com;? ????????
    location?/?{? ????????????????
        proxy_pass?http://php;? ????????????????
        include?proxy_params;? ????????
    }? 
}?
[root@lb01?conf.d]#?nginx?‐t? nginx:?the?configuration?file?/etc/nginx/nginx.conf?syntax?is?ok nginx:?configuration?file?/etc/nginx/nginx.conf?test?is?successful? [root@lb01?conf.d]#?systemctl?restart?nginx

使用负载均衡的轮询功能之后,会发现,如果将session保存在本地文件的话,永远都登录不上去php.pingface.com
技术图片

6.2使用redis解决会话登录问题

①安装redis内存数据库

[root@db01 ~]# yum install redis ‐y

②配置redis监听在172.16.1.0网段上

[root@db01 ~]# sed  ‐i ‘/^bind/c bind 127.0.0.1 172.16.1.51‘ /etc/redis.conf

③启动redis

[root@db01 ~]# systemctl start redis  
[root@db01 ~]# systemctl enable redis

④php配置session连接redis

# 1.修改/etc/php.ini文件  
[root@web ~]# vim /etc/php.ini  
session.save_handler = redis  
session.save_path = "tcp://172.16.1.51:6379"  
;session.save_path = "tcp://172.16.1.51:6379?auth=123" #如果redis存在密码,则使用该方式 session.auto_start = 1 

# 2.注释php‐fpm.d/www.conf里面的两条内容,否则session内容会一直写入/var/lib/php/session目录中  ;php_value[session.save_handler] = files  
;php_value[session.save_path]    = /var/lib/php/session

⑤重启php-fpm

[root@web01 code]# systemctl restart php‐fpm

⑥将web01上配置好的文件推送到web02

[root@web01 code]# scp /etc/php.ini root@172.16.1.8:/etc/php.ini    
[root@web01 code]# scp /etc/php‐fpm.d/www.conf root@172.16.1.8:/etc/php‐fpm.d/www.conf 

⑦web02上重启php-fpm

[root@web02 code]# systemctl restart php‐fpm

⑧redis查看数据

[root@db01 ~]# redis‐cli   127.0.0.1:6379> keys *  
1) "PHPREDIS_SESSION:f96f184460e8ca9dfdc65f3e70cca79c"

技术图片

Nginx七层负载均衡实战

标签:节点   补丁   错误   class   lb01   tun   wal   systemctl   efault   

原文地址:https://www.cnblogs.com/centlnx/p/12729181.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!