注,大家可以看到,由于我们网站是发展早期,nginx只代理了后端1台服务器,但由于我们网站名望大涨访问的人愈来愈多1台服务器实在是顶不住,因而我们加了多台服务器,那末多台服务器又怎样配置代理呢,我们这里以两台服务器为案例,为大家做演示。
1.upstream 负载均衡模块说明
案例:
下面设定负载均衡的服务器列表。
1
2
3
4
5
6
7
8
9
10
11
12
|
upstream test .net{ ip_hash; server 192.168.10.13:80; server 192.168.10.14:80 down; server 192.168.10.15:8009 max_fails=3 fail_timeout=20s; server 192.168.10.16:8080; } server { location / { proxy_pass http: //test .net; } } |
upstream是Nginx的HTTP Upstream模块,这个模块通过1个简单的调度算法来实现客户端IP到后端服务器的负载均衡。在上面的设定中,通过upstream指令指定了1个负载均衡器的名称test.net。这个名称可以任意指定,在后面需要用到的地方直接调用便可。
2.upstream 支持的负载均衡算法
Nginx的负载均衡模块目前支持4种调度算法,下面进行分别介绍,其中后两项属于第3方调度算法。
轮询(默许)。每一个要求按时间顺序逐1分配到不同的后端服务器,如果后端某台服务器宕机,故障系统被自动剔除,使用户访问不受影响。Weight 指定轮询权值,Weight值越大,分配到的访问机率越高,主要用于后端每一个服务器性能不均的情况下。
ip_hash。每一个要求按访问IP的hash结果分配,这样来自同1个IP的访客固定访问1个后端服务器,有效解决了动态网页存在的session同享问题。
fair。这是比上面两个更加智能的负载均衡算法。此种算法可以根据页面大小和加载时间长短智能地进行负载均衡,也就是根据后端服务器的响应时间来分配要求,响应时间短的优先分配。Nginx本身是不支持fair的,如果需要使用这类调度算法,必须下载Nginx的upstream_fair模块。
url_hash。此方法按访问url的hash结果来分配要求,使每一个url定向到同1个后端服务器,可以进1步提高后端缓存服务器的效力。Nginx本身是不支持url_hash的,如果需要使用这类调度算法,必须安装Nginx 的hash软件包。
3.upstream 支持的状态参数
在HTTP Upstream模块中,可以通过server指令指定后端服务器的IP地址和端口,同时还可以设定每一个后端服务器在负载均衡调度中的状态。经常使用的状态有:
down,表示当前的server暂时不参与负载均衡。
backup,预留的备份机器。当其他所有的非backup机器出现故障或忙的时候,才会要求backup机器,因此这台机器的压力最轻。
max_fails,允许要求失败的次数,默许为1。当超过最大次数时,返回proxy_next_upstream 模块定义的毛病。
fail_timeout,在经历了max_fails次失败后,暂停服务的时间。max_fails可以和fail_timeout1起使用。
注,当负载调度算法为ip_hash时,后端服务器在负载均衡调度中的状态不能是weight和backup。
4.实验拓扑
5.配置nginx负载均衡
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
[root@nginx ~] # vim /etc/nginx/nginx.conf upstream webservers { server 192.168.18.201 weight=1; server 192.168.18.202 weight=1; } server { listen 80; server_name localhost; #charset koi8-r; location / { proxy_pass http: //webservers ; proxy_set_header X-Real-IP $remote_addr; } } |
注,upstream是定义在server{ }以外的,不能定义在server{ }内部。定义好upstream以后,用proxy_pass援用1下便可。
6.重新加载1下配置文件
1
2
3
4
|
[root@nginx ~] # service nginx reload nginx: the configuration file /etc/nginx/nginx .conf
syntax is ok nginx: configuration file /etc/nginx/nginx .conf test is
successful 重新载入 nginx: [肯定] |
7.测试1下
注,大家可以不断的刷新阅读的内容,可以发现web1与web2是交替出现的,到达了负载均衡的效果。
8.查看1下Web访问服务器日志
Web1:
1
2
3
4
5
6
7
8
9
10
11
|
[root@web1 ~] # tail /var/log/httpd/access_log 192.168.18.138 - - [04 /Sep/2013 :09:41:58
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:41:58
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:41:59
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:41:59
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:42:00
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:42:00
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:42:00
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:44:21
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:44:22
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:44:22
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" |
Web2:
先修改1下,Web服务器记录日志的格式。
1
2
3
4
5
|
[root@web2 ~] # vim /etc/httpd/conf/httpd.conf LogFormat "%{X-Real-IP}i %l %u %t \"%r\" %>s %b \"%{Referer}i\"
\"%{User-Agent}i\"" combined [root@web2 ~] # service httpd restart 停止 httpd: [肯定] 正在启动 httpd: [肯定] |
接着,再访问屡次,继续查看日志。
1
2
3
4
5
6
7
8
9
10
11
|
[root@web2 ~] # tail /var/log/httpd/access_log 192.168.18.138 - - [04 /Sep/2013 :09:50:28
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:50:28
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:50:28
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:50:28
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:50:28
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:50:28
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:50:28
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:50:28
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:50:29
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" 192.168.18.138 - - [04 /Sep/2013 :09:50:29
+0800] "GET / HTTP/1.0" 200 23 "-" "Mozilla/5.0
(compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)" |
注,大家可以看到,两台服务器日志都记录是192.168.18.138访问的日志,也说明了负载均衡配置成功。
9.配置nginx进行健康状态检查
max_fails,允许要求失败的次数,默许为1。当超过最大次数时,返回proxy_next_upstream 模块定义的毛病。
fail_timeout,在经历了max_fails次失败后,暂停服务的时间。max_fails可以和fail_timeout1起使用,进行健康状态检查。
1
2
3
4
5
|
[root@nginx ~] # vim /etc/nginx/nginx.conf upstream webservers { server 192.168.18.201 weight=1 max_fails=2 fail_timeout=2; server 192.168.18.202 weight=1 max_fails=2 fail_timeout=2; } |
10.重新加载1下配置文件
1
2
3
4
|
[root@nginx ~] # service nginx reload nginx: the configuration file /etc/nginx/nginx .conf
syntax is ok nginx: configuration file /etc/nginx/nginx .conf test is
successful 重新载入 nginx: [肯定] |
11.停止服务器并测试
1
2
3
|
先停止Web1,进行测试。 [root@web1 ~] # service httpd stop 停止 httpd: [肯定] |
注,大家可以看到,现在只能访问Web2,再重新启动Web1,再次访问1下。
1
2
|
[root@web1 ~] # service httpd start 正在启动 httpd: [肯定] |
注,大家可以看到,现在又可以重新访问,说明nginx的健康状态查检配置成功。但大家想1下,如果不幸的是所有服务器都不能提供服务了怎样办,用户打开页面就会出现出错页面,那末会带来用户体验的下降,所以我们能不能像配置LVS是配置sorry_server呢,答案是可以的,但这里不是配置sorry_server而是配置backup。
12.配置backup服务器
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
[root@nginx ~] # vim /etc/nginx/nginx.conf server { listen 8080; server_name localhost; root /data/www/errorpage ; index index.html; } upstream webservers { server 192.168.18.201 weight=1 max_fails=2 fail_timeout=2; server 192.168.18.202 weight=1 max_fails=2 fail_timeout=2; server 127.0.0.1:8080 backup; } [root@nginx ~] # mkdir -pv /data/www/errorpage [root@nginx errorpage] # cat index.html <h1>Sorry......< /h1 > |
13.重新加载配置文件
1
2
3
4
|
[root@nginx errorpage] # service nginx reload nginx: the configuration file /etc/nginx/nginx .conf
syntax is ok nginx: configuration file /etc/nginx/nginx .conf test is
successful 重新载入 nginx: [肯定] |
14.关闭Web服务器并进行测试