Nginx負載均衡基本概述
爲什麼要使用負載均衡
當我們的Web服務器直接面向用戶,往往要承載大量併發請求,單臺服務器難以負荷,使用多臺Web服務器組成集羣,前端使用Nginx
負載均衡,將請求分散的打到後端服務器集羣中,實現負載的分發。那麼會大大提升系統的吞吐率、請求性能、高容災
往往我們接觸的最多的是SLB(Server Load Balance)
負載均衡,實現最多的也是SLB
、那麼SLB
它的調度節點和服務節點通常是在一個地域裏面。那麼它在這個小的邏輯地域裏面決定了他對部分服務的實時性、響應性是非常好的。
所以說當海量用戶請求過來以後,它同樣是請求調度節點,調度節點將用戶的請求轉發給後端對應的服務節點,服務節點處理完請求後在轉發給調度節點,調度節點最後響應給用戶節點。這樣也能實現一個均衡的作用,那麼Nginx則是一個典型的SLB
負載均衡的叫法有很多:
負載均衡
負載
Load Balance
LB
公有云中叫法
SLB 阿里雲負載均衡
LB 青雲負載均衡
CLB 騰訊雲負載均衡
ULB ucloud負載均衡
常見的負載均衡的軟件
Nginx :在1.9版本之前只能做7層負載,在1.9版本之後,出來一個叫做stream模塊,4層7層都能做 (軟件)
Haproxy :4層,7層 (軟件)
LVS : 4層 。ipvsadm,修改路由,把一臺服務器相當於變成了一臺物理“硬件負載均衡” (專業做4層,速度最快)
F5 :硬件
負載均衡能實現的應用場景一: 四層負載均衡
所謂四層負載均衡指的是OSI
七層模型中的傳輸層,那麼傳輸層Nginx已經能支持TCP/IP的控制,所以只需要對客戶端的請求進行TCP/IP協議的包轉發就可以實現負載均衡,那麼它的好處是性能非常快、只需要底層進行應用處理,而不需要進行一些複雜的邏輯。
負載均衡能實現的應用場景二: 七層負載均衡
七層負載均衡它是在應用層,那麼它可以完成很多應用方面的協議請求,比如我們說的http應用的負載均衡,它可以實現http信息的改寫、頭信息的改寫、安全應用規則控制、URL匹配規則控制、以及轉發、rewrite等等的規則,所以在應用層的服務裏面,我們可以做的內容就更多,那麼Nginx則是一個典型的七層負載均衡SLB
四層負載均衡與七層負載均衡區別
四層負載均衡數據包在底層就進行了分發,而七層負載均衡數據包則是在最頂層進行分發、由此可以看出,七層負載均衡效率沒有四負載均衡高。
但七層負載均衡更貼近於服務,如:http協議就是七層協議,我們可以用Nginx可以作會話保持,URL路徑規則匹配、head頭改寫等等,這些是四層負載均衡無法實現的。
注意:四層負載均衡不識別域名,七層負載均衡識別域名
Nginx負載均衡配置場景
Nginx要實現負載均衡需要用到proxy_pass
代理模塊配置.
Nginx負載均衡與Nginx代理不同地方在於,Nginx的一個location
僅能代理一臺服務器,而Nginx負載均衡則是將客戶端請求代理轉發至一組upstream虛擬服務池.
nginx upstream 虛擬配置語法
Syntax: upstream name { ... }
Default: -
Context: http
#upstream例
upstream backend {
#可以以域名來區分 #加權輪詢
server backend1.example.com weight=5;
server backend2.example.com:8080;
server unix:/tmp/backend3;
server backup1.example.com:8080 backup;
}
server {
location / {
proxy_pass http://backend;
}
}
1.環境準備
角色 | 外網IP(NAT) | 內網IP(LAN) | 主機名 |
---|---|---|---|
LB01 | eth0:10.0.0.5 | eth1:172.16.1.5 | lb01 |
web01 | eth0:10.0.0.7 | eth1:172.16.1.7 | web01 |
web02 | eth0:10.0.0.8 | eth1:172.16.1.8 | web02 |
2.web01服務器上配置nginx
[root@web01 ~]# cd /etc/nginx/conf.d/
[root@web01 conf.d]# cat up.conf
server {
listen 80;
server_name up.drz.com;
location / {
root /node;
index index.html;
}
}
[root@web01 conf.d]# mkdir /node
[root@web01 conf.d]# echo "Web01..." > /node/index.html
[root@web01 conf.d]# systemctl restart nginx
3.web02服務器上配置nginx
[root@web02 ~]# cd /etc/nginx/conf.d/
[root@web02 conf.d]# cat up.conf
server {
listen 80;
server_name up.drz.com;
location / {
root /node;
index index.html;
}
}
[root@web02 conf.d]# mkdir /node
[root@web02 conf.d]# echo "Web02..." > /node/index.html
[root@web02 conf.d]# systemctl restart nginx
4.配置nginx負載均衡
[root@lb01 ~]# cd /etc/nginx/conf.d/
[root@lb01 conf.d]# cat up_proxy.conf
upstream node {
server 172.16.1.7:80;
server 172.16.1.8:80;
}
server {
listen 80;
server_name up.drz.com;
location / {
proxy_pass http://node;
include proxy_params;
}
}
[root@lb01 conf.d]# systemctl restart nginx
5.準備nginx 負載均衡調度使用的proxy_params
[root@Nginx ~]# vim /etc/nginx/proxy_params
proxy_set_header Host $http_host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_connect_timeout 30;
proxy_send_timeout 60;
proxy_read_timeout 60;
proxy_buffering on;
proxy_buffer_size 32k;
proxy_buffers 4 128k;
打開瀏覽器訪問:
)
實戰2**
[root@lb01 conf.d]# vim zh.proxy.conf
upstream web_7_8 {
server 172.16.1.7:80;
server 172.16.1.8:80;
check interval=3000 rise=2 fall=3 timeout=1000 type=tcp;
}
server {
listen 80;
server_name zh.gjy.com;
index index.php index.html;
location / {
proxy_pass http://web_7_8;
proxy_set_header Host $http_host;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_http_version 1.1;
}
location /status {
check_status;
}
}
配置web01知乎域名、web02知乎域名和lb0的一樣,域名解析到lb0,
再訪問zh.gjy.com,會訪問到指定的web01知乎主頁和web02知乎主頁
訪問zh.gjy.com/status,會跳轉到健康檢查的模塊
wordpress或者其他產品也是一樣。
負載均衡常見典型故障
負載均衡的過程中,當一臺服務器宕機了,不影響用戶使用,解決辦法
如果後臺服務連接超時,Nginx是本身是有機制的,如果出現一個節點down掉的時候,Nginx會更據你具體負載均衡的設置,將請求轉移到其他的節點上,但是,如果後臺服務連接沒有down掉,但是返回錯誤異常碼瞭如:504、502、500,這個時候你需要加一個負載均衡的設置,如下:proxy_next_upstream http_500 | http_502 | http_503 | http_504 |http_404;意思是,當其中一臺返回錯誤碼404,500…等錯誤時,可以分配到下一臺服務器程序繼續處理,提高平臺訪問成功率。
server {
listen 80;
server_name up.drz.com;
location / {
proxy_pass http://node;
#會跳過500,502,503,504,自動分配到另一臺
proxy_next_upstream error timeout http_500 http_502 http_503 http_504;
}
}
測試
[root@web01 proxy]# systemctl stop nginx
比如關掉web01 的 nginx,再訪問網頁輸入域名,會跳過 web01 , 一直訪問 web02
Nginx負載均衡調度算法
nginx 默認輪詢機制
調度算法 | 概述 |
---|---|
輪詢(rr) | 按時間順序逐一分配到不同的後端服務器(默認) |
weight(wrr) | 加權輪詢,weight值越大,分配到的訪問機率越高 |
ip_hash | 每個請求按訪問IP的hash結果分配,這樣來自同一IP的固定訪問一個後端服務器 缺陷:達不到負載均衡 |
url_hash | 按照訪問URL的hash結果來分配請求,是每個URL定向到同一個後端服務器 |
least_conn | 最少鏈接數,那個機器鏈接數少就分發 |
nginx負載均衡輪詢具體設置 (默認輪詢)
upstream load_pass {
server 10.0.0.7:80;
server 10.0.0.8:80;
}
訪問域名,web01 和web02 頁面會輪流替換
nginx負載均衡加權輪詢具體設置
upstream load_pass {
server 10.0.0.7:80 weight=5;
#默認weight=1,可以不寫
server 10.0.0.8:80;
}
訪問域名,web01 會出現5次,然後web02 再訪問1次,這樣循環。
IP_hash具體配置不能和weight一起使用。
#如果客戶端都走相同代理, 會導致某一臺服務器連接過多
upstream load_pass {
ip_hash;
server 10.0.0.7:80 weight=5;
server 10.0.0.8:80;
}
Nginx負載均衡後端狀態
後端Web服務器在前端Nginx負載均衡調度中的狀態
狀態 | 概述 |
---|---|
down | 當前的server暫時不參與負載均衡 |
backup | 預留的備份服務器 |
max_fails | 允許請求失敗的次數 |
fail_timeout | 經過max_fails失敗後, 服務暫停時間 |
max_conns | 限制最大的接收連接數 |
測試down狀態測試該server不參與負載均衡的調度
upstream load_pass {
#不參與任何調度, 一般用於停機維護,和註釋掉是一個意思
server 10.0.0.7:80 down;
}
測試backup 以及down狀態
#會一直訪問10.0.0.7,8是備胎,不參與。
upstream load_pass {
server 10.0.0.7:80;
server 10.0.0.8:80 backup;
#如果10.0.0.7不參與了,會啓用備胎,一直訪問10.0.0.8
upstream load_pass {
server 10.0.0.7:80 down;
server 10.0.0.8:80 backup;
server 10.0.0.9:80 max_fails=1 fail_timeout=10s;
}
location / {
proxy_pass http://load_pass;
include proxy_params;
}
測試max_fails失敗次數和fail_timeout多少時間內失敗多少次則標記down
#間隔10s之後才能訪問
upstream load_pass {
server 10.0.0.7:80;
server 10.0.0.8:80 max_fails=2 fail_timeout=10s;
}
測試max_conns最大TCP連接數
upstream load_pass {
server 10.0.0.7:80;
server 10.0.0.8:80 max_conns=1;
}
Nginx負載均衡健康檢查
在Nginx官方模塊提供的模塊中,沒有對負載均衡後端節點的健康檢查模塊,但可以使用第三方模塊。
nginx_upstream_check_module
來檢測後端服務的健康狀態。
第三方模塊項目地址:TP
1.安裝依賴包
[root@lb02 ~]# yum install -y gcc glibc gcc-c++ pcre-devel openssl-devel patch
2.下載nginx源碼包以及nginx_upstream_check模塊第三方模塊
[root@lb02 ~]# wget http://nginx.org/download/nginx-1.14.2.tar.gz
#可以上傳安裝包
[root@lb02 ~]# wget https://github.com/yaoweibin/nginx_upstream_check_module/archive/master.zip
3.解壓nginx源碼包以及第三方模塊
[root@lb02 ~]# tar xf nginx-1.14.2.tar.gz
[root@lb02 ~]# unzip master.zip
4.進入nginx目錄,打補丁(nginx的版本是1.14補丁就選擇1.14的,p1代表在nginx目錄,p0是不在nginx目錄)
[root@lb02 ~]# cd nginx-1.14.2/
#加載依賴安裝包
[root@lb02 nginx-1.14.2]# patch -p1 <../nginx_upstream_check_module-master/check_1.14.0+.patch
./configure --prefix=/etc/nginx --sbin-path=/usr/sbin/nginx --modules-path=/usr/lib64/nginx/modules --conf-path=/etc/nginx/nginx.conf --error-log-path=/var/log/nginx/error.log --http-log-path=/var/log/nginx/access.log --pid-path=/var/run/nginx.pid --lock-path=/var/run/nginx.lock --http-client-body-temp-path=/var/cache/nginx/client_temp --http-proxy-temp-path=/var/cache/nginx/proxy_temp --http-fastcgi-temp-path=/var/cache/nginx/fastcgi_temp --http-uwsgi-temp-path=/var/cache/nginx/uwsgi_temp --http-scgi-temp-path=/var/cache/nginx/scgi_temp --user=nginx --group=nginx --with-compat --with-file-aio --with-threads --with-http_addition_module --with-http_auth_request_module --with-http_dav_module --with-http_flv_module --with-http_gunzip_module --with-http_gzip_static_module --with-http_mp4_module --with-http_random_index_module --with-http_realip_module --with-http_secure_link_module --with-http_slice_module --with-http_ssl_module --with-http_stub_status_module --with-http_sub_module --with-http_v2_module --with-mail --with-mail_ssl_module --with-stream --with-stream_realip_module --with-stream_ssl_module --with-stream_ssl_preread_module --add-module=/root/nginx_upstream_check_module-master --with-cc-opt='-O2 -g -pipe -Wall -Wp,-D_FORTIFY_SOURCE=2 -fexceptions -fstack-protector-strong --param=ssp-buffer-size=4 -grecord-gcc-switches -m64 -mtune=generic -fPIC' --with-ld-opt='-Wl,-z,relro -Wl,-z,now -pie'
[root@lb02 nginx-1.14.2]# make && make install
5.在已有的負載均衡上增加健康檢查的功能
[root@lb01 conf.d]# cat proxy_web.conf
upstream web {
server 172.16.1.7:80 max_fails=2 fail_timeout=10s;
server 172.16.1.8:80 max_fails=2 fail_timeout=10s;
check interval=3000 rise=2 fall=3 timeout=1000 type=tcp;
#interval 檢測間隔時間,單位爲毫秒
#rise 表示請求2次正常,標記此後端的狀態爲up
#fall 表示請求3次失敗,標記此後端的狀態爲down
#type 類型爲tcp
#timeout 超時時間,單位爲毫秒
}
server {
listen 80;
server_name up.drz.com;
location / {
proxy_pass http://web;
}
location /status {
check_status;
}
}
Nginx負載均衡會話保持
在使用負載均衡的時候會遇到會話保持的問題,可通過如下方式進行解決。
1.使用nginx的ip_hash
,根據客戶端的IP,將請求分配到對應的IP上
2.基於服務端的session
會話共享(NFS,MySQL,memcache,redis,file)
在解決負載均衡繪畫問題,我們需要了解session
和cookie
的區別。
瀏覽器端存的是cookie
每次瀏覽器發請求到服務端時,報文頭是會自動添加cookie
信息的。
服務端會查詢用戶的cookie
作爲key去存儲裏找對應的value(session)
同一域名下的網站的cookie
都是一樣的,所以無論幾臺服務器,無論請求分配到哪一臺服務器上同一用戶的cookie
是不變的。也就是說cookie
對應的session
也是唯一的。所以,這裏只要保證多臺業務服務器訪問同一個共享存儲服務器(NFS,MySQL,memcache,redis,file)就行了。
1.配置Nginx
[root@web01 conf.d]# cat php.conf
server {
listen 80;
server_name php.drz.com;
root /code/phpMyAdmin-4.9.0.1-all-languages
location / {
index index.php index.html;
}
location ~ \.php$ {
fastcgi_pass 127.0.0.1:9000;
fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
include fastcgi_params;
}
}
[root@web01 conf.d]# systemctl restart nginx
2.安裝phpmyadmin (web01和web02上都裝)
[root@web01 conf.d]# cd /code
[root@web01 code]# wget https://files.phpmyadmin.net/phpMyAdmin/4.9.0.1/phpMyAdmin-4.8.4-all-languages.zip
[root@web01 code]# unzip phpMyAdmin-4.9.0.1-all-languages.zip
3.配置phpmyadmin連接遠程的數據庫
[root@web01 code]# cd phpMyAdmin-4.9.0.1-all-languages/
[root@web01 phpMyAdmin-4.9.0.1-all-languages]# cp config.sample.inc.php config.inc.php
[root@web01 phpMyAdmin-4.9.0.1-all-languages]# vim config.inc.php
/* Server parameters */
$cfg['Servers'][$i]['host'] = '172.16.1.51';
4.配置授權
[root@web01 conf.d]# chown -R www.www /var/lib/php/
5.配置數據庫db01,測試web01遠程連接數據庫
#下載安裝數據庫
[root@db01 ~]# yum install -y mariadb-server
#啓動數據庫
[root@db01 ~]# systemctl start mariadb
[root@db01 ~]# systemctl enable mariadb
#創建密碼
[root@db01 ~]# mysqladmin -uroot password 1
#連接
[root@db01 ~]# mysql -uroot -p1
#創建庫
create database php;
#授權
grant all on php.* to php@'172.16.1.%' identified by '1‘;
#測試遠程連接數據庫
[root@web01 ~]#mysql -uphp -p1 -h172.16.1.51
使用瀏覽器訪問頁面,獲取cookie信息
[root@web01 code]# cd /var/lib/php/session/
[root@web01 session]# ll
total 8
-rw------- 1 www www 2511 Aug 28 01:33 sess_5b79c24d2208b6e3b9fd04ee9e029ef
6.將web01上配置好的phpmyadmin以及nginx的配置文件推送到web02主機上
[root@web01 code]# scp -rp /code [email protected]:/
[root@web01 code]# scp /etc/nginx/conf.d/php.conf [email protected]:/etc/nginx/conf.d/
7.在web02上重載Nginx服務
[root@web02 code]# systemctl restart nginx
8.授權
[root@web02 code]# chown -R www.www /var/lib/php/
9.接入負載均衡
[root@lb01 conf.d]# vim proxy_php.com.conf
upstream php {
server 172.16.1.7:80;
server 172.16.1.8:80;
}
server {
listen 80;
server_name php.drz.com;
location / {
proxy_pass http://php;
include proxy_params;
}
}
[root@lb01 conf.d]# nginx -t
nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
nginx: configuration file /etc/nginx/nginx.conf test is successful
[root@lb01 conf.d]# systemctl restart nginx
**使用負載均衡的輪詢功能之後,會發現,如果將session保存在本地文件的話,永遠都登錄不上去。**drz.com
#點擊幾次會生成幾個session號,web01 和web02的不一樣
[root@web01 session]# ll
total 24
-rw------- 1 www www 1100 Aug 28 01:36 sess_300e13ebd7de955af8b95883c6a7c6b7
-rw------- 1 www www 2451 Aug 28 01:01 sess_3614b9dabc29ef2bd66179b622e383f1
-rw------- 1 www www 2557 Aug 28 01:36 sess_5b79c24d2208b6e3b9fd04ee9e029efd
-rw------- 1 www www 49 Aug 28 01:36 sess_aaf91ffeab17e4753b52ee4683880141
-rw------- 1 www www 49 Aug 28 01:36 sess_e000b44afaca8417683088583d7c1187
-rw------- 1 www www 49 Aug 28 01:36 sess_e498438c4868d2bd3dc60727c9e49ead
[root@web02 session]# ll
total 16
-rw------- 1 www www 49 Aug 28 01:36 sess_1d5a1bf99675d8b4963f3e7e8c5816b2
-rw------- 1 www www 2511 Aug 28 01:28 sess_2f6a3bdfa91bea16958eea915523eb7f
-rw------- 1 www www 49 Aug 28 01:36 sess_430b58c9d38716c2022b8a16bac15a6e
-rw------- 1 www www 49 Aug 28 01:36 sess_7d57733885a650821cc7c844d3c0b0d1
使用redis內存數據庫
1.安裝redis內存數據庫
[root@db01 ~]# yum install redis -y
2.配置redis監聽在172.16.1.0網段上
[root@db01 ~]# sed -i '/^bind/c bind 127.0.0.1 172.16.1.51' /etc/redis.conf
3.啓動redis
[root@db01 ~]# systemctl start redis
[root@db01 ~]# systemctl enable redis
4.php配置session連接redis
#1.修改/etc/php.ini文件
[root@web ~]# vim /etc/php.ini
session.save_handler = redis
session.save_path = "tcp://172.16.1.51:6379"
;session.save_path = "tcp://172.16.1.51:6379?auth=123" #如果redis存在密碼,則使用該方式
session.auto_start = 1
#2.註釋php-fpm.d/www.conf裏面的兩條內容,否則session內容會一直寫入/var/lib/php/session目錄中
;php_value[session.save_handler] = files
;php_value[session.save_path] = /var/lib/php/session
5.重啓php-fpm
[root@web01 code]# systemctl restart php-fpm
6.將web01上配置好的文件推送到web02
[root@web01 code]# scp /etc/php.ini [email protected]:/etc/php.ini
[root@web01 code]# scp /etc/php-fpm.d/www.conf [email protected]:/etc/php-fpm.d/www.conf
5.上web02上重啓php-fpm
[root@web02 code]# systemctl restart php-fpm
6.redis查看數據
[root@db01 redis]# redis-cli
127.0.0.1:6379> keys *
1) "PHPREDIS_SESSION:1365eaf0490be9315496cb7382965954"
註釋php-fpm.d/www.conf裏面的兩條內容,否則session內容會一直寫入/var/lib/php/session目錄中
;php_value[session.save_handler] = files
;php_value[session.save_path] = /var/lib/php/session
5.重啓php-fpm
[root@web01 code]# systemctl restart php-fpm
6.將web01上配置好的文件推送到web02
[root@web01 code]# scp /etc/php.ini [email protected]:/etc/php.ini
[root@web01 code]# scp /etc/php-fpm.d/www.conf [email protected]:/etc/php-fpm.d/www.conf
5.上web02上重啓php-fpm
[root@web02 code]# systemctl restart php-fpm
6.redis查看數據
[root@db01 redis]# redis-cli
127.0.0.1:6379> keys *
1) "PHPREDIS_SESSION:1365eaf0490be9315496cb7382965954"