一、Nginx安裝 1、去官網(wǎng)http:///下載對(duì)應(yīng)的nginx包,推薦使用穩(wěn)定版本 2、上傳nginx到linux系統(tǒng) 3、安裝依賴環(huán)境 (1)安裝gcc環(huán)境
yum install gcc-c++
(2)安裝PCRE庫(kù),用于解析正則表達(dá)式
yum install -y pcre pcre-devel
(3)zlib壓縮和解壓縮依賴
yum install -y zlib zlib-devel
(4)SSL 安全的加密的套接字協(xié)議層,用于HTTP安全傳輸,也就是https
yum install -y openssl openssl-devel
4、解壓,需要注意,解壓后得到的是源碼,源碼需要編譯后才能安裝 tar -zxvf nginx-1.16.1.tar.gz
5、編譯之前,先創(chuàng)建nginx臨時(shí)目錄,如果不創(chuàng)建,在啟動(dòng)nginx的過程中會(huì)報(bào)錯(cuò) mkdir /var/temp/nginx -p
6、在nginx目錄,輸入如下命令進(jìn)行配置,目的是為了創(chuàng)建makefile文件 ./configure \ --prefix=/usr/local /nginx \ --pid-path=/var/run/nginx/nginx.pid \ --lock-path=/var/lock/nginx.lock \ --error-log-path=/var/log /nginx/error.log \ --http-log-path=/var/log /nginx/access.log \ --with-http_gzip_static_module \ --http-client-body-temp-path=/var/temp/nginx/client \ --http-proxy-temp-path=/var/temp/nginx/proxy \ --http-fastcgi-temp-path=/var/temp/nginx/fastcgi \ --http-uwsgi-temp-path=/var/temp/nginx/uwsgi \ --http-scgi-temp-path=/var/temp/nginx/scgi
注:代表在命令行中換行,用于提高可讀性配置命令:
7、make編譯&安裝 make make install
8、進(jìn)入sbin目錄啟動(dòng)nginx 啟動(dòng):nginx 停止:./nginx -s stop 重新加載:./nginx -s reload
二、配置反向代理 1、配置upstream
upstream [proxyName] { server 192.168.1.173:8080; server 192.168.1.174:8080; server 192.168.1.175:8080; }
2、配置server
server { listem 80; server_name www.tomcats.com; location / { proxy_pass http://tomcats; } }
三、配置負(fù)載均衡 nginx默認(rèn)采用輪訓(xùn)的方式進(jìn)行負(fù)載均衡
1、使用加權(quán)輪詢
upstream [proxyName] { server 192.168.1.173:8080 weight=1; server 192.168.1.174:8080 weight=5; server 192.168.1.175:8080 weight=2; }
2、hash負(fù)載均衡
upstream [proxyName] { ip_hash server 192.168.1.173:8080; server 192.168.1.174:8080; server 192.168.1.175:8080; }
hash算法 實(shí)際上只會(huì)計(jì)算 192.168.1這段做哈希
使用ip_hash的注意點(diǎn):
不能把后臺(tái)服務(wù)器直接移除,只能標(biāo)記down. 3、url hash負(fù)載均衡
upstream [proxyName] { hash $request_url ; server 192.168.1.173:8080; server 192.168.1.174:8080; server 192.168.1.175:8080; }
4、最小連接負(fù)載均衡
upstream [proxyName] { least_conn; server 192.168.1.173:8080; server 192.168.1.174:8080; server 192.168.1.175:8080; }
四、upstream指令參數(shù) max_conns
:限制最大同時(shí)連接數(shù) 1.11.5之前只能用于商業(yè)版
slow_start
:?jiǎn)挝幻?,?quán)重在指定時(shí)間內(nèi)從1上升到指定值,不適用與hash負(fù)載均衡、隨機(jī)負(fù)載均衡
如果在 upstream 中只有一臺(tái) server,則該參數(shù)失效(商業(yè)版才有)
backup
:備用機(jī) 只有在其他服務(wù)器無法訪問的時(shí)候才能訪問到 不適用與hash負(fù)載均衡、隨機(jī)負(fù)載均衡
max_fails
:表示失敗幾次,則標(biāo)記server已宕機(jī),剔出上游服務(wù) 默認(rèn)值1
fail_timeout
:表示失敗的重試時(shí)間 默認(rèn)值10
1、keepalived
upstream [proxyName] { server 192.168.1.173:8080 weight=1; server 192.168.1.174:8080 weight=5; server 192.168.1.175:8080 weight=2; keepalive 32; #保持的連接數(shù) } server { listem 80; server_name www.tomcats.com; location / { proxy_pass http://tomcats; proxy_http_version 1.1; #連接的協(xié)議版本 proxy_set_header Connection "" ; 清空連接請(qǐng)求頭 } }
2、控制瀏覽器緩存
server { listem 80; server_name www.tomcats.com; location / { proxy_pass http://tomcats; expires 10s; #瀏覽器緩存10秒鐘 #expires @22h30m #在晚上10點(diǎn)30的時(shí)候過期 #expires -1h #緩存在一小時(shí)前時(shí)效 #expires epoch #不設(shè)置緩存 #expires off #緩存關(guān)閉,瀏覽器自己控制緩存 #expires max #最大過期時(shí)間 } }
3、反向代理緩存
upstream [proxyName] { server 192.168.1.173:8080 weight=1; server 192.168.1.174:8080 weight=5; server 192.168.1.175:8080 weight=2; }#proxy_cache_path 設(shè)置緩存保存的目錄的位置 #keys_zone設(shè)置共享內(nèi)以及占用的空間大小 #mas_size 設(shè)置緩存最大空間 #inactive 緩存過期時(shí)間,錯(cuò)過此時(shí)間自動(dòng)清理 #use_temp_path 關(guān)閉零時(shí)目錄 proxy_cache_path /usr/local /nginx/upsteam_cache keys_zone=mycache:5m max_size=1g inactive=8h use_temp_path=off; server { listem 80; server_name www.tomcats.com; #開啟并使用緩存 proxy_cache mycache; #針對(duì)200和304響應(yīng)碼的緩存過期時(shí)間 proxy_cache_valid 200 304 8h; location / { proxy_pass http://tomcats; } }
五、配置ssl證書提供https訪問 1. 安裝SSL模塊 要在nginx中配置https,就必須安裝ssl模塊,也就是: http_ssl_module
。
進(jìn)入到nginx的解壓目錄:/home/software/nginx-1.16.1
新增ssl模塊(原來的那些模塊需要保留)
./configure \ --prefix=/usr/local /nginx \ --pid-path=/var/run/nginx/nginx.pid \ --lock-path=/var/lock/nginx.lock \ --error-log-path=/var/log /nginx/error.log \ --http-log-path=/var/log /nginx/access.log \ --with-http_gzip_static_module \ --http-client-body-temp-path=/var/temp/nginx/client \ --http-proxy-temp-path=/var/temp/nginx/proxy \ --http-fastcgi-temp-path=/var/temp/nginx/fastcgi \ --http-uwsgi-temp-path=/var/temp/nginx/uwsgi \ --http-scgi-temp-path=/var/temp/nginx/scgi \ --with-http_ssl_module
編譯和安裝
make make install
2、配置HTTPS 把ssl證書 *.crt
和 私鑰 *.key
拷貝到/usr/local/nginx/conf
目錄中。
新增 server 監(jiān)聽 443 端口:
server { listen 443; server_name www.imoocdsp.com; # 開啟ssl ssl on; # 配置ssl證書 ssl_certificate 1_www.imoocdsp.com_bundle.crt; # 配置證書秘鑰 ssl_certificate_key 2_www.imoocdsp.com.key; # ssl會(huì)話cache ssl_session_cache shared:SSL:1m; # ssl會(huì)話超時(shí)時(shí)間 ssl_session_timeout 5m; # 配置加密套件,寫法遵循 openssl 標(biāo)準(zhǔn) ssl_protocols TLSv1 TLSv1.1 TLSv1.2; ssl_ciphers ECDHE-RSA-AES128-GCM-SHA256:HIGH:!aNULL:!MD5:!RC4:!DHE; ssl_prefer_server_ciphers on; location / { proxy_pass http://tomcats/; index index.html index.htm; } }
六、配置ha nginx 1、安裝keepalived (1)下載
https://www./download.html
(2)解壓
tar -zxvf keepalived-2.0.18.tar.gz
(3)使用configure命令配置安裝目錄與核心配置文件所在位置:
./configure --prefix=/usr/local /keepalived --sysconf=/etc
prefix :keepalived安裝的位置sysconf:keepalived核心配置文件所在位置,固定位置,改成其他位置則keepalived啟動(dòng)不了,/var/log/messages
中會(huì)報(bào)錯(cuò)
sysconf :keepalived核心配置文件所在位置,固定位置,改成其他位置則keepalived啟動(dòng)不了,/var/log/messages
中會(huì)報(bào)錯(cuò)
配置過程中可能會(huì)出現(xiàn)警告信息,如下所示:
*** WARNING - this build will not support IPVS with IPv6. Please install libnl/libnl-3 dev libraries to support IPv6 with IPVS.# 安裝libnl/libnl-3依賴 yum -y install libnl libnl-devel
(4)安裝keepalived
make && make install
(5)配置文件 在/etc/keepalived/keepalived.conf
(6)忘記安裝配置的目錄,則通過如下命令找到:
whereis keepalived
(7)啟動(dòng)keepalived
進(jìn)入sbin目錄
./keepalived
2、配置keepalived 主機(jī) (1)通過命令 vim keepalived.conf
打開配置文件
global_defs { # 路由id:當(dāng)前安裝keepalived的節(jié)點(diǎn)主機(jī)標(biāo)識(shí)符,保證全局唯一 router_id keep_171 } vrrp_instance VI_1 { # 表示狀態(tài)是MASTER主機(jī)還是備用機(jī)BACKUP state MASTER # 該實(shí)例綁定的網(wǎng)卡 interface ens33 # 保證主備節(jié)點(diǎn)一致即可 virtual_router_id 51 # 權(quán)重,master權(quán)重一般高于backup,如果有多個(gè),那就是選舉,誰的權(quán)重高,誰就當(dāng)選 priority 100 # 主備之間同步檢查時(shí)間間隔,單位秒 advert_int 2 # 認(rèn)證權(quán)限密碼,防止非法節(jié)點(diǎn)進(jìn)入 authentication { auth_type PASS auth_pass 1111 } # 虛擬出來的ip,可以有多個(gè)(vip) virtual_ipaddress { 192.168.1.161 } }
附:查看網(wǎng)卡信息命令
ip addr
(2)啟動(dòng)keepalived
(3)查看進(jìn)程
ps -ef|grep keepalived
(4)查看vip(虛擬ip)
在網(wǎng)卡ens33下,多了一個(gè)192.168.1.161
,這個(gè)就是虛擬ip
3、把keepalived注冊(cè)為系統(tǒng)服務(wù) (1)拷貝配置文件
將keepalived目錄下etc/init.d/keepalived
拷貝到/etc/init.d/
下 將keepalived目錄下etc/sysconfig/keepalived
拷貝到/etc/sysconfig/
下 (2)刷新systemctl
systemctl daemon-reload
(3)啟動(dòng)、停止、重啟keepalived
#啟動(dòng) systemctl start keepalived.service#停止 systemctl stop keepalived.service#重啟 systemctl restart keepalived.service
4、實(shí)現(xiàn)雙機(jī)主備高可用 (1)修改備機(jī)配置
global_defs { router_id keep_172 } vrrp_instance VI_1 { # 備用機(jī)設(shè)置為BACKUP state BACKUP interface ens33 virtual_router_id 51 # 權(quán)重低于MASTER priority 80 advert_int 2 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { # 注意:主備兩臺(tái)的vip都是一樣的,綁定到同一個(gè)vip 192.168.1.161 } }
(2) 啟動(dòng) Keepalived
(3) 訪問vip即可訪問主機(jī),當(dāng)主機(jī)失效時(shí)訪問vip就會(huì)訪問到備機(jī)
5、keepalived配置nginx自動(dòng)重啟 (1)編寫腳本
在/etc/keepalived/
下創(chuàng)建腳本check_nginx_alive_or_not
#!/bin/bash A=`ps -C nginx --no-header |wc -l` # 判斷nginx是否宕機(jī),如果宕機(jī)了,嘗試重啟 if [ $A -eq 0 ];then /usr/local /nginx/sbin/nginx # 等待一小會(huì)再次檢查nginx,如果沒有啟動(dòng)成功,則停止keepalived,使其啟動(dòng)備用機(jī) sleep 3 if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then killall keepalived fi fi
(2)添加運(yùn)行權(quán)限
chmod +x /etc/keepalived/check_nginx_alive_or_not.sh
(3)配置keepalived監(jiān)聽nginx腳本
vrrp_script check_nginx_alive { script "/etc/keepalived/check_nginx_alive_or_not.sh" interval 2 # 每隔兩秒運(yùn)行上一行腳本 weight 10 # 如果腳本運(yùn)行失敗,則升級(jí)權(quán)重+10 }
(4)在vrrp_instance中新增監(jiān)控的腳本
track_script { check_nginx_alive # 追蹤 nginx 腳本 }
(5)重啟Keepalived使得配置文件生效
systemctl restart keepalived
6、keepalived雙主熱備 (1)配置DNS輪詢
在同一個(gè)域名下配置兩個(gè)ip,自行百度
(2)配置第一臺(tái)主機(jī)
global_defs { router_id keep_171 } vrrp_instance VI_1 { state MASTER i nterface ens33 virtual_router_id 51 priority 100 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.161 } } vrrp_instance VI_2 { state BACKUP interface ens33 virtual_router_id 52 priority 80 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.162 } }
(3)配置第二臺(tái)主機(jī)
global_defs { router_id keep_172 } vrrp_instance VI_1 { state BACKUP interface ens33 virtual_router_id 51 priority 80 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.161 } } vrrp_instance VI_2 { state MASTER interface ens33 virtual_router_id 52 priority 100 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.162 } }
(4)重啟兩臺(tái)Keepalived
systemctl restart keepalived
七、LVS(Linux Virtual Server)實(shí)現(xiàn)高可用負(fù)載均衡 1、為什么要使用LVS+Nginx lvs基于四層負(fù)載均衡 ,工作效率較Nginx的七層負(fù)載更高,使用LVS搭建Nginx集群,可以提高性能 四層負(fù)載均衡無法對(duì)信息處理,只能通過ip+端口的形式轉(zhuǎn)發(fā),所以需要七成負(fù)載進(jìn)行數(shù)據(jù)的處理 Nginx接收請(qǐng)求來回,LVS可以只接受不響應(yīng) 2、LVS的三種模式 (1)NAT模式
客戶端將請(qǐng)求發(fā)往LVS,LVS會(huì)選擇一臺(tái)服務(wù)器響應(yīng)請(qǐng)求,服務(wù)器將結(jié)果返回給LVS,LVS再返回給客戶端。 在NAT模式中,服務(wù)器的網(wǎng)關(guān)必須指向LVS,否則報(bào)文無法送達(dá)客戶端 NAT 技術(shù)將請(qǐng)求的報(bào)文和響應(yīng)的報(bào)文都需要通過LVS進(jìn)行地址改寫,因此網(wǎng)站訪問量比較大的時(shí)候負(fù)載均衡調(diào)度器有比較大的瓶頸,一般要求最多之能 10-20 臺(tái)節(jié)點(diǎn) NAT 模式支持對(duì) IP 地址和端口進(jìn)行轉(zhuǎn)換。即用戶請(qǐng)求的端口和真實(shí)服務(wù)器的端口可以不一致 (2)TUN模式
客戶端將請(qǐng)求發(fā)往LVS,LVS會(huì)選擇一臺(tái)服務(wù)器響應(yīng)請(qǐng)求,在客戶端與服務(wù)器之間建立隧道,返回結(jié)果的時(shí)候直接由服務(wù)器返回響應(yīng),不在經(jīng)過LVS。 TUN模式必須所有的服務(wù)器上都綁定VIP的IP地址,所有的服務(wù)器都必須有網(wǎng)卡。 TUN模式走隧道運(yùn)維難度大,并且會(huì)直接暴露服務(wù)器地址 服務(wù)器將應(yīng)答包直接發(fā)給用戶。所以,減少了負(fù)載均衡器的大量數(shù)據(jù)流動(dòng),負(fù)載均衡器不再是系統(tǒng)的瓶頸,就能處理很巨大的請(qǐng)求量,這種方式,一臺(tái)負(fù)載均衡器能夠?yàn)楹芏喾?wù)器進(jìn)行分發(fā)。而且跑在公網(wǎng)上就能進(jìn)行不同地域的分發(fā) (3)DR模式
客戶端將請(qǐng)求發(fā)往LVS,LVS會(huì)選擇一臺(tái)服務(wù)器響應(yīng)請(qǐng)求,返回結(jié)果的時(shí)候通過統(tǒng)一的路由進(jìn)行返回,不在經(jīng)過LVS。 和TUN模式一樣,LVS只是分發(fā)請(qǐng)求,應(yīng)答包通過單獨(dú)的路由返回給客戶端,與TUN相比這種方式不需要隧道結(jié)構(gòu),可以兼容大多數(shù)的操作系統(tǒng),同時(shí)統(tǒng)一路由可以隱藏真實(shí)的物理服務(wù)器。DR模式效率更高,但配置更復(fù)雜. 所有服務(wù)器節(jié)點(diǎn)和LVS只能在一個(gè)局域網(wǎng)里面。 3、搭建LVS-DR模式 先關(guān)閉掉服務(wù)器上網(wǎng)絡(luò)配置管理器,避免網(wǎng)絡(luò)接口沖突
systemctl stop NetworkManager systemctl disable NetworkManager
(1)創(chuàng)建子接口(創(chuàng)建LVS的虛擬ip)
進(jìn)入網(wǎng)卡配置目錄/etc/sysconfig/network-scripts/
,找到網(wǎng)卡配置文件,這里以ifcfg-ens33
為例,拷貝并創(chuàng)建子接口
cp ifcfg-ens33 ifcfg-ens33:1
修改子接口配置如下
配置中的 192.168.1.150 就是vip,是提供給外網(wǎng)用戶訪問的ip地址 DEVICE="ens33:1" ONBOOT="yes" IPADDR=192.168.1.150 NETMASK=255.255.255.0 BOOTPROTO=static
service network restart
重啟成功后,ip addr 查看一下,你會(huì)發(fā)現(xiàn)多了一個(gè)ip,也就是虛擬ip(vip)
注意:阿里云不支持配置網(wǎng)卡,需要購(gòu)買相應(yīng)的負(fù)載均衡服務(wù),騰訊云支持配置網(wǎng)卡,但需要購(gòu)買網(wǎng)卡支持,一個(gè)網(wǎng)卡支持10個(gè)虛擬ip配置
(2)安裝ipvsadm
如今的centos都集成了LVS,所以ipvs是自帶的,我們只需要安裝ipvsadm即可(ipvsadm是管理集群的工具,通過ipvs可以管理集群,查看集群等操作)
yum install ipvsadm
(3)配置服務(wù)器(RS)的虛擬ip
進(jìn)入網(wǎng)卡配置目錄/etc/sysconfig/network-scripts/
,找到ifcfg-lo
,拷貝并創(chuàng)建子接口
cp ifcfg-lo ifcfg-lo:1
修改子接口配置如下
DEVICE="lo:1" IPADDR=192.168.1.150 NETMASK=255.255.255.255 NETWORK=127.0.0.0 BROADCAST=127.255.255.255 ONBOOT="yes" NAME=loopback
重啟網(wǎng)絡(luò)服務(wù)成功后,ip addr
查看一下,你會(huì)發(fā)現(xiàn)多了一個(gè)ip,也就是虛擬ip(vip)
(4)為服務(wù)器(RS)配置arp
ARP響應(yīng)級(jí)別與通告行為參數(shù)說明
arp-ignore:ARP響應(yīng)級(jí)別(處理請(qǐng)求) 0:只要本機(jī)配置了ip,就能響應(yīng)請(qǐng)求 1:請(qǐng)求的目標(biāo)地址到達(dá)對(duì)應(yīng)的網(wǎng)絡(luò)接口,才會(huì)響應(yīng)請(qǐng)求 arp-announce:ARP通告行為(返回響應(yīng)) 0:本機(jī)上任何網(wǎng)絡(luò)接口都向外通告,所有的網(wǎng)卡都能接受到通告 1:盡可能避免本網(wǎng)卡與不匹配的目標(biāo)進(jìn)行通告2:只在本網(wǎng)卡通告
打開sysctl.conf:
vim /etc/sysctl.conf
配置所有網(wǎng)卡、默認(rèn)網(wǎng)卡以及虛擬網(wǎng)卡的arp響應(yīng)級(jí)別和通告行為,分別對(duì)應(yīng):all,default,lo
# configration for lvs net.ipv4.conf.all.arp_ignore = 1 net.ipv4.conf.default.arp_ignore = 1 net.ipv4.conf.lo.arp_ignore = 1 net.ipv4.conf.all.arp_announce = 2 net.ipv4.conf.default.arp_announce = 2 net.ipv4.conf.lo.arp_announce = 2
刷新配置文件
sysctl -p
增加一個(gè)網(wǎng)關(guān),用于接收數(shù)據(jù)報(bào)文,當(dāng)有請(qǐng)求到本機(jī)后,會(huì)交給lo去處理
route add -host 192.168.1.150 dev lo:1
將網(wǎng)關(guān)添加至開機(jī)啟動(dòng)
echo "route add -host 192.168.1.150 dev lo:1" >> /etc/rc.local
(4)使用ipvsadm配置集群規(guī)則
創(chuàng)建LVS節(jié)點(diǎn),用戶訪問的集群調(diào)度者
ipvsadm -A -t 192.168.1.150:80 -s rr -p 5
-t:tcp協(xié)議ip地址:設(shè)定集群的訪問 -p:設(shè)置連接持久化的時(shí)間,在指定時(shí)間內(nèi)同一個(gè)用戶的請(qǐng)求會(huì)訪問到同一個(gè)服務(wù)器中 創(chuàng)建多臺(tái)RS真實(shí)服務(wù)器
ipvsadm -a -t 192.168.1.150:80 -r 192.168.1.171:80 -g ipvsadm -a -t 192.168.1.150:80 -r 192.168.1.172:80 -g
保存到規(guī)則庫(kù),否則重啟失效
ipvsadm -S
檢查集群
#查看集群列表 ipvsadm -Ln#查看集群狀態(tài) ipvsadm -Ln --stats
一些其他命令
# 重啟ipvsadm,重啟后需要重新配置 service ipvsadm restart # 查看持久化連接 ipvsadm -Ln --persistent-conn # 查看連接請(qǐng)求過期時(shí)間以及請(qǐng)求源ip和目標(biāo)ip ipvsadm -Lnc # 設(shè)置tcp tcpfin udp 的過期時(shí)間(一般保持默認(rèn)) ipvsadm --set 1 1 1 # 查看過期時(shí)間 ipvsadm -Ln --timeout
(5)訪問虛擬ip,完成LVS搭建
附:LVS的負(fù)載均衡算法 (1)靜態(tài)算法 靜態(tài):根據(jù)LVS本身自由的固定的算法分發(fā)用戶請(qǐng)求。
輪詢(Round Robin 簡(jiǎn)寫’rr’):輪詢算法假設(shè)所有的服務(wù)器處理請(qǐng)求的能力都一樣的,調(diào)度器會(huì)把所有的請(qǐng)求平均分配給每個(gè)真實(shí)服務(wù)器。(同Nginx的輪詢) 加權(quán)輪詢(Weight Round Robin 簡(jiǎn)寫’wrr’):安裝權(quán)重比例分配用戶請(qǐng)求。權(quán)重越高,被分配到處理的請(qǐng)求越多。(同Nginx的權(quán)重) 源地址散列(Source Hash 簡(jiǎn)寫’sh’):同一個(gè)用戶ip的請(qǐng)求,會(huì)由同一個(gè)RS來處理。(同Nginx的ip_hash) 目標(biāo)地址散列(Destination Hash 簡(jiǎn)寫’dh’):根據(jù)url的不同,請(qǐng)求到不同的RS。(同Nginx的url_hash) (2)動(dòng)態(tài)算法 動(dòng)態(tài):會(huì)根據(jù)流量的不同,或者服務(wù)器的壓力不同來分配用戶請(qǐng)求,這是動(dòng)態(tài)計(jì)算的。
最小連接數(shù)(Least Connections 簡(jiǎn)寫’lc’):把新的連接請(qǐng)求分配到當(dāng)前連接數(shù)最小的服務(wù)器。 加權(quán)最少連接數(shù)(Weight Least Connections 簡(jiǎn)寫’wlc’):服務(wù)器的處理性能用數(shù)值來代表,權(quán)重越大處理的請(qǐng)求越多。Real Server 有可能會(huì)存在性能上的差異,wlc動(dòng)態(tài)獲取不同服務(wù)器的負(fù)載狀況,把請(qǐng)求分發(fā)到性能好并且比較空閑的服務(wù)器。 最短期望延遲(Shortest Expected Delay 簡(jiǎn)寫’sed’):特殊的wlc算法。舉例闡述,假設(shè)有ABC三臺(tái)服務(wù)器,權(quán)重分別為1、2、3 。如果使用wlc算法的話,當(dāng)一個(gè)新請(qǐng)求進(jìn)來,它可能會(huì)分給ABC中的任意一個(gè)。使用sed算法后會(huì)進(jìn)行如下運(yùn)算: 最終結(jié)果,會(huì)把這個(gè)請(qǐng)求交給得出運(yùn)算結(jié)果最小的服務(wù)器。最少隊(duì)列調(diào)度(Never Queue 簡(jiǎn)寫’nq’):永不使用隊(duì)列。如果有Real Server的連接數(shù)等于0,則直接把這個(gè)請(qǐng)求分配過去,不需要在排隊(duì)等待運(yùn)算了(sed運(yùn)算)。
八、搭建Keepalived+Lvs+Nginx高可用集群負(fù)載均衡 如果原先服務(wù)器上配置了LVS+nginx需要清空ipvsadm中的配置
ipvsadm -C
如果配置了Keepalived+Nginx
雙主集群也需要去除掉Keepalived中原先的配置,按照的后文進(jìn)行配置
(1)使用keepalived配置Master LVS 在LVS的機(jī)器上安裝keepalived ,安裝過程參考上文
(1)修改keepalived的配置
global_defs { router_id keep_151 } vrrp_instance VI_1 { state MASTER interface ens33 virtual_router_id 41 priority 100 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.150 } } #配置集群訪問的ip+端口,端口和nginx保持一致 virtual_server 192.168.1.150 80{ #健康檢查的時(shí)間,單位:秒 delay_loop 6 #配置負(fù)載均衡的算法,默認(rèn)的輪詢 lb_algo rr #設(shè)置LVS的模式 NAT|TUN|DR lb-kind DR #設(shè)置會(huì)話持久化的時(shí)間 persistence_timeout 5 #協(xié)議 protocol TCP #配置負(fù)載均衡的真實(shí)服務(wù)器,也就是nginx節(jié)點(diǎn)的具體的ip地址 real_server 192.168.1.171 80{ #輪詢權(quán)重配比 weight 1 #設(shè)置健康檢查 TCP_CHECK { #檢查80端口 connect_port 80 #超時(shí)時(shí)間 connect_timeout 2 #重試次數(shù) nb_get_retry 2 #重試間隔時(shí)間 delay_before_retry 3 } } real_server 192.168.1.171 80{ weight 1 TCP_CHECK { connect_port 80 connect_timeout 2 nb_get_retry 2 delay_before_retry 3 } } }
(2)啟動(dòng)/重啟keepalived
systemctl restart keepalived
(2)使用keepalived配置Backup LVS 配置在備用機(jī)上
global_defs { router_id keep_152 } vrrp_instance VI_1 { state BACKUP interface ens33 virtual_router_id 41 priority 50 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.150 } } #配置集群訪問的ip+端口,端口和nginx保持一致 virtual_server 192.168.1.150 80{ #健康檢查的時(shí)間,單位:秒 delay_loop 6 #配置負(fù)載均衡的算法,默認(rèn)的輪詢 lb_algo rr #設(shè)置LVS的模式 NAT|TUN|DR lb-kind DR #設(shè)置會(huì)話持久化的時(shí)間 persistence_timeout 5 #協(xié)議 protocol TCP #配置負(fù)載均衡的真實(shí)服務(wù)器,也就是nginx節(jié)點(diǎn)的具體的ip地址 real_server 192.168.1.171 80{ #輪詢權(quán)重配比 weight 1 #設(shè)置健康檢查 TCP_CHECK { #檢查80端口 connect_port 80 #超時(shí)時(shí)間 connect_timeout 2 #重試次數(shù) nb_get_retry 2 #重試間隔時(shí)間 delay_before_retry 3 } } real_server 192.168.1.171 80{ weight 1 TCP_CHECK { connect_port 80 connect_timeout 2 nb_get_retry 2 delay_before_retry 3 } } }