nignx 負載均衡的幾種演算法介紹

本兮言發表於2018-03-21

一、Nginx負載均衡演算法

    1、輪詢(預設)

        每個請求按時間順序逐一分配到不同的後端服務,如果後端某臺伺服器當機,自動剔除故障系統,使使用者訪問不受影響。

    2、weight(輪詢權值)

        weight的值越大分配到的訪問概率越高,主要用於後端每臺伺服器效能不均衡的情況下。或者僅僅為在主從的情況下設定不同的權值,達到合理有效的地利用主機資源。

    3、ip_hash源地址雜湊法

源地址雜湊的思想是根據獲取客戶端的IP地址,通過雜湊函式計算得到的一個數值,用該數值對伺服器列表的大小進行取模運算,得到的結果便是客服端要訪問伺服器的序號。採用源地址雜湊法進行負載均衡,同一IP地址的客戶端,當後端伺服器列表不變時,它每次都會對映到同一臺後端伺服器進行訪問。

    4、fair

        比 weight、ip_hash更加智慧的負載均衡演算法,fair演算法可以根據頁面大小和載入時間長短智慧地進行負載均衡,也就是根據後端伺服器的響應時間 來分配請求,響應時間短的優先分配。Nginx本身不支援fair,如果需要這種排程演算法,則必須安裝upstream_fair模組。

    5、url_hash

        按訪問的URL的雜湊結果來分配請求,使每個URL定向到一臺後端伺服器,可以進一步提高後端快取伺服器的效率。Nginx本身不支援url_hash,如果需要這種排程演算法,則必須安裝Nginx的hash軟體包。

 

一、輪詢(預設) 

每個請求按時間順序逐一分配到不同的後端伺服器,如果後端伺服器down掉,能自動剔除。 

二、weight

指定輪詢機率,weight和訪問比率成正比,用於後端伺服器效能不均的情況。  
例如:  

複製程式碼程式碼如下:

upstream bakend {  
server 192.168.0.14 weight=10;  
server 192.168.0.15 weight=10;  
}

 

三、ip_hash

每個請求按訪問ip的hash結果分配,這樣每個訪客固定訪問一個後端伺服器,可以解決session的問題。  
例如:  

複製程式碼程式碼如下:

upstream bakend {  
ip_hash;  
server 192.168.0.14:88;  
server 192.168.0.15:80;  

 

四、fair(第三方)

按後端伺服器的響應時間來分配請求,響應時間短的優先分配。  

複製程式碼程式碼如下:

upstream backend {  
server server1;  
server server2;  
fair;  
}

 

 

五、url_hash(第三方)  

按訪問url的hash結果來分配請求,使每個url定向到同一個後端伺服器,後端伺服器為快取時比較有效。  
例:在upstream中加入hash語句,server語句中不能寫入weight等其他的引數,hash_method是使用的hash演算法  

複製程式碼程式碼如下:

upstream backend {  
server squid1:3128;  // 10.0.0.10:7777
server squid2:3128;  //10.0.0.11:8888
hash $request_uri;  
hash_method crc32; } 

二、Nginx負載均衡排程狀態

  在Nginx upstream模組中,可以設定每臺後端伺服器在負載均衡排程中的狀態,常用的狀態有:

    1、down,表示當前的server暫時不參與負載均衡

    2、backup,預留的備份機器。當其他所有的非backup機器出現故障或者忙的時候,才會請求backup機器,因此這臺機器的訪問壓力最低

    3、max_fails,允許請求失敗的次數,預設為1,當超過最大次數時,返回proxy_next_upstream模組定義的錯誤。

    4、fail_timeout,請求失敗超時時間,在經歷了max_fails次失敗後,暫停服務的時間。max_fails和fail_timeout可以一起使用。

如果Nginx沒有僅僅只能代理一臺伺服器的話,那它也不可能像今天這麼火,Nginx可以配置代理多臺伺服器,當一臺伺服器當機之後,仍能保持系統可用。具體配置過程如下:

1. 在http節點下,新增upstream節點。

upstream linuxidc { 
      server 10.0.6.108:7080; 
      server 10.0.0.85:8980; 
}

  2.  將server節點下的location節點中的proxy_pass配置為:http:// + upstream名稱,即“
http://linuxidc”.


location / { 
            root  html; 
            index  index.html index.htm; 
            proxy_pass http://linuxidc; 
}

    3.  現在負載均衡初步完成了。upstream按照輪詢(預設)方式進行負載,每個請求按時間順序逐一分配到不同的後端伺服器,如果後端伺服器down掉,能自動剔除。雖然這種方式簡便、成本低廉。但缺點是:可靠性低和負載分配不均衡。適用於圖片伺服器叢集和純靜態頁面伺服器叢集。

    除此之外,upstream還有其它的分配策略,分別如下:

    weight(權重)

    指定輪詢機率,weight和訪問比率成正比,用於後端伺服器效能不均的情況。如下所示,10.0.0.88的訪問比率要比10.0.0.77的訪問比率高一倍。

upstream linuxidc{ 
      server 10.0.0.77 weight=5; 
      server 10.0.0.88 weight=10; 
}

    ip_hash(訪問ip)

    每個請求按訪問ip的hash結果分配,這樣每個訪客固定訪問一個後端伺服器,可以解決session的問題。

upstream favresin{ 
      ip_hash; 
      server 10.0.0.10:8080; 
      server 10.0.0.11:8080; 
}

    fair(第三方)

    按後端伺服器的響應時間來分配請求,響應時間短的優先分配。與weight分配策略類似。

 upstream favresin{      
      server 10.0.0.10:8080; 
      server 10.0.0.11:8080; 
      fair; 
}

url_hash(第三方)

按訪問url的hash結果來分配請求,使每個url定向到同一個後端伺服器,後端伺服器為快取時比較有效。

注意:在upstream中加入hash語句,server語句中不能寫入weight等其他的引數,hash_method是使用的hash演算法。

 upstream resinserver{ 
      server 10.0.0.10:7777; 
      server 10.0.0.11:8888; 
      hash $request_uri; 
      hash_method crc32; 
}

upstream還可以為每個裝置設定狀態值,這些狀態值的含義分別如下:

down 表示單前的server暫時不參與負載.

weight 預設為1.weight越大,負載的權重就越大。

max_fails :允許請求失敗的次數預設為1.當超過最大次數時,返回proxy_next_upstream 模組定義的錯誤.

fail_timeout : max_fails次失敗後,暫停的時間。

backup: 其它所有的非backup機器down或者忙的時候,請求backup機器。所以這臺機器壓力會最輕。

upstream bakend{ #定義負載均衡裝置的Ip及裝置狀態 
      ip_hash; 
      server 10.0.0.11:9090 down; 
      server 10.0.0.11:8080 weight=2; 
      server 10.0.0.11:6060; 
      server 10.0.0.11:7070 backup; 
}

相關文章