Nginx的產生
沒有聽過Nginx?那麼一定聽過它的“同行”Apache吧!Nginx同Apache一樣都是一種WEB伺服器。基於REST架構風格,以統一資源描述符(Uniform Resources Identifier)URI或者統一資源定位符(Uniform Resources Locator)URL作為溝通依據,通過HTTP協議提供各種網路服務。
然而,這些伺服器在設計之初受到當時環境的侷限,例如當時的使用者規模,網路頻寬,產品特點等侷限並且各自的定位和發展都不盡相同。這也使得各個WEB伺服器有著各自鮮明的特點。
Apache的發展時期很長,而且是毫無爭議的世界第一大伺服器。它有著很多有點:穩定、開源、跨平臺等等。但是由於它出現的時間太長了。它興起的年代,網際網路產業遠比不上現在。所以它被設計為一個重量級的。不支援高併發的伺服器。在Apache上執行數以萬計的併發訪問,會導致伺服器消耗大量記憶體。作業系統對其進行程式或執行緒間的切換也消耗了大量的CPU資源,導致HTTP請求的平均響應速度降低。
這些都決定了Apache不可能成為高效能WEB伺服器,輕量級高併發伺服器Nginx就應運而生了。
俄羅斯的工程師Igor Sysoev,他在為Rambler Media工作期間,使用C語言開發了Nginx。Nginx作為WEB伺服器一直為Rambler Media提供出色而又穩定的服務。
然後呢,Igor Sysoev將Nginx程式碼開源,並且賦予自由軟體許可證。
由於:
Nginx使用基於事件驅動架構,使得其可以支援數以百萬級別的TCP連線
高度的模組化和自由軟體許可證是的第三方模組層出不窮(這是個開源的時代啊~)
Nginx是一個跨平臺伺服器,可以執行在Linux, FreeBSD, Solaris, AIX, Mac OS, Windows等作業系統上
這些優秀的設計帶來的極大的穩定性。
所以,Nginx火了!
Nginx的用武之地
Nginx是一款自由的、開源的、高效能的HTTP伺服器和反向代理伺服器;同時也是一個IMAP、POP3、SMTP代理伺服器;Nginx可以作為一個HTTP伺服器進行網站的釋出處理,另外nginx可以作為反向代理進行負載均衡的實現。
關於代理
說到代理,首先我們要明確一個概念,所謂代理就是一個代表、一個渠道;
此時就設計到兩個角色,一個是被代理角色,一個是目標角色,被代理角色通過這個代理訪問目標角色完成一些任務的過程稱為代理操作過程;如同生活中的專賣店~客人到adidas專賣店買了一雙鞋,這個專賣店就是代理,被代理角色就是adidas廠家,目標角色就是使用者。
正向代理
說反向代理之前,我們先看看正向代理,正向代理也是大家最常接觸的到的代理模式,我們會從兩個方面來說關於正向代理的處理模式,分別從軟體方面和生活方面來解釋一下什麼叫正向代理
在如今的網路環境下,我們如果由於技術需要要去訪問國外的某些網站,此時你會發現位於國外的某網站我們通過瀏覽器是沒有辦法訪問的,此時大家可能都會用一個操作FQ進行訪問,FQ的方式主要是找到一個可以訪問國外網站的代理伺服器,我們將請求傳送給代理伺服器,代理伺服器去訪問國外的網站,然後將訪問到的資料傳遞給我們!
上述這樣的代理模式稱為正向代理,正向代理最大的特點是客戶端非常明確要訪問的伺服器地址;伺服器只清楚請求來自哪個代理伺服器,而不清楚來自哪個具體的客戶端;正向代理模式遮蔽或者隱藏了真實客戶端資訊。
反向代理
明白了什麼是正向代理,我們繼續看關於反向代理的處理方式,舉例如我大天朝的某寶網站,每天同時連線到網站的訪問人數已經爆表,單個伺服器遠遠不能滿足人民日益增長的購買慾望了,此時就出現了一個大家耳熟能詳的名詞:分散式部署;也就是通過部署多臺伺服器來解決訪問人數限制的問題;某寶網站中大部分功能也是直接使用nginx進行反向代理實現的,並且通過封裝nginx和其他的元件之後起了個高大上的名字:Tengine,有興趣的童鞋可以訪問Tengine的官網檢視具體的資訊:http://tengine.taobao.org/。那麼反向代理具體是通過什麼樣的方式實現的分散式的叢集操作呢,我們先看一個示意圖:
通過上述的圖解大家就可以看清楚了,多個客戶端給伺服器傳送的請求,Nginx伺服器接收到之後,按照一定的規則分發給了後端的業務處理伺服器進行處理了。此時~請求的來源也就是客戶端是明確的,但是請求具體由哪臺伺服器處理的並不明確了,Nginx扮演的就是一個反向代理角色
反向代理,主要用於伺服器叢集分散式部署的情況下,反向代理隱藏了伺服器的資訊!
專案場景
通常情況下,我們在實際專案操作時,正向代理和反向代理很有可能會存在在一個應用場景中,正向代理代理客戶端的請求去訪問目標伺服器,目標伺服器是一個反向單利伺服器,反向代理了多臺真實的業務處理伺服器。具體的拓撲圖如下:
負載均衡
我們已經明確了所謂代理伺服器的概念,那麼接下來,Nginx扮演了反向代理伺服器的角色,它是以依據什麼樣的規則進行請求分發的呢?不用的專案應用場景,分發的規則是否可以控制呢?
這裡提到的客戶端傳送的、Nginx反向代理伺服器接收到的請求數量,就是我們說的負載量。
請求數量按照一定的規則進行分發到不同的伺服器處理的規則,就是一種均衡規則。
所以~將伺服器接收到的請求按照規則分發的過程,稱為負載均衡。
負載均衡在實際專案操作過程中,有硬體負載均衡和軟體負載均衡兩種,硬體負載均衡也稱為硬負載,如F5負載均衡,相對造價昂貴成本較高,但是資料的穩定性安全性等等有非常好的保障,如中國移動中國聯通這樣的公司才會選擇硬負載進行操作;更多的公司考慮到成本原因,會選擇使用軟體負載均衡,軟體負載均衡是利用現有的技術結合主機硬體實現的一種訊息佇列分發機制。
Nginx支援的負載均衡排程演算法方式如下:
weight輪詢(預設):接收到的請求按照順序逐一分配到不同的後端伺服器,即使在使用過程中,某一臺後端伺服器當機,Nginx會自動將該伺服器剔除出佇列,請求受理情況不會受到任何影響。 這種方式下,可以給不同的後端伺服器設定一個權重值(weight),用於調整不同的伺服器上請求的分配率;權重資料越大,被分配到請求的機率越大;該權重值,主要是針對實際工作環境中不同的後端伺服器硬體配置進行調整的。
ip_hash:每個請求按照發起客戶端的ip的hash結果進行匹配,這樣的演算法下一個固定ip地址的客戶端總會訪問到同一個後端伺服器,這也在一定程度上解決了叢集部署環境下session共享的問題。
fair:智慧調整排程演算法,動態的根據後端伺服器的請求處理到響應的時間進行均衡分配,響應時間短處理效率高的伺服器分配到請求的概率高,響應時間長處理效率低的伺服器分配到的請求少;結合了前兩者的優點的一種排程演算法。但是需要注意的是Nginx預設不支援fair演算法,如果要使用這種排程演算法,請安裝upstream_fair模組。
url_hash:按照訪問的url的hash結果分配請求,每個請求的url會指向後端固定的某個伺服器,可以在nginx作為靜態伺服器的情況下提高快取效率。同樣要注意Nginx預設不支援這種排程演算法,要使用的話需要安裝nginx的hash軟體包。
Nginx的一些基本功能
1、靜態HTTP伺服器
首先,Nginx是一個HTTP伺服器,可以將伺服器上的靜態檔案(如HTML、圖片)通過HTTP協議展現給客戶端。
配置:
server {
listen80; # 埠號
location / {
root /usr/share/nginx/html; # 靜態檔案路徑
}
}
複製程式碼
2、反向代理伺服器
什麼是反向代理?
客戶端本來可以直接通過HTTP協議訪問某網站應用伺服器,網站管理員可以在中間加上一個Nginx,客戶端請求Nginx,Nginx請求應用伺服器,然後將結果返回給客戶端,此時Nginx就是反向代理伺服器。
配置:
server {
listen80;
location / {
proxy_pass http://192.168.20.1:8080; # 應用伺服器HTTP地址
}
}
複製程式碼
3、負載均衡
當網站訪問量非常大,網站站長開心賺錢的同時,也攤上事兒了。因為網站越來越慢,一臺伺服器已經不夠用了。於是將同一個應用部署在多臺伺服器上,將大量使用者的請求分配給多臺機器處理。同時帶來的好處是,其中一臺伺服器萬一掛了,只要還有其他伺服器正常執行,就不會影響使用者使用。
Nginx可以通過反向代理來實現負載均衡。
配置
upstream myapp {
server192.168.20.1:8080; # 應用伺服器1
server192.168.20.2:8080; # 應用伺服器2
}
server {
listen80;
location / {
proxy_pass http://myapp;
}
}
複製程式碼
以上配置會將請求輪詢分配到應用伺服器,也就是一個客戶端的多次請求,有可能會由多臺不同的伺服器處理。可以通過ip-hash的方式,根據客戶端ip地址的hash值將請求分配給固定的某一個伺服器處理。
配置:
upstream myapp {
ip_hash; # 根據客戶端IP地址Hash值將請求分配給固定的一個伺服器處理
server192.168.20.1:8080;
server192.168.20.2:8080;
}
server {
listen80;
location / {
proxy_pass http://myapp;
}
}
複製程式碼
另外,伺服器的硬體配置可能有好有差,想把大部分請求分配給好的伺服器,把少量請求分配給差的伺服器,可以通過weight來控制。
配置:
upstream myapp {
server192.168.20.1:8080weight=3; # 該伺服器處理3/4請求
server192.168.20.2:8080; # weight預設為1,該伺服器處理1/4請求
}
server {
listen80;
location / {
proxy_pass http://myapp;
}
}
複製程式碼
4、虛擬主機
有的網站訪問量大,需要負載均衡。然而並不是所有網站都如此出色,有的網站,由於訪問量太小,需要節省成本,將多個網站部署在同一臺伺服器上。
例如將www.aaa.com和www.bbb.com兩個網站部署在同一臺伺服器上,兩個域名解析到同一個IP地址,但是使用者通過兩個域名卻可以開啟兩個完全不同的網站,互相不影響,就像訪問兩個伺服器一樣,所以叫兩個虛擬主機。
配置:
server {
listen80default_server;
server_name _;
return444; # 過濾其他域名的請求,返回444狀態碼
}
server {
listen80;
server_name www.aaa.com; # www.aaa.com域名
location / {
proxy_pass http://localhost:8080; # 對應埠號8080
}
}
server {
listen80;
server_name www.bbb.com; # www.bbb.com域名
location / {
proxy_pass http://localhost:8081; # 對應埠號8081
}
}
複製程式碼
在伺服器8080和8081分別開了一個應用,客戶端通過不同的域名訪問,根據server_name可以反向代理到對應的應用伺服器。
虛擬主機的原理是通過HTTP請求頭中的Host是否匹配server_name來實現的,有興趣的同學可以研究一下HTTP協議。
另外,server_name配置還可以過濾有人惡意將某些域名指向你的主機伺服器。