[分散式][高併發]限流的四種策略
上一篇中我們聊到了「熔斷」(分散式系統關注點——99% 的人都能看懂的「熔斷」以及最佳實踐),有熔斷機制的系統,它對可用性的作用至少保證了不會全盤崩潰。
但是你可以想象一個稍微極端一點的場景,如果系統流量不是很穩定,導致頻繁觸發熔斷的話,是不是意味著系統一直熔斷的三種狀態中不斷切換。
導致的結果是每次從開啟熔斷到關閉熔斷的期間,必然會導致大量的使用者無法正常使用。系統層面的可用性大致是這樣的。
另外,從資源利用率上也會很容易發現,波谷的這段時期資源是未充分利用的。
由此可見,光有熔斷是遠遠不夠的。
在高壓下,只要系統沒當機,如果能將接收的流量持續保持在高位,但又不超過系統所能承載的上限,會是更有效率的運作模式,因為會將這裡的波谷填滿。
在如今的網際網路已經作為社會基礎設施的大環境下,上面的這個場景其實離我們並不是那麼遠,同時也會顯得沒那麼極端。例如,層出不窮的營銷玩法,一個接著一個的社會熱點,以及網際網路冰山之下的黑產、刷子的蓬勃發展,更加使得這個場景變的那麼的需要去考慮、去顧忌。因為隨時都有可能會湧入超出你預期的流量,然後壓垮你的系統。
那麼限流的作用就很顯而易見了:只要系統沒當機,系統只是因為資源不夠,而無法應對大量的請求,為了保證有限的系統資源能夠提供最大化的服務能力,因而對系統按照預設的規則進行流量(輸出或輸入)限制的一種方法,確保被接收的流量不會超過系統所能承載的上限。
一、怎麼做「限流」
從前面聊到的內容中我們也知道,限流最好能“限”在一個系統處理能力的上限附近,所以:
- 通過「壓力測試」等方式獲得系統的能力上限在哪個水平是第一步。
- 其次,就是制定干預流量的策略。比如標準該怎麼定、是否只注重結果還是也要注重過程的平滑性等。
- 最後,就是處理“被幹預掉”的流量。能不能直接丟棄?不能的話該如何處理?
獲得系統能力的上限
第一步不是我們這次內容的重點,說起來就是對系統做一輪壓測。可以在一個獨立的環境進行,也可以直接在生產環境的多個節點中選擇一個節點作為樣本來壓測,當然需要做好與其他節點的隔離。
一般我們做壓測為了獲得 2 個結果,「速率」和「併發數」。前者表示在一個時間單位內能夠處理的請求數量,比如 xxx 次請求 / 秒。後者表示系統在同一時刻能處理的最大請求數量,比如 xxx 次的併發。從指標上需要獲得「最大值」、「平均值」或者「中位數」。後續限流策略需要設定的具體標準數值就是從這些指標中來的。
題外話:從精益求精的角度來說,其他的諸如 cpu、網路頻寬以及記憶體的耗用也可以作為參照因素。
制定干預流量的策略
常用的策略就 4 種,我給它起了一個簡單的定義——「兩窗兩桶」。兩窗就是:固定視窗、滑動視窗,兩桶就是:漏桶、令牌桶。
固定視窗
固定視窗就是定義一個“固定”的統計週期,比如 1 分鐘或者 30 秒、10 秒這樣。然後在每個週期統計當前週期中被接收到的請求數量,經過計數器累加後如果達到設定的閾值就觸發「流量干預」。直到進入下一個週期後,計數器清零,流量接收恢復正常狀態。
這個策略最簡單,寫起程式碼來也沒幾行。
複製程式碼
|
|
|
|
|
|
|
|
|
|
|
固定視窗有一點需要注意的是,假如請求的進入非常集中,那麼所設定的「限流閾值」等同於你需要承受的最大併發數。所以,如果需要顧忌到併發問題,那麼這裡的「固定週期」設定的要儘可能的短。因為,這樣的話「限流閾值」的數值就可以相應的減小。甚至,限流閾值就可以直接用併發數來指定。比如,假設固定週期是 3 秒,那麼這裡的閾值就可以設定為「平均併發數 *3」。
不過不管怎麼設定,固定視窗永遠存在的缺點是:由於流量的進入往往都不是一個恆定的值,所以一旦流量進入速度有所波動,要麼計數器會被提前計滿,導致這個週期內剩下時間段的請求被“限制”。要麼就是計數器計不滿,也就是「限流閾值」設定的過大,導致資源無法充分利用。
「滑動視窗」可以改善這個問題。
滑動視窗
滑動視窗其實就是對固定視窗做了進一步的細分,將原先的粒度切的更細,比如 1 分鐘的固定視窗切分為 60 個 1 秒的滑動視窗。然後統計的時間範圍隨著時間的推移同步後移。
同時,我們還可以得出一個結論是:如果固定視窗的「固定週期」已經很小了,那麼使用滑動視窗的意義也就沒有了。舉個例子,現在的固定視窗週期已經是 1 秒了,再切分到毫秒級別能反而得不償失,會帶來巨大的效能和資源損耗。
滑動視窗大致的程式碼邏輯是這樣:
複製程式碼
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
雖然說滑動視窗可以改善這個問題,但是本質上還是預先劃定時間片的方式,屬於一種“預測”,意味著幾乎肯定無法做到 100% 的物盡其用。
但是,「桶」模式可以做的更好,因為「桶」模式中多了一個緩衝區(桶本身)。
漏桶
首先聊聊「漏桶」吧。漏桶模式的核心是固定“出口”的速率,不管進來多少量,出去的速率一直是這麼多。如果湧入的量多到桶都裝不下了,那麼就進行「流量干預」。
整個實現過程我們來分解一下。
- 控制流出的速率。這個其實可以使用前面提到的兩個“視窗”的思路來實現。如果當前速率小於閾值則直接處理請求,否則不直接處理請求,進入緩衝區,並增加當前水位。
- 緩衝的實現可以做一個短暫的休眠或者記錄到一個容器中再做非同步的重試。
- 最後控制桶中的水位不超過最大水位。這個很簡單,就是一個全域性計數器,進行加加減減。
這樣一來,你會發現本質就是:通過一個緩衝區將不平滑的流量“整形”成平滑的(高於均值的流量暫存下來補足到低於均值的時期),以此最大化計算處理資源的利用率。
實現程式碼的簡化表示如下:
複製程式碼
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
更優秀的「漏桶」策略已經可以在流量的總量充足的情況下發揮你所預期的 100% 處理能力,但這還不是極致。
你應該知道,一個程式所在的執行環境中,往往不單單隻有這個程式本身,會存在一些系統程式甚至是其它的使用者程式。也就是說,程式本身的處理能力是會被干擾的,是會變化的。所以,你可以預估某一個階段內的平均值、中位數,但無法預估具體某一個時刻的程式處理能力。又因此,你必然會使用相對悲觀的標準去作為閾值,防止程式超負荷。
那麼從資源利用率來說,有沒有更優秀的方案呢?有,這就是「令牌桶」。
令牌桶
令牌桶模式的核心是固定“進口”速率。先拿到令牌,再處理請求,拿不到令牌就被「流量干預」。因此,當大量的流量進入時,只要令牌的生成速度大於等於請求被處理的速度,那麼此刻的程式處理能力就是極限。
也來分解一下它的實現過程。
- 控制令牌生成的速率,並放入桶中。這個其實就是單獨一個執行緒在不斷的生成令牌。
- 控制桶中待領取的令牌水位不超過最大水位。這個和「漏桶」一樣,就是一個全域性計數器,進行加加減減。
大致的程式碼簡化表示如下(看上去像「固定視窗」的反向邏輯):
全域性變數 int tokenCount = 令牌數閾值 ; // 可用令牌數。有一個獨立的執行緒用固定的頻率增加這個數值,但不大於「令牌數閾值」。
複製程式碼
|
|
|
|
|
|
|
|
|
聰明的你可能也會想到,這樣一來令牌桶的容量大小理論上就是程式需要支撐的最大併發數。的確如此,假設同一時刻進入的流量將令牌取完,但是程式來不及處理,將會導致事故發生。
所以,沒有真正完美的策略,只有合適的策略。因此,根據不同的場景能夠識別什麼是最合適的策略是更需要鍛鍊的能力。下面 z 哥分享一些我個人的經驗。
二、做「限流」的最佳實踐
四種策略該如何選擇?
首先,固定視窗。一般來說,如非時間緊迫,不建議選擇這個方案,太過生硬。但是,為了能快速止損眼前的問題可以作為臨時應急的方案。
其次,滑動視窗。這個方案適用於對異常結果「高容忍」的場景,畢竟相比“兩窗”少了一個緩衝區。但是,勝在實現簡單。
然後,漏桶。z 哥覺得這個方案最適合作為一個通用方案。雖說資源的利用率上不是極致,但是「寬進嚴出」的思路在保護系統的同時還留有一些餘地,使得它的適用場景更廣。
最後,令牌桶。當你需要儘可能的壓榨程式的效能(此時桶的最大容量必然會大於等於程式的最大併發能力),並且所處的場景流量進入波動不是很大(不至於一瞬間取完令牌,壓垮後端系統)。
分散式系統中帶來的新挑戰
一個成熟的分散式系統大致是這樣的。
每一個上游系統都可以理解為是其下游系統的客戶端。然後我們回想一下前面的內容,可能你發現了,前面聊的「限流」都沒有提到到底是在客戶端做限流還是服務端做,甚至看起來更傾向是建立在服務端的基礎上做。但是你知道,在一個分散式系統中,一個服務端本身就可能存在多個副本,並且還會提供給多個客戶端呼叫,甚至其自身也會作為客戶端角色。那麼,在如此交錯複雜的一個環境中,該如何下手做限流呢?我的思路是通過「一縱一橫」來考量。
縱
都知道「限流」是一個保護措施,那麼可以將它想象成一個盾牌。另外,一個請求在系統中的處理過程是鏈式的。那麼,正如古時候軍隊打仗一樣,盾牌兵除了有小部分在老大周圍保護,剩下的全在最前線。因為盾的位置越前,能受益的範圍越大。
分散式系統中最前面的是什麼?接入層。如果你的系統有接入層,比如用 nginx 做的反向代理。那麼可以通過它的 ngx_http_limit_conn_module 以及 ngx_http_limit_req_module 來做限流,是很成熟的一個解決方案。
如果沒有接入層,那麼只能在應用層以 AOP 的思路去做了。但是,由於應用是分散的,出於成本考慮你需要針對性的去做限流。比如 ToC 的應用必然比 ToB 的應用更需要做,高頻的快取系統必然比低頻的報表系統更需要做,Web 應用由於存在 Filter 的機制做起來必然比 Service 應用更方便。
那麼應用間的限流到底是做到客戶端還是服務端呢?
z 哥的觀點是,從效果上客戶端模式肯定是優於服務端模式的,因為當處於被限流狀態的時候,客戶端模式連建立連線的動作都省了。另一個潛在的好處是,與集中式的服務端模式相比,可以把少數的服務端程式的壓力分散掉。但是在客戶端做成本也更高,因為它是去中心化的,假如需要多個節點之間的資料共通的話,是一個很麻煩的事情。
所以,最終 z 哥建議你:如果考慮成本就服務端模式,考慮效果就客戶端模式。當然也不是絕對,比如一個服務端的流量大部分都來源於某一個客戶端,那麼就可以直接在這個客戶端做限流,這也不失為一個好方案。
資料庫層面的話,一般連線字串中本身就會包含「最大連線數」的概念,就可以起到限流的作用。如果想做更精細的控制就只能做到統一封裝的資料庫訪問層框架中了。
聊完了「縱」,那麼「橫」是什麼呢?
橫
不管是多個客戶端,還是同一個服務端的多個副本。每個節點的效能必然會存在差異,如何設立合適的閾值?以及如何讓策略的變更儘可能快的在叢集中的多個節點生效?說起來很簡單,引入一個效能監控平臺和配置中心。但這些真真要做好不容易,後續我們再展開這塊內容。
三、總結
限流就好比保險絲,根據你制定的標準,達到了就拉閘。
相關文章
- [分散式][高併發]熔斷策略和最佳實踐分散式
- [分散式][高併發]高併發架構分散式架構
- 高併發架構下的系統限流保護策略架構
- Go 分散式令牌桶限流 + 兜底策略Go分散式
- Java併發:分散式應用限流 Redis + Lua 實踐Java分散式Redis
- 基於redis實現的四種常見的限流策略Redis
- 分散式限流分散式
- 【高併發】如何實現億級流量下的分散式限流?這些理論你必須掌握!!分散式
- [分散式]高併發案例---庫存超發問題分散式
- 高併發後端設計-限流篇後端
- 高併發系統限流中的演算法演算法
- 【高併發】之分散式全域性唯一 ID分散式
- jmeter介面效能測試-高併發分散式部署JMeter分散式
- [分散式]架構設計原則--高併發分散式架構
- 面試集錦(八)分散式與高併發面試分散式
- [分散式]對高併發流量控制的一點思考分散式
- 分散式鎖解決併發的三種實現方式分散式
- 【高併發】億級流量場景下如何實現分散式限流?看完我徹底懂了!!(文末有福利)分散式
- 基於kubernetes的分散式限流分散式
- 分散式叢集與多執行緒高併發分散式執行緒
- Jmeter效能測試:高併發分散式效能測試JMeter分散式
- 基於 Python 自建分散式高併發 RPC 服務Python分散式RPC
- 關於高併發和分散式中的冪等處理分散式
- [分散式][高併發]熱點快取的架構優化分散式快取架構優化
- 單機限流和分散式應用限流分散式
- 高併發系統的限流演算法與實現演算法
- 設計一個支援高併發的分散式鎖,商品維度分散式
- 從零開始的高併發(二)--- Zookeeper實現分散式鎖分散式
- 分散式、高併發與多執行緒、你分辨的清嗎?分散式執行緒
- 高併發核心技術 - 冪等性 與 分散式鎖分散式
- [分散式][高併發]負載均衡方案和演算法分散式負載演算法
- SQLite 併發的四種處理方式SQLite
- 分散式鎖--高併發優化實踐(分段加鎖思想)!分散式優化
- 分散式、高併發與多執行緒有何區別分散式執行緒
- 高併發架構系列:分散式鎖的由來、特點及Redis分散式鎖的實現詳解架構分散式Redis
- 慌了,居然被問到怎麼做高併發系統的限流
- 我們來談下高併發和分散式中的冪等處理分散式
- 你分得清分散式、高併發與多執行緒嗎?分散式執行緒