Java限流及常用解決方案

碼農談IT發表於2023-03-29

來源:程式新視界

大家好,我是二師兄,今天給大家分享一篇關於Java限流解決方案的文章,文中分享了不少實戰相關的經驗,值得一讀。

限流基本概念

對一般的限流場景來說它具有兩個維度的資訊:

  • 時間:限流基於某段時間範圍或者某個時間點,也就是我們常說的“時間視窗”,比如對每分鐘、每秒鐘的時間視窗做限定。
  • 資源:基於可用資源的限制,比如設定最大訪問次數,或最高可用連線數。

上面兩個維度結合起來看,限流就是在某個時間視窗對資源訪問做限制,比如設定每秒最多100個訪問請求。

但在真正的場景裡,不止設定一種限流規則,而是會設定多個限流規則共同作用。

QPS和連線數控制

對於連線數和QPS限流來說,可設定IP維度的限流,也可以設定基於單個伺服器的限流。

在真實環境中,通常會設定多個維度的限流規則,比如設定同一個IP每秒訪問頻率小於10,連線數小於5,再設定每臺機器QPS最高1000,連線數最大保持200。

更進一步,還可以把某個伺服器組或整個機房的伺服器當做一個整體,設定更high-level的限流規則,這些所有限流規則都會共同作用於流量控制。

傳輸速率

對於“傳輸速率”大家都不會陌生,比如資源的下載速度。有的網站在這方面的限流邏輯做的更細緻,比如普通註冊使用者下載速度為100k/s,購買會員後是10M/s,這背後就是基於使用者組或者使用者標籤的限流邏輯。

黑白名單

黑白名單是各個大型企業應用裡很常見的限流和放行手段,而且黑白名單往往是動態變化的。舉個例子,如果某個IP在一段時間的訪問次數過於頻繁,被系統識別為機器人使用者或流量攻擊,那麼這個IP就會被加入到黑名單,從而限制其對系統資源的訪問,這就是俗稱的“封IP”。

平時所看到的爬蟲程式,比如說爬知乎上的美女圖片,或者爬券商系統的股票分時資訊,這類爬蟲程式都必須實現更換IP的功能,以防被加入黑名單。有時我們還會發現公司的網路無法訪問12306這類大型公共網站,這也是因為某些公司的出網IP是同一個地址,因此在訪問量過高的情況下,這個IP地址就被對方系統識別,進而被新增到了黑名單。使用家庭寬頻的同學們應該知道,大部分網路運營商都會將使用者分配到不同出網IP段,或者時不時動態更換使用者的IP地址。

白名單就更好理解了,相當於御賜金牌在身,可以自由穿梭在各種限流規則裡,暢行無阻。比如某些電商公司會將超大賣家的賬號加入白名單,因為這類賣家往往有自己的一套運維繫統,需要對接公司的IT系統做大量的商品釋出、補貨等等操作。

分散式環境

分散式區別於單機限流的場景,它把整個分散式環境中所有伺服器當做一個整體來考量。比如說針對IP的限流,我們限制了1個IP每秒最多10個訪問,不管來自這個IP的請求落在了哪臺機器上,只要是訪問了叢集中的服務節點,那麼都會受到限流規則的制約。

最好將限流資訊儲存在一個“中心化”的元件上,這樣它就可以獲取到叢集中所有機器的訪問狀態,目前有兩個比較主流的限流方案:

  • 閘道器層限流:將限流規則應用在所有流量的入口處。
  • 中介軟體限流:將限流資訊儲存在分散式環境中某個中介軟體裡(比如Redis快取),每個元件都可以從這裡獲取到當前時刻的流量統計,從而決定是拒絕服務還是放行流量。
  • 元件限流:sentinel,springcloud生態圈為微服務量身打造的一款用於分散式限流、熔斷降級等元件。

限流方案常用演演算法

令牌桶演演算法

Token Bucket令牌桶演演算法是目前應用最為廣泛的限流演演算法,顧名思義,它有以下兩個關鍵角色:

  • 令牌:獲取到令牌的Request才會被處理,其他Requests要麼排隊要麼被直接丟棄。
  • 桶:用來裝令牌的地方,所有Request都從這個桶裡面獲取令牌。

主要涉及到2個過程:令牌生成和令牌獲取。

令牌生成

這個流程涉及到令牌生成器和令牌桶,前面提到過令牌桶是一個裝令牌的地方,既然是個桶那麼必然有一個容量,也就是說令牌桶所能容納的令牌數量是一個固定的數值。

對於令牌生成器來說,它會根據一個預定的速率向桶中新增令牌,比如可以配置讓它以每秒100個請求的速率發放令牌,或者每分鐘50個。注意這裡的發放速度是勻速,也就是說這50個令牌並非是在每個時間視窗剛開始的時候一次性發放,而是會在這個時間視窗內勻速發放。

在令牌發放器就是一個水龍頭,假如在下面接水的桶子滿了,那麼自然這個水(令牌)就流到了外面。在令牌發放過程中也一樣,令牌桶的容量是有限的,如果當前已經放滿了額定容量的令牌,那麼新來的令牌就會被丟棄掉。

令牌獲取

每個訪問請求到來後,必須獲取到一個令牌才能執行後面的邏輯。假如令牌的數量少,而訪問請求較多的情況下,一部分請求自然無法獲取到令牌,這時可以設定一個“緩衝佇列”來暫存這些多餘的令牌。

緩衝佇列其實是一個可選的選項,並不是所有應用了令牌桶演演算法的程式都會實現佇列。當有快取佇列存在的情況下,那些暫時沒有獲取到令牌的請求將被放到這個佇列中排隊,直到新的令牌產生後,再從佇列頭部拿出一個請求來匹配令牌。

當佇列已滿的情況下,這部分訪問請求將被丟棄。在實際應用中還可以給這個佇列加一系列的特效,比如設定佇列中請求的存活時間,或者將佇列改造為PriorityQueue,根據某種優先順序排序,而不是先進先出。

漏桶演演算法

Leaky Bucket,又是個桶,限流演演算法是跟桶槓上了,那麼漏桶和令牌桶有什麼不同呢:

  • 漏桶演演算法的前半段和令牌桶類似,但是操作的物件不同,令牌桶是將令牌放入桶裡,而漏桶是將訪問請求的資料包放到桶裡。同樣的是,如果桶滿了,那麼後面新來的資料包將被丟棄。
  • 漏桶演演算法的後半程是有鮮明特色的,它永遠只會以一個恆定的速率將資料包從桶內流出。打個比方,如果我設定了漏桶可以存放100個資料包,然後流出速度是1s一個,那麼不管資料包以什麼速率流入桶裡,也不管桶裡有多少資料包,漏桶能保證這些資料包永遠以1s一個的恆定速度被處理。

漏桶vs令牌桶的區別:

  • 根據它們各自的特點不難看出來,這兩種演演算法都有一個“恆定”的速率和“不定”的速率。令牌桶是以恆定速率建立令牌,但是訪問請求獲取令牌的速率“不定”,反正有多少令牌發多少,令牌沒了就乾等。而漏桶是以“恆定”的速率處理請求,但是這些請求流入桶的速率是“不定”的。
  • 從這兩個特點來說,漏桶的天然特性決定了它不會發生突發流量,就算每秒1000個請求到來,那麼它對後臺服務輸出的訪問速率永遠恆定。而令牌桶則不同,其特性可以“預存”一定量的令牌,因此在應對突發流量的時候可以在短時間消耗所有令牌,其突發流量處理效率會比漏桶高,但是導向後臺系統的壓力也會相應增多。

滑動視窗

比如說,在每一秒內有5個使用者訪問,第5秒內有10個使用者訪問,那麼在0到5秒這個時間視窗內訪問量就是15。如果介面設定了時間視窗內訪問上限是20,那麼當時間到第六秒時,這個時間視窗內的計數總和就變成了10,因為1秒的格子已經退出了時間視窗,因此在第六秒內可以接收的訪問量就是20-10=10個。

滑動視窗其實也是一種計算器演演算法,它有一個顯著特點,當時間視窗的跨度越長時,限流效果就越平滑。打個比方,如果當前時間視窗只有兩秒,而訪問請求全部集中在第一秒的時候,當時間向後滑動一秒後,當前視窗的計數量將發生較大的變化,拉長時間視窗可以降低這種情況的發生機率。

常用的限流方案

合法性驗證限流

比如驗證碼、IP 黑名單等,這些手段可以有效的防止惡意攻擊和爬蟲採集。

Guava限流

在限流領域中,Guava在其多執行緒模組下提供了以RateLimiter為首的幾個限流支援類,但是作用範圍僅限於“當前”這臺伺服器,也就是說Guawa的限流是單機的限流,跨了機器或者jvm程式就無能為力了。

比如,有2臺伺服器[Server 1,Server 2],這兩臺伺服器都部署了一個登陸服務,假如希望對這兩臺機器的流量進行控制,比如將兩臺機器的訪問量總和控制在每秒20以內,如果用Guava來做,只能獨立控制每臺機器的訪問量<=10。

儘管Guava不是面對分散式系統的解決方案,但是其作為一個簡單輕量級的客戶端限流元件,非常適合來講解限流演演算法。

閘道器層限流

服務閘道器,作為整個分散式鏈路中的第一道關卡,承接了所有使用者來訪請求,因此在閘道器層面進行限流是一個很好的切入點,上到下的路徑依次是:

  • 1.使用者流量從閘道器層轉發到後臺服務;
  • 2.後臺服務承接流量,呼叫快取獲取資料;
  • 3.快取中無資料,則訪問資料庫;

流量自上而下是逐層遞減的,在閘道器層聚集了最多最密集的使用者訪問請求,其次是後臺服務。

然後經過後臺服務的驗證邏輯之後,刷掉了一部分錯誤請求,剩下的請求落在快取上,如果快取中沒有資料才會請求漏斗最下方的資料庫,因此資料庫層面請求數量最小(相比較其他元件來說資料庫往往是併發量能力最差的一環,阿里系的MySQL即便經過了大量改造,單機併發量也無法和Redis、Kafka之類的元件相比)

目前主流的閘道器層有以軟體為代表的Nginx,還有Spring Cloud中的Gateway和Zuul這類閘道器層元件。

Nginx限流

在系統架構中,Nginx的代理與路由轉發是其作為閘道器層的一個很重要的功能,由於Nginx天生的輕量級和優秀的設計,讓它成為眾多公司的首選,Nginx從閘道器這一層面考慮,可以作為最前置的閘道器,抵擋大部分的網路流量,因此使用Nginx進行限流也是一個很好的選擇,在Nginx中,也提供了常用的基於限流相關的策略配置。

Nginx提供了兩種限流方法:一種是控制速率,另一種是控制併發連線數。

控制速率

需要使用limit_req_zone用來限制單位時間內的請求數,即速率限制,因為Nginx的限流統計是基於毫秒的,我們設定的速度是2r/s,轉換一下就是500毫秒內單個IP只允許透過1個請求,從501ms開始才允許透過第2個請求。

控制速率最佳化版

上面的速率控制雖然很精準但是在生產環境未免太苛刻了,實際情況下我們應該控制一個IP單位總時間內的總訪問次數,而不是像上面那樣精確到毫秒,我們可以使用burst關鍵字開啟此設定。

burst=4,意思是每個IP最多允許4個突發請求。

控制併發數

利用limit_conn_zone和limit_conn兩個指令即可控制併發數。

其中,limit_conn perip 10表示限制單個IP同時最多能持有10個連線;limit_conn perserver 100表示server同時能處理併發連線的總數為100個。

注意:只有當request header被後端處理後,這個連線才進行計數。

中介軟體限流

對於分散式環境來說,無非是需要一個類似中心節點的地方儲存限流資料。比如,如果希望控制介面的訪問速率為每秒100個請求,那麼就需要將當前1s內已經接收到的請求的數量儲存在某個地方,並且可以讓叢集環境中所有節點都能訪問。那我們可以用什麼技術來儲存這個臨時資料呢?

那麼想必大家都能想到,必然是redis了,利用Redis過期時間特性,可以輕鬆設定限流的時間跨度(比如每秒10個請求,或者每10秒10個請求)。同時Redis還有一個特殊技能–指令碼程式設計,可以將限流邏輯編寫成一段指令碼植入到Redis中,這樣就將限流的重任從服務層完全剝離出來,同時Redis強大的併發量特性以及高可用叢集架構也可以很好的支援龐大叢集的限流訪問。【reids + lua】

限流元件

除了上面介紹的幾種方式以外,目前也有一些開源元件提供了類似的功能,比如Sentinel就是一個不錯的選擇。Sentinel是阿里出品的開源元件,並且包含在了Spring Cloud Alibaba元件庫中,Sentinel提供了相當豐富的用於限流的API以及視覺化管控臺,可以很方便地幫助我們對限流進行治理。

從架構維度考慮限流設計

在實踐中,不會只使用一種限流手段,往往是幾種方式互相搭配使用,讓限流策略有一種層次感,達到資源的最大使用率。

在這個過程中,限流策略的設計也可以參考前面提到的漏斗模型,上寬下緊,漏斗不同部位的限流方案設計要儘量關注當前元件的高可用。

以我參與的實際專案為例,比如說我們研發了一個商品詳情頁的介面,透過手機淘寶導流,app端的訪問請求首先會經過阿里的mtop閘道器,在閘道器層我們的限流會做的比較寬鬆,等到請求透過閘道器抵達後臺的商品詳情頁服務之後,再利用一系列的中介軟體+限流元件,對服務進行更加細緻的限流控制。

具體的實現限流的手段:

  • 1)Tomcat 使用 maxThreads來實現限流。
  • 2)Nginx的limit_req_zone和 burst來實現速率限流。
  • 3)Nginx的limit_conn_zone和 limit_conn兩個指令控制併發連線的總數。
  • 4)時間視窗演演算法藉助 Redis的有序集合可以實現。
  • 5)漏桶演演算法可以使用Redis-Cell來實現。
  • 6)令牌演演算法可以解決Google的guava包來實現。

需要注意的是藉助Redis實現的限流方案可用於分散式系統,而guava實現的限流只能應用於單機環境。如果你覺得伺服器端限流麻煩,可以在不改任何程式碼的情況下直接使用容器限流(Nginx或Tomcat),但前提是能滿足專案中的業務需求。

Tomcat限流

Tomcat8.5 版本的最大執行緒數在conf/server.xml配置中,maxThreads就是Tomcat的最大執行緒數,當請求的併發大於此值(maxThreads)時,請求就會排隊執行,這樣就完成了限流的目的。

注意:

maxThreads的值可以適當的調大一些,Tomcat預設為150(Tomcat版本8.5),但這個值也不是越大越好,要看具體的伺服器配置,需要注意的是每開啟一個執行緒需要耗用1MB的JVM記憶體空間用於作為執行緒棧之用,並且執行緒越多GC的負擔也越重。

最後需要注意一下,作業系統對於程式中的執行緒數有一定的限制,Windows每個程式中的執行緒數不允許超過2000,Linux每個程式中的執行緒數不允許超過1000。

原文連結:https://blog.csdn.net/liuerchong/article/details/118882053

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/70024924/viewspace-2942387/,如需轉載,請註明出處,否則將追究法律責任。

相關文章