每秒上千訂單場景下的分散式鎖高併發優化實踐!【石杉的架構筆記】

石杉的架構筆記發表於2018-11-23

歡迎關注個人公眾號:石杉的架構筆記(ID:shishan100)

週一至週五早8點半!精品技術文章準時送上!


上一篇文章我們聊了聊Redisson這個開源框架對Redis分散式鎖的實現原理,如果有不瞭解的兄弟可以看一下:拜託,面試請不要再問我Redis分散式鎖的實現原理


今天就給大家聊一個有意思的話題:每秒上千訂單場景下,如何對分散式鎖的併發能力進行優化?

背景引入

首先,我們一起來看看這個問題的背景?

前段時間有個朋友在外面面試,然後有一天找我聊說:有一個國內不錯的電商公司,面試官給他出了一個場景題:

假如下單時,用分散式鎖來防止庫存超賣,但是是每秒上千訂單的高併發場景,如何對分散式鎖進行高併發優化來應對這個場景?

他說他當時沒答上來,因為沒做過沒什麼思路。其實我當時聽到這個面試題心裡也覺得有點意思,因為如果是我來面試候選人的話,應該會給的範圍更大一些。

比如,讓面試的同學聊一聊電商高併發秒殺場景下的庫存超賣解決方案,各種方案的優缺點以及實踐,進而聊到分散式鎖這個話題。

因為庫存超賣問題是有很多種技術解決方案的,比如悲觀鎖,分散式鎖,樂觀鎖,佇列序列化,Redis原子操作,等等吧。

但是既然那個面試官兄弟限定死了用分散式鎖來解決庫存超賣,我估計就是想問一個點:在高併發場景下如何優化分散式鎖的併發效能。

我覺得,面試官提問的角度還是可以接受的,因為在實際落地生產的時候,分散式鎖這個東西保證了資料的準確性,但是他天然併發能力有點弱。

剛好我之前在自己專案的其他場景下,確實是做過高併發場景下的分散式鎖優化方案,因此正好是藉著這個朋友的面試題,把分散式鎖的高併發優化思路,給大家來聊一聊。

庫存超賣現象是怎麼產生的?

先來看看如果不用分散式鎖,所謂的電商庫存超賣是啥意思?大家看看下面的圖:

每秒上千訂單場景下的分散式鎖高併發優化實踐!【石杉的架構筆記】

這個圖,其實很清晰了,假設訂單系統部署兩臺機器上,不同的使用者都要同時買10臺iphone,分別發了一個請求給訂單系統。

接著每個訂單系統例項都去資料庫裡查了一下,當前iphone庫存是12臺。

倆大兄弟一看,樂了,12臺庫存大於了要買的10臺數量啊!

於是乎,每個訂單系統例項都傳送SQL到資料庫裡下單,然後扣減了10個庫存,其中一個將庫存從12臺扣減為2臺,另外一個將庫存從2臺扣減為-8臺。

現在完了,庫存出現了負數!淚奔啊,沒有20臺iphone發給兩個使用者啊!這可如何是好。

用分散式鎖如何解決庫存超賣問題?

我們用分散式鎖如何解決庫存超賣問題呢?其實很簡單,回憶一下上次我們說的那個分散式鎖的實現原理:

同一個鎖key,同一時間只能有一個客戶端拿到鎖,其他客戶端會陷入無限的等待來嘗試獲取那個鎖,只有獲取到鎖的客戶端才能執行下面的業務邏輯。

每秒上千訂單場景下的分散式鎖高併發優化實踐!【石杉的架構筆記】

程式碼大概就是上面那個樣子,現在我們來分析一下,為啥這樣做可以避免庫存超賣?

每秒上千訂單場景下的分散式鎖高併發優化實踐!【石杉的架構筆記】

大家可以順著上面的那個步驟序號看一遍,馬上就明白了。

從上圖可以看到,只有一個訂單系統例項可以成功加分散式鎖,然後只有他一個例項可以查庫存、判斷庫存是否充足、下單扣減庫存,接著釋放鎖。

釋放鎖之後,另外一個訂單系統例項才能加鎖,接著查庫存,一下發現庫存只有2臺了,庫存不足,無法購買,下單失敗。不會將庫存扣減為-8的。

有沒有其他方案可以解決庫存超賣問題?

當然有啊!比如悲觀鎖,分散式鎖,樂觀鎖,佇列序列化,非同步佇列分散,Redis原子操作,等等,很多方案,我們對庫存超賣有自己的一整套優化機制。

但是前面說過了,這篇文章就聊一個分散式鎖的併發優化,不是聊庫存超賣的解決方案,所以庫存超賣只是一個業務場景而已

以後有機會筆者會寫一篇文章,講講電商庫存超賣問題的解決方案,這篇文章先focus在一個分散式鎖併發優化上,希望大家明白這個用意和背景,避免有的兄弟沒看清楚又吐槽。

而且建議大家即使對文章裡的內容有異議,公眾號後臺給我留言跟我討論一下,技術,就是要多交流,開啟思路,碰撞思維。

分散式鎖的方案在高併發場景下

好,現在我們來看看,分散式鎖的方案在高併發場景下有什麼問題?

問題很大啊!兄弟,不知道你看出來了沒有。分散式鎖一旦加了之後,對同一個商品的下單請求,會導致所有客戶端都必須對同一個商品的庫存鎖key進行加鎖。

比如,對iphone這個商品的下單,都必對“iphone_stock”這個鎖key來加鎖。這樣會導致對同一個商品的下單請求,就必須序列化,一個接一個的處理。

大家再回去對照上面的圖反覆看一下,應該能想明白這個問題。

假設加鎖之後,釋放鎖之前,查庫存 -> 建立訂單 -> 扣減庫存,這個過程效能很高吧,算他全過程20毫秒,這應該不錯了。

那麼1秒是1000毫秒,只能容納50個對這個商品的請求依次序列完成處理。

比如一秒鐘來50個請求,都是對iphone下單的,那麼每個請求處理20毫秒,一個一個來,最後1000毫秒正好處理完50個請求。

大家看一眼下面的圖,加深一下感覺。

每秒上千訂單場景下的分散式鎖高併發優化實踐!【石杉的架構筆記】

所以看到這裡,大家起碼也明白了,簡單的使用分散式鎖來處理庫存超賣問題,存在什麼缺陷。

缺陷就是同一個商品多使用者同時下單的時候,會基於分散式鎖序列化處理,導致沒法同時處理同一個商品的大量下單的請求。

這種方案,要是應對那種低併發、無秒殺場景的普通小電商系統,可能還可以接受。

因為如果併發量很低,每秒就不到10個請求,沒有瞬時高併發秒殺單個商品的場景的話,其實也很少會對同一個商品在一秒內瞬間下1000個訂單,因為小電商系統沒那場景。

如何對分散式鎖進行高併發優化?

好了,終於引入正題了,那麼現在怎麼辦呢?

面試官說,我現在就卡死,庫存超賣就是用分散式鎖來解決,而且一秒對一個iphone下上千訂單,怎麼優化?

現在按照剛才的計算,你一秒鐘只能處理針對iphone的50個訂單。

其實說出來也很簡單,相信很多人看過java裡的ConcurrentHashMap的原始碼和底層原理,應該知道里面的核心思路,就是分段加鎖

把資料分成很多個段,每個段是一個單獨的鎖,所以多個執行緒過來併發修改資料的時候,可以併發的修改不同段的資料。不至於說,同一時間只能有一個執行緒獨佔修改ConcurrentHashMap中的資料。

另外,Java 8中新增了一個LongAdder類,也是針對Java 7以前的AtomicLong進行的優化,解決的是CAS類操作在高併發場景下,使用樂觀鎖思路,會導致大量執行緒長時間重複迴圈。

LongAdder中也是採用了類似的分段CAS操作,失敗則自動遷移到下一個分段進行CAS的思路。

其實分散式鎖的優化思路也是類似的,之前我們是在另外一個業務場景下落地了這個方案到生產中,不是在庫存超賣問題裡用的。

但是庫存超賣這個業務場景不錯,很容易理解,所以我們就用這個場景來說一下。大家看看下面的圖:

每秒上千訂單場景下的分散式鎖高併發優化實踐!【石杉的架構筆記】

其實這就是分段加鎖。你想,假如你現在iphone有1000個庫存,那麼你完全可以給拆成20個庫存段,要是你願意,可以在資料庫的表裡建20個庫存欄位,比如stock_01,stock_02,類似這樣的,也可以在redis之類的地方放20個庫存key。

總之,就是把你的1000件庫存給他拆開,每個庫存段是50件庫存,比如stock_01對應50件庫存,stock_02對應50件庫存。

接著,每秒1000個請求過來了,好!此時其實可以是自己寫一個簡單的隨機演算法,每個請求都是隨機在20個分段庫存裡,選擇一個進行加鎖。

bingo!這樣就好了,同時可以有最多20個下單請求一起執行,每個下單請求鎖了一個庫存分段,然後在業務邏輯裡面,就對資料庫或者是Redis中的那個分段庫存進行操作即可,包括查庫存 -> 判斷庫存是否充足 -> 扣減庫存。

這相當於什麼呢?相當於一個20毫秒,可以併發處理掉20個下單請求,那麼1秒,也就可以依次處理掉20 * 50 = 1000個對iphone的下單請求了。

一旦對某個資料做了分段處理之後,有一個坑大家一定要注意:就是如果某個下單請求,咔嚓加鎖,然後發現這個分段庫存裡的庫存不足了,此時咋辦?

這時你得自動釋放鎖,然後立馬換下一個分段庫存,再次嘗試加鎖後嘗試處理。這個過程一定要實現。

分散式鎖併發優化方案有沒有什麼不足?

不足肯定是有的,最大的不足,大家發現沒有,很不方便啊!實現太複雜了。

  • 首先,你得對一個資料分段儲存,一個庫存欄位本來好好的,現在要分為20個分段庫存欄位;
  • 其次,你在每次處理庫存的時候,還得自己寫隨機演算法,隨機挑選一個分段來處理;
  • 最後,如果某個分段中的資料不足了,你還得自動切換到下一個分段資料去處理。

這個過程都是要手動寫程式碼實現的,還是有點工作量,挺麻煩的。

不過我們確實在一些業務場景裡,因為用到了分散式鎖,然後又必須要進行鎖併發的優化,又進一步用到了分段加鎖的技術方案,效果當然是很好的了,一下子併發效能可以增長几十倍。

該優化方案的後續改進

以我們本文所說的庫存超賣場景為例,你要是這麼玩,會把自己搞的很痛苦!

再次強調,我們這裡的庫存超賣場景,僅僅只是作為演示場景而已,以後有機會,再單獨聊聊高併發秒殺系統架構下的庫存超賣的其他解決方案。

上篇文章的補充說明

本文最後做個說明,筆者收到一些朋友留言,說有朋友在技術群裡看到上篇文章之後,吐槽了一通上一篇文章(拜託,面試請不要再問我Redis分散式鎖的實現原理),說是那個Redis分散式鎖的實現原理把人給帶歪了。

在這兒得鄭重說明一下,上篇文章,明確說明了是Redisson那個開源框架對Redis鎖的實現原理,並不是我個人YY出來的那一套原理。

實際上Redisson作為一款優秀的開源框架,我覺得他整體對分散式鎖的實現是OK的,雖然有一些缺陷,但是生產環境可用。

另外,有的兄弟可能覺得那個跟Redis官網作者給出的分散式鎖實現思路不同,所以就吐槽,說要遵循Redis官網中的作者的分散式鎖實現思路。

其實我必須指出,Redis官網中給出的僅僅是Redis分散式鎖的實現思路而已,記住,那是思路!思路跟落地生產環境的技術方案之間是有差距的。

比如說Redis官網給出的分散式鎖實現思路,並沒有給出到分散式鎖的自動續期機制、鎖的互斥自等待機制、鎖的可重入加鎖與釋放鎖的機制。但是Redisson框架對分散式鎖的實現是實現了一整套機制的。

所以重複一遍,那僅僅是思路,如果你願意,你完全可以基於Redis官網的思路自己實現一套生產級的分散式鎖出來。

另外Redis官網給出的RedLock演算法,一直是我個人並不推崇在生產使用的。

因為那套演算法中可能存在一些邏輯問題,在國外是引發了爭議的,連Redis作者自己都在官網中給出了因為他的RedLock演算法而引發爭議的文章,當然他自己是不太同意的。

但是這個事兒,就搞成公說公有理,婆說婆有理了。具體請參加官網原文:

Martin Kleppmann analyzed Redlock here. I disagree with the analysis and posted my reply to his analysis here。

因此下回有機會,我會通過大量手繪圖的形式,給大家寫一下Redis官方作者自己提出的RedLock分散式鎖的演算法,以及該演算法基於Redisson框架如何落地生產環境使用,到時大家可以再討論。


End


如有收穫,請幫忙轉發,您的鼓勵是作者最大的動力,謝謝!

一大波微服務、分散式、高併發、高可用原創系列

文章正在路上,歡迎掃描下方二維碼,持續關注:

每秒上千訂單場景下的分散式鎖高併發優化實踐!【石杉的架構筆記】

石杉的架構筆記(id:shishan100)

十餘年BAT架構經驗傾囊相授


推薦閱讀:

1、拜託!面試請不要再問我Spring Cloud底層原理

2、【雙11狂歡的背後】微服務註冊中心如何承載大型系統的千萬級訪問?

3、【效能優化之道】每秒上萬併發下的Spring Cloud引數優化實戰

4、微服務架構如何保障雙11狂歡下的99.99%高可用

5、兄弟,用大白話告訴你小白都能聽懂的Hadoop架構原理

6、大規模叢集下Hadoop NameNode如何承載每秒上千次的高併發訪問

7、【效能優化的祕密】Hadoop如何將TB級大檔案的上傳效能優化上百倍

8、拜託,面試請不要再問我TCC分散式事務的實現原理坑爹呀!

9、【坑爹呀!】最終一致性分散式事務如何保障實際生產中99.99%高可用?

10、拜託,面試請不要再問我Redis分散式鎖的實現原理!

11、【眼前一亮!】看Hadoop底層演算法如何優雅的將大規模叢集效能提升10倍以上?



相關文章