面試官:每秒上千訂單的場景下,如何對分散式鎖進行高併發優化?
今天給大家聊一個有意思的話題:每秒上千訂單場景下,如何對分散式鎖的併發能力進行優化?
首先來看看這個問題的背景!
前段時間有個朋友在外面面試,然後有一天找我聊說:有一個國內不錯的電商公司,面試官給他出了一個場景題:
假如下單時,用分散式鎖來防止庫存超賣,但是是每秒上千訂單的高併發場景,如何對分散式鎖進行高併發優化來應對這個場景?
他說他當時沒答上來,因為沒做過沒什麼思路。其實我當時聽到這個面試題心裡也覺得有點意思,因為如果是我來面試候選人的話,應該會給的範圍更大一些。
比如,我會讓面試的同學聊一聊電商高併發秒殺場景下的庫存超賣解決方案,各種方案的優缺點以及實踐,進而聊到分散式鎖這個話題。
因為庫存超賣問題是有很多種技術解決方案的,比如悲觀鎖,分散式鎖,樂觀鎖,佇列序列化,Redis原子操作,等等吧。
但是既然那個面試官兄弟限定死了用分散式鎖來解決庫存超賣,我估計就是想問一個點:在高併發場景下如何優化分散式鎖的併發效能
我覺得,面試官提問的角度還是可以接受的,因為在實際落地生產的時候,分散式鎖這個東西保證了資料的準確性,但是他天然併發能力有點弱。
剛好我之前在自己專案的其他場景下,確實是做過高併發場景下的分散式鎖優化方案。
因此正好是藉著這個朋友的面試題,把分散式鎖的高併發優化思路,給大家來聊一聊。
庫存超賣現象是怎麼產生的?
先來看看如果不用分散式鎖,所謂的電商庫存超賣是啥意思?大家看看下面的圖:
這個圖,其實很清晰了,假設訂單系統部署兩臺機器上,不同的使用者都要同時買10臺iphone,分別發了一個請求給訂單系統。
接著每個訂單系統例項都去資料庫裡查了一下,當前iphone庫存是12臺。
倆大兄弟一看,樂了,12臺庫存大於了要買的10臺數量啊!
於是乎,每個訂單系統例項都傳送SQL到資料庫裡下單,然後扣減了10個庫存,其中一個將庫存從12臺扣減為2臺,另外一個將庫存從2臺扣減為-8臺。
現在完了,庫存出現了負數!淚奔啊,沒有20臺iphone發給兩個使用者啊!這可如何是好。
用分散式鎖如何解決庫存超賣問題?
我們用分散式鎖如何解決庫存超賣問題呢?其實很簡單,我們先看看分散式鎖的實現原理:
同一個鎖key,同一時間只能有一個客戶端拿到鎖,其他客戶端會陷入無限的等待來嘗試獲取那個鎖,只有獲取到鎖的客戶端才能執行下面的業務邏輯。
程式碼大概就是上面那個樣子,現在我們來分析一下,為啥這樣做可以避免庫存超賣?
大家可以順著上面的那個步驟序號看一遍,馬上就明白了。
從上圖可以看到,只有一個訂單系統例項可以成功加分散式鎖,然後只有他一個例項可以查庫存、判斷庫存是否充足、下單扣減庫存,接著釋放鎖。
釋放鎖之後,另外一個訂單系統例項才能加鎖,接著查庫存,一下發現庫存只有2臺了,庫存不足,無法購買,下單失敗。不會將庫存扣減為-8的。
有沒有其他方案可以解決庫存超賣問題?
當然有啊!比如悲觀鎖,分散式鎖,樂觀鎖,佇列序列化,非同步佇列分散,Redis原子操作,等等,很多方案,我們對庫存超賣有自己的一整套優化機制。
但是前面說過了,這篇文章就聊一個分散式鎖的併發優化,不是聊庫存超賣的解決方案,所以庫存超賣只是一個業務場景而已
分散式鎖的方案在高併發場景下
好,現在我們來看看,分散式鎖的方案在高併發場景下有什麼問題?
問題很大啊!兄弟,不知道你看出來了沒有。分散式鎖一旦加了之後,對同一個商品的下單請求,會導致所有客戶端都必須對同一個商品的庫存鎖key進行加鎖。
比如,對iphone這個商品的下單,都必對“iphone_stock”這個鎖key來加鎖。這樣會導致對同一個商品的下單請求,就必須序列化,一個接一個的處理
大家再回去對照上面的圖反覆看一下,應該能想明白這個問題。
假設加鎖之後,釋放鎖之前,查庫存 -> 建立訂單 -> 扣減庫存,這個過程效能很高吧,算他全過程20毫秒,這應該不錯了。
那麼1秒是1000毫秒,只能容納50個對這個商品的請求依次序列完成處理。
比如一秒鐘來50個請求,都是對iphone下單的,那麼每個請求處理20毫秒,一個一個來,最後1000毫秒正好處理完50個請求。
大家看一眼下面的圖,加深一下感覺。
所以看到這裡,大家起碼也明白了,簡單的使用分散式鎖來處理庫存超賣問題,存在什麼缺陷。
缺陷就是同一個商品多使用者同時下單的時候,會基於分散式鎖序列化處理,導致沒法同時處理同一個商品的大量下單的請求。
這種方案,要是應對那種低併發、無秒殺場景的普通小電商系統,可能還可以接受。
因為如果併發量很低,每秒就不到10個請求,沒有瞬時高併發秒殺單個商品的場景的話,其實也很少會對同一個商品在一秒內瞬間下1000個訂單,因為小電商系統沒那場景。
如何對分散式鎖進行高併發優化?
好了,終於引入正題了,那麼現在怎麼辦呢?
面試官說,我現在就卡死,庫存超賣就是用分散式鎖來解決,而且一秒對一個iphone下上千訂單,怎麼優化?
現在按照剛才的計算,你一秒鐘只能處理針對iphone的50個訂單。
其實說出來也很簡單,相信很多人看過java裡的ConcurrentHashMap的原始碼和底層原理,應該知道里面的核心思路,就是分段加鎖!
把資料分成很多個段,每個段是一個單獨的鎖,所以多個執行緒過來併發修改資料的時候,可以併發的修改不同段的資料。不至於說,同一時間只能有一個執行緒獨佔修改ConcurrentHashMap中的資料。
另外,Java 8中新增了一個LongAdder類,也是針對Java 7以前的AtomicLong進行的優化,解決的是CAS類操作在高併發場景下,使用樂觀鎖思路,會導致大量執行緒長時間重複迴圈。
LongAdder中也是採用了類似的分段CAS操作,失敗則自動遷移到下一個分段進行CAS的思路。
其實分散式鎖的優化思路也是類似的,之前我們是在另外一個業務場景下落地了這個方案到生產中,不是在庫存超賣問題裡用的。
但是庫存超賣這個業務場景不錯,很容易理解,所以我們就用這個場景來說一下。
大家看看下面的圖:
其實這就是分段加鎖。你想,假如你現在iphone有1000個庫存,那麼你完全可以給拆成20個庫存段,要是你願意,可以在資料庫的表裡建20個庫存欄位,比如stock_01,stock_02,類似這樣的,也可以在redis之類的地方放20個庫存key。
總之,就是把你的1000件庫存給他拆開,每個庫存段是50件庫存,比如stock_01對應50件庫存,stock_02對應50件庫存。
接著,每秒1000個請求過來了,好!此時其實可以是自己寫一個簡單的隨機演算法,每個請求都是隨機在20個分段庫存裡,選擇一個進行加鎖。
這樣就好了,同時可以有最多20個下單請求一起執行,每個下單請求鎖了一個庫存分段,然後在業務邏輯裡面,就對資料庫或者是Redis中的那個分段庫存進行操作即可,包括查庫存 -> 判斷庫存是否充足 -> 扣減庫存。
這相當於什麼呢?相當於一個20毫秒,可以併發處理掉20個下單請求,那麼1秒,也就可以依次處理掉20 * 50 = 1000個對iphone的下單請求了。
一旦對某個資料做了分段處理之後,有一個坑大家一定要注意:如果某個下單請求,咔嚓加鎖,然後發現這個分段庫存裡的庫存不足了,此時咋辦?
這時你得自動釋放鎖,然後立馬換下一個分段庫存,再次嘗試加鎖後嘗試處理。這個過程一定要實現。
分散式鎖併發優化方案有沒有什麼不足?
不足肯定是有的,最大的不足,大家發現沒有,很不方便啊!實現太複雜了。
-
首先,你得對一個資料分段儲存,一個庫存欄位本來好好的,現在要分為20個分段庫存欄位;
-
其次,你在每次處理庫存的時候,還得自己寫隨機演算法,隨機挑選一個分段來處理;
-
最後,如果某個分段中的資料不足了,你還得自動切換到下一個分段資料去處理。
這個過程都是要手動寫程式碼實現的,還是有點工作量,挺麻煩的。
不過我們確實在一些業務場景裡,因為用到了分散式鎖,然後又必須要進行鎖併發的優化,又進一步用到了分段加鎖的技術方案,效果當然是很好的了,一下子併發效能可以增長几十倍。
該優化方案的後續改進
以我們本文所說的庫存超賣場景為例,你要是這麼玩,會把自己搞的很痛苦!
因此再次強調,這裡的庫存超賣場景,僅僅只是作為演示場景而已,以後有機會,再單獨聊聊高併發秒殺系統架構下的庫存超賣的其他解決方案。
馬上2022年金三銀四面試就要開始,也是有許多小夥伴找我要面經,其實很多大廠老哥都喜歡整理這些東西,比如阿里就產出很多,但是市面上的阿里內部培訓資料都是零零散散的。前段時間阿里內部一個P7員工對2021年下半年阿里的培訓資料做了一個整合,總結出了這套《Java辟邪劍譜》。
整份手冊分為了七個篇章,分別是:高併發篇、分散式篇、中介軟體篇、資料庫篇、設計模式篇、資料結構與演算法篇、阿里巴巴全年面試題總結篇!
先給大家看看內容截圖,完整版本PDF文件可以在文末免費領取。
高併發篇
秒殺的核心思想:層層過濾
儘量將請求攔截在上游,降低下游的壓力
充分利用快取與訊息佇列,提高請求處理速度以及削峰填谷的作用
大型網際網路應用(大資料、高併發、多樣資料型別)的難點和解決方案
分散式篇
中介軟體篇
根據得到的文件和查詢語句的相關性,對結果進行排序
資料庫篇
設計模式篇
工廠模式
簡單工廠
資料結構與演算法篇
分析HashMap的put方法
阿里巴巴2021年全年面試題總結篇
配置中心之簡版
總結
機會是留給有準備的人,所以多早的提前準備都不會算早,你現在學習到的東西,終將會在未來的某一天用得上。所以猿友們學習起來吧,成功是一定會屬於你的!
需要完整版的小夥伴可點選下方名片,掃碼憑截圖免費獲取。
相關文章
- 每秒上千訂單場景下的分散式鎖高併發優化實踐!【石杉的架構筆記】分散式優化架構筆記
- 【高併發】面試官:講講高併發場景下如何優化加鎖方式?面試優化
- 高併發場景下如何優化伺服器的效能?優化伺服器
- 分散式鎖--高併發優化實踐(分段加鎖思想)!分散式優化
- 面試集錦(八)分散式與高併發面試分散式
- 大規模叢集下Hadoop NameNode如何承載每秒上千次的高併發訪問Hadoop
- 高併發場景下JVM調優實踐之路JVM
- 大規模叢集下Hadoop NameNode如何承載每秒上千次的高併發訪問【二】Hadoop
- 【分散式鎖的演化】“超賣場景”,MySQL分散式鎖篇分散式MySql
- 【搞定面試官】- Synchronized如何實現同步?鎖優化?(1)面試synchronized優化
- Java高併發實戰,鎖的優化Java優化
- [分散式][高併發]熱點快取的架構優化分散式快取架構優化
- 面試官:你真的瞭解Redis分散式鎖嗎?面試Redis分散式
- MySQL樂觀鎖在分散式場景下的實踐MySql分散式
- 【高併發】億級流量場景下如何實現分散式限流?看完我徹底懂了!!(文末有福利)分散式
- 【高併發】面試官:效能優化有哪些衡量指標?需要注意什麼?面試優化指標
- 【肥朝】面試官問我,Redis分散式鎖如何續期?懵了。面試Redis分散式
- 面試官:訊息中介軟體如何實現每秒幾十萬的高併發寫入?【石杉的架構筆記】面試架構筆記
- 【高併發】高併發環境下如何優化Tomcat效能?看完我懂了!優化Tomcat
- 怎麼進行一場好的面試:面試官篇面試
- [分散式][高併發]高併發架構分散式架構
- 【效能優化之道】每秒上萬併發下的Spring Cloud引數優化實戰優化SpringCloud
- Random在高併發下的缺陷以及JUC對其的優化random優化
- MySQL在大資料、高併發場景下的SQL語句優化和"最佳實踐"MySql大資料優化
- 【面試普通人VS高手系列】請說一下你對分散式鎖的理解,以及分散式鎖的實現面試分散式
- redis分散式鎖,面試官請隨便問,我都會Redis分散式面試
- Jmeter效能測試:高併發分散式效能測試JMeter分散式
- 高併發核心技術 - 冪等性 與 分散式鎖分散式
- 如何使用jMeter對某個OData服務進行高併發效能測試JMeter
- 高併發架構系列:分散式鎖的由來、特點及Redis分散式鎖的實現詳解架構分散式Redis
- 架構面試題—大併發量的訂單的解析架構面試題
- 面試官:你說說互斥鎖、自旋鎖、讀寫鎖、悲觀鎖、樂觀鎖的應用場景面試
- 如何進行頁面優化?優化
- [分散式]對高併發流量控制的一點思考分散式
- jmeter介面效能測試-高併發分散式部署JMeter分散式
- 面試基礎之:叢集高併發情況下如何保證分散式唯一全域性Id生成面試分散式
- 面試官:如何對字串版本號構成的陣列進行排序?面試字串陣列排序
- 設計一個支援高併發的分散式鎖,商品維度分散式