前言
最近在學習ConcurrentHashMap的原始碼,發現它採用了一種比較獨特的方式對map中的元素數量進行統計,自然是要好好研究一下其原理思想,同時也能更好地理解ConcurrentHashMap本身。
本文主要思路分為以下4個部分
1.計數的使用效果
2.原理的直觀圖解
3.原始碼的細節分析
4.與AtomicInteger的比較
5.思想的抽象
學習的入口自然是map的put方法
public V put(K key, V value) {
return putVal(key, value, false);
}
檢視putVal方法
這裡並不對ConcurrentHashMap本身的原理作過多討論,因此我們直接跳到計數部分
final V putVal(K key, V value, boolean onlyIfAbsent) {
...
addCount(1L, binCount);
return null;
}
每當成功新增一個元素之後,都會呼叫addCount方法進行數量的累加1的操作,這就是我們研究的目標
因為ConcurrentHashMap的設計初衷就是為了解決多執行緒併發場景下的map操作,因此在作數值累加的時候自然也要考慮執行緒安全
當然,多執行緒數值累加一般是學習併發程式設計的第一課,本身並非很複雜,可以採用AtomicInteger或者鎖等等方式來解決該問題
然而如果我們檢視該方法,就會發現,一個想來應該比較簡單的累加方法,其邏輯看上去卻相當複雜
這裡我只貼出了累加演算法的核心部分
private final void addCount(long x, int check) {
CounterCell[] as; long b, s;
if ((as = counterCells) != null ||
!U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
CounterCell a; long v; int m;
boolean uncontended = true;
if (as == null || (m = as.length - 1) < 0 ||
(a = as[ThreadLocalRandom.getProbe() & m]) == null ||
!(uncontended =
U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
fullAddCount(x, uncontended);
return;
}
if (check <= 1)
return;
s = sumCount();
}
...
}
我們就來研究一下該邏輯的實現思路。而這個思路其實是照搬了LongAdder類的邏輯,因此我們直接檢視該演算法的原始類
1.LongAdder類的使用
我們先看下LongAdder的使用效果
LongAdder adder = new LongAdder();
int num = 0;
@Test
public void test5() throws InterruptedException {
Thread[] threads = new Thread[10];
for (int i = 0; i < 10; i++) {
threads[i] = new Thread(() -> {
for (int j = 0; j < 10000; j++) {
adder.add(1);
num += 1;
}
});
threads[i].start();
}
for (int i = 0; i < 10; i++) {
threads[i].join();
}
System.out.println("adder:" + adder);
System.out.println("num:" + num);
}
輸出結果
adder:100000
num:40982
可以看到adder在使用效果上是可以保證累加的執行緒安全的
2.LongAdder原理的直觀理解
為了更好地對原始碼進行分析,我們需要先從直覺上理解它的原理,否則直接看程式碼的話會一臉懵逼
LongAdder的計數主要分為2個物件
一個long型別的欄位:base
一個Cell物件陣列,Cell物件中就維護了一個long型別的欄位value,用來計數
/**
* Table of cells. When non-null, size is a power of 2.
*/
transient volatile Cell[] cells;
/**
* Base value, used mainly when there is no contention, but also as
* a fallback during table initialization races. Updated via CAS.
*/
transient volatile long base;
當沒有發生執行緒競爭的時候,累加都會發生在base欄位上,這就相當於是一個單執行緒累加2次,只不過base的累加是一個cas操作
當發生執行緒競爭的時候,必然有一個執行緒對base的cas累加操作失敗,於是它先去判斷Cell是否已經被初始化了,如果沒有則初始化一個長度為2的陣列,並根據執行緒的hash值找到對應的陣列索引,並對該索引的Cell物件中的value值進行累加(這個累加也是cas的操作)
如果一共有3個執行緒發生了競爭,那麼其中第一個執行緒對base的cas累加成功,剩下2個執行緒都需要去對Cell陣列中的元素進行累加。因為對Cell中value值的累加也是一個cas操作,如果第二個執行緒和第三個執行緒的hash值對應的陣列下標是同一個,那麼同樣會發生競爭,如果第二個執行緒成功了,第三個執行緒就會去rehash自己的hash值,如果得到的新的hash值對應的是另一個元素為null的陣列下標,那麼就new一個Cell物件並對value值進行累加
如果此時有執行緒4同時參與競爭,那麼對於執行緒4來說,即使rehash後還是可能在和執行緒3的競爭過程中cas失敗,此時如果當前陣列的容量小於系統可用的cpu的數量,那麼它就會對陣列進行擴容,之後再次rehash,重複嘗試對Cell陣列中某個下標物件的累加
以上就是整體直覺上的理解,然而程式碼中還有很多細節的設計非常值得學習,所以我們就開始進入原始碼分析的環節
3.原始碼分析
入口方法是add
public void add(long x) {
Cell[] as; long b, v; int m; Cell a;
/**
* 這裡優先判斷了cell陣列是否為空,之後才判斷base欄位的cas累加
* 意味著如果執行緒不發生競爭,cell陣列一直為空,那麼所有的累加操作都會累加到base上
* 而一旦發生過一次競爭導致cell陣列不為空,那麼所有的累加操作都會優先作用於陣列中的物件上
*/
if ((as = cells) != null || !casBase(b = base, b + x)) {
/**
* 這個欄位是用來標識在對cell陣列中的物件進行累加操作時是否發生了競爭
* 如果發生了競爭,那麼在longAccumulate方法中會多進行一次rehash的自旋
* 這個在後面的方法中詳細說明,這裡先有個印象
* true表示未發生競爭
*/
boolean uncontended = true;
/**
* 如果cell陣列為空或者長度為0則直接進入主邏輯方法
*/
if (as == null || (m = as.length - 1) < 0 ||
/**
* 這裡的getProbe()方法可以認為就是獲取執行緒的hash值
* hash值與(陣列長度-1)進行位與操作後得到對應的陣列下標
* 判斷該元素是否為空,如果不為空那麼就會嘗試累加
* 否則進入主邏輯方法
*/
(a = as[getProbe() & m]) == null ||
/**
* 對陣列下標的元素進行cas累加,如果成功了,那麼就可以直接返回
* 否則進入主邏輯方法
*/
!(uncontended = a.cas(v = a.value, v + x)))
longAccumulate(x, null, uncontended);
}
}
當不發生執行緒競爭的時候,那累加操作就會由第一個if中的casBase負責,對應之前圖解的情況一
當發生執行緒競爭之後,累加操作就會由cell陣列負責,對應之前圖解的情況二(陣列的初始化在longAccumulate方法中)
接著我們檢視主邏輯方法,因為方法比較長,所以我會一段一段拿出來解析
longAccumulate方法
簽名中的引數
x表示需要累加的值
fn表示需要如何累加,一般傳null就行,不重要
wasUncontended表示是否在外層方法遇到了競爭失敗的情況,因為外層的判斷邏輯是多個“或”(as == null || (m = as.length - 1) < 0 || (a = as[getProbe() & m]) == null),所以如果陣列為空或者相應的下標元素還未初始化,這個欄位就會保持false
final void longAccumulate(long x, LongBinaryOperator fn,
boolean wasUncontended) {
...
}
首先判斷執行緒的hash值是否為0,如果為0則需要做一個初始化,即rehash
之後會將wasUncontended置為true,因為即使之前是衝突過的,經過rehash後就會先假設它能找到一個元素不衝突的陣列下標
int h;//執行緒的hash值,在後面的邏輯中會用到
if ((h = getProbe()) == 0) {
ThreadLocalRandom.current(); // force initialization
h = getProbe();
wasUncontended = true;
}
之後是一個死迴圈,死迴圈中有3個大的if分支,這3個分支的邏輯作用於陣列未初始化的時候,一旦陣列初始化完成,那麼就都會進入主邏輯了,因此我這裡把主邏輯抽取出來放到後面單獨說,也可以避免外層分支對思路的影響
/**
* 用來標記某個執行緒在上一次迴圈中找到的陣列下標是否已經有Cell物件了
* 如果為true,則表示陣列下標為空
* 在主邏輯的迴圈中會用到
*/
boolean collide = false;
/**
* 死迴圈,提供自旋操作
*/
for (; ; ) {
Cell[] as;
Cell a;
int n;//cell陣列長度
long v;//需要被累積的值
/**
* 如果cells陣列不為空,且已經被某個執行緒初始化成功,那麼就會進入主邏輯,這個後面詳細解釋
*/
if ((as = cells) != null && (n = as.length) > 0) {
...
/**
* 如果陣列為空,那麼就需要初始化一個Cell陣列
* cellsBusy用來標記cells陣列是否能被操作,作用相當於一個鎖
* cells == as 判斷是否有其他執行緒在當前執行緒進入這個判斷之前已經初始化了一個陣列
* casCellsBusy 用一個cas操作給cellsBusy欄位賦值為1,如果成功可以認為拿到了操作cells陣列的鎖
*/
} else if (cellsBusy == 0 && cells == as && casCellsBusy()) {
/**
* 這裡就是初始化一個陣列,不解釋了
*/
boolean init = false;
try {
if (cells == as) {
Cell[] rs = new Cell[2];
rs[h & 1] = new Cell(x);
cells = rs;
init = true;
}
} finally {
cellsBusy = 0;
}
if (init)
break;
/**
* 如果當前陣列是空的,又沒有競爭過其他執行緒
* 那麼就再次嘗試去給base賦值
* 如果又沒競爭過(感覺有點可憐),那麼就自旋
* 另外提一下方法簽名中的LongBinaryOperator物件就是用在這裡的,不影響邏輯
*/
} else if (casBase(v = base, ((fn == null) ? v + x :
fn.applyAsLong(v, x))))
break; // Fall back on using base
}
接著就看對cell陣列元素進行累加的主邏輯
/**
* 如果cells陣列不為空,且已經被某個執行緒初始化成功,進入主邏輯
*/
if ((as = cells) != null && (n = as.length) > 0) {
/**
* 如果當前執行緒的hash值對應的陣列元素為空
*/
if ((a = as[(n - 1) & h]) == null) {
/**
* Cell陣列並未被其他執行緒操作
*/
if (cellsBusy == 0) {
/**
* 這裡沒有理解作者為什麼會在這裡初始化單個Cell
* 作者這裡的註釋是Optimistically create,如果有理解的同學可以說一下
*/
Cell r = new Cell(x);
/**
* 在此判斷cell鎖的狀態,並嘗試加鎖
*/
if (cellsBusy == 0 && casCellsBusy()) {
boolean created = false;
try {
/**
* 這裡對陣列是否為空等狀態再次進行校驗
* 如果校驗通過,那麼就將之前new的Cell物件放到Cell陣列的該下標處
*/
Cell[] rs;
int m, j;
if ((rs = cells) != null &&
(m = rs.length) > 0 &&
rs[j = (m - 1) & h] == null) {
rs[j] = r;
created = true;
}
} finally {
cellsBusy = 0;
}
/**
* 如果建立成功,就說明累加成功,直接退出迴圈
*/
if (created)
break;
/**
* 走到這裡說明在判空和拿到鎖之間正好有其他執行緒在該下標處建立了一個Cell
* 因此直接continue,不rehash,下次就不會進入到該分支了
*/
continue;
}
}
/**
* 當執行到這裡的時候,因為是在 if ((a = as[(n - 1) & h]) == null) 這個判斷邏輯中
* 就說明在第一個if判斷的時候該下標處沒有元素,所以賦值為false
* collide的意義是:上一次迴圈中找到的陣列下標是否已經有Cell物件了
* True if last slot nonempty
*/
collide = false;
/**
* 這個欄位如果為false,說明之前已經和其他執行緒發過了競爭
* 即使此時可以直接取嘗試cas操作,但是在高併發場景下
* 這2個執行緒之後依然可能發生競爭,而每次競爭都需要自旋的話會很浪費cpu資源
* 因此在這裡先直接增加自旋一次,在for的最後會做一次rehash
* 使得執行緒儘快地找到自己獨佔的陣列下標
*/
} else if (!wasUncontended)
wasUncontended = true;
/**
* 嘗試給hash對應的Cell累加,如果這一步成功了,那麼就返回
* 如果這一步依然失敗了,說明此時整體的併發競爭非常激烈
* 那就可能需要考慮擴容陣列了
* (因為陣列初始化容量為2,如果此時有10個執行緒在併發執行,那就很難避免競爭的發生了)
*/
else if (a.cas(v = a.value, ((fn == null) ? v + x :
fn.applyAsLong(v, x))))
break;
/**
* 這裡判斷下cpu的核數,因為即使有100個執行緒
* 能同時並行執行的執行緒數等於cpu數
* 因此如果陣列的長度已經大於cpu數目了,那就不應當再擴容了
*/
else if (n >= NCPU || cells != as)
collide = false;
/**
* 走到這裡,說明當前迴圈中根據執行緒hash值找到的陣列下標已經有元素了
* 如果此時collide為false,說明上一次迴圈中找到的下邊是沒有元素的
* 那麼就自旋一次並rehash
* 如果再次執行到這裡,並且collide為true,就說明明競爭非常激烈,應當擴容了
*/
else if (!collide)
collide = true;
/**
* 能執行到這裡,說明需要擴容陣列了
* 判斷鎖狀態並嘗試獲取鎖
*/
else if (cellsBusy == 0 && casCellsBusy()) {
/**
* 擴容陣列的邏輯,這個擴容比較簡單,就不解釋了
* 擴容大小為2倍
*/
try {
if (cells == as) {
Cell[] rs = new Cell[n << 1];
for (int i = 0; i < n; ++i)
rs[i] = as[i];
cells = rs;
}
} finally {
cellsBusy = 0;
}
collide = false;
/**
* 這裡直接continue,因為擴容過了,就先不rehash了
*/
continue;
}
/**
* 做一個rehash,使得執行緒在下一個迴圈中可能找到獨佔的陣列下標
*/
h = advanceProbe(h);
}
到這裡LongAdder的原始碼其實就分析結束了,其實程式碼並不多,但是他的思想非常值得我們去學習。
4.與AtomicInteger的比較
光分析原始碼其實還差一些感覺,我們還沒有搞懂為何作者要在已經有AtomicInteger的情況下,再設計這麼一個看上去非常複雜的類。
那麼首先我們先分析下AtomicInteger保證執行緒安全的原理
檢視最基本的getAndIncrement方法
public final int getAndIncrement() {
return unsafe.getAndAddInt(this, valueOffset, 1);
}
呼叫了Unsafe類的getAndAddInt方法,繼續往下看
public final int getAndAddInt(Object var1, long var2, int var4) {
int var5;
do {
var5 = this.getIntVolatile(var1, var2);
} while(!this.compareAndSwapInt(var1, var2, var5, var5 + var4));
return var5;
}
這裡我們不再深究getIntVolatile和compareAndSwapInt方法具體實現,因為其已經是native的方法了
可以看到,AtomicInteger底層是使用了cas+自旋的方式解決原子性問題的,即如果一次賦值不成功,那麼就自旋,直到賦值成功為止
那麼由此可以推斷,當出現大量執行緒併發,競爭非常激烈的時候,AtomicInteger就有可能導致有些執行緒不斷地競爭失敗,不斷自旋從而影響任務的吞吐量
為了解決高併發下的自旋問題,LongAdder的作者在設計的時候就通過增加一個陣列的方式,使得競爭的物件從一個值變成多個值,從而使得發生競爭的頻率降低,從而緩解了自旋的問題,當然付出的代價就是額外的儲存空間。
最後我簡單做了個測試,比較2種計數方法的耗時
通過原理可知,只有當執行緒競爭非常激烈的時候,LongAdder的優勢才會比較明顯,因此這裡我用了100個執行緒,每一個執行緒對同一個數累加1000000次,得到結果如下,差距非常巨大,達到15倍!
LongAdder耗時:104292242nanos
AtomicInteger耗時:1583294474nanos
當然這只是一個簡單測試,包含了很多隨機性,有興趣的同學可以嘗試不同的競爭程度多次測試
5.思想的抽象
最後我們需要將作者的具體程式碼和實現邏輯抽象一下,理清思考的過程
1)AtomicInteger遇到的問題:單個資源的競爭導致自旋的發生
2)解決的思路:將單個物件的競爭擴充套件為多個物件的競爭(有那麼一些分治的思想)
3)擴充套件的可控性:多個競爭物件需要付出額外的儲存空間,因此不能無腦地擴充套件(極端情況是一個執行緒一個計數的物件,這明顯不合理)
4)問題的分層:因為使用類的時候的場景是不可控的,因此需要根據併發的激烈程度動態地擴充套件額外的儲存空間(類似於synchronized的膨脹)
5)3個分層策略:當不發生競爭時,那麼用一個值累加即可;當發生一定程度的競爭時,建立一個容量為2的陣列,使得競爭的資源擴充套件為3個;當競爭更加激烈時,則繼續擴充套件陣列(對應圖解中的1個執行緒到4個執行緒的過程)
6)策略細節:在自旋的時候增加rehash,此時雖然付出了一定的運算時間計算hash、比較陣列物件等,但是這會使得併發的執行緒儘快地找到專屬於自己的物件,在之後就不會再發生任何競爭(磨刀不誤砍柴工,特別注意wasUncontended欄位的相關注解)