大家好,我是老三。上期釋出了一篇:面渣逆襲:HashMap追魂二十三問,反響很好!
圍觀群眾紛紛表示?
不寫,是不可能不寫的,只有卷才能維持了生活這樣子。
當然,我寫的這一系列,不是背誦版,是理解版,很多地方都是在講原理,內容也比較充足,死記硬背很難,大家一定要去理解性地去記憶。
這一篇,除了把之前的HashMap一些小錯誤進行修正,我還把相對“比較”簡單的List
也給請了進來,幫大家降降曲線,找找信心——用謝,留下贊就行。?
引言
1.說說有哪些常見集合?
集合相關類和介面都在java.util中,主要分為3種:List(列表)、Map(對映)、Set(集)。
其中Collection
是集合List
、Set
的父介面,它主要有兩個子介面:
List
:儲存的元素有序,可重複。Set
:儲存的元素不無序,不可重複。
Map
是另外的介面,是鍵值對對映結構的集合。
List
List,也沒啥好問的,但不排除面試官劍走偏鋒,比如面試官也看了我這篇文章。
2.ArrayList和LinkedList有什麼區別?
(1)資料結構不同
- ArrayList基於陣列實現
- LinkedList基於雙向連結串列實現
(2) 多數情況下,ArrayList更利於查詢,LinkedList更利於增刪
-
ArrayList基於陣列實現,get(int index)可以直接通過陣列下標獲取,時間複雜度是O(1);LinkedList基於連結串列實現,get(int index)需要遍歷連結串列,時間複雜度是O(n);當然,get(E element)這種查詢,兩種集合都需要遍歷,時間複雜度都是O(n)。
-
ArrayList增刪如果是陣列末尾的位置,直接插入或者刪除就可以了,但是如果插入中間的位置,就需要把插入位置後的元素都向前或者向後移動,甚至還有可能觸發擴容;雙向連結串列的插入和刪除只需要改變前驅節點、後繼節點和插入節點的指向就行了,不需要移動元素。
注意,這個地方可能會出陷阱,LinkedList更利於增刪更多是體現在平均步長上,不是體現在時間複雜度上,二者增刪的時間複雜度都是O(n)
(3)是否支援隨機訪問
- ArrayList基於陣列,所以它可以根據下標查詢,支援隨機訪問,當然,它也實現了RandmoAccess 介面,這個介面只是用來標識是否支援隨機訪問。
- LinkedList基於連結串列,所以它沒法根據序號直接獲取元素,它沒有實現RandmoAccess 介面,標記不支援隨機訪問。
(4)記憶體佔用,ArrayList基於陣列,是一塊連續的記憶體空間,LinkedList基於連結串列,記憶體空間不連續,它們在空間佔用上都有一些額外的消耗:
- ArrayList是預先定義好的陣列,可能會有空的記憶體空間,存在一定空間浪費
- LinkedList每個節點,需要儲存前驅和後繼,所以每個節點會佔用更多的空間
3.ArrayList的擴容機制瞭解嗎?
ArrayList是基於陣列的集合,陣列的容量是在定義的時候確定的,如果陣列滿了,再插入,就會陣列溢位。所以在插入時候,會先檢查是否需要擴容,如果當前容量+1超過陣列長度,就會進行擴容。
ArrayList的擴容是建立一個1.5倍的新陣列,然後把原陣列的值拷貝過去。
4.ArrayList怎麼序列化的知道嗎? 為什麼用transient修飾陣列?
ArrayList的序列化不太一樣,它使用transient
修飾儲存元素的elementData
的陣列,transient
關鍵字的作用是讓被修飾的成員屬性不被序列化。
為什麼最ArrayList不直接序列化元素陣列呢?
出於效率的考慮,陣列可能長度100,但實際只用了50,剩下的50不用其實不用序列化,這樣可以提高序列化和反序列化的效率,還可以節省記憶體空間。
那ArrayList怎麼序列化呢?
ArrayList通過兩個方法readObject、writeObject自定義序列化和反序列化策略,實際直接使用兩個流ObjectOutputStream
和ObjectInputStream
來進行序列化和反序列化。
5.快速失敗(fail-fast)和安全失敗(fail-safe)瞭解嗎?
快速失敗(fail—fast):快速失敗是Java集合的一種錯誤檢測機制
- 在用迭代器遍歷一個集合物件時,如果執行緒A遍歷過程中,執行緒B對集合物件的內容進行了修改(增加、刪除、修改),則會丟擲Concurrent Modification Exception。
- 原理:迭代器在遍歷時直接訪問集合中的內容,並且在遍歷過程中使用一個
modCount
變數。集合在被遍歷期間如果內容發生變化,就會改變modCount
的值。每當迭代器使用hashNext()/next()遍歷下一個元素之前,都會檢測modCount變數是否為expectedmodCount值,是的話就返回遍歷;否則丟擲異常,終止遍歷。 - 注意:這裡異常的丟擲條件是檢測到 modCount!=expectedmodCount 這個條件。如果集合發生變化時修改modCount值剛好又設定為了expectedmodCount值,則異常不會丟擲。因此,不能依賴於這個異常是否丟擲而進行併發操作的程式設計,這個異常只建議用於檢測併發修改的bug。
- 場景:java.util包下的集合類都是快速失敗的,不能在多執行緒下發生併發修改(迭代過程中被修改),比如ArrayList 類。
安全失敗(fail—safe)
- 採用安全失敗機制的集合容器,在遍歷時不是直接在集合內容上訪問的,而是先複製原有集合內容,在拷貝的集合上進行遍歷。
- 原理:由於迭代時是對原集合的拷貝進行遍歷,所以在遍歷過程中對原集合所作的修改並不能被迭代器檢測到,所以不會觸發Concurrent Modification Exception。
- 缺點:基於拷貝內容的優點是避免了Concurrent Modification Exception,但同樣地,迭代器並不能訪問到修改後的內容,即:迭代器遍歷的是開始遍歷那一刻拿到的集合拷貝,在遍歷期間原集合發生的修改迭代器是不知道的。
- 場景:java.util.concurrent包下的容器都是安全失敗,可以在多執行緒下併發使用,併發修改,比如CopyOnWriteArrayList類。
6.有哪幾種實現ArrayList執行緒安全的方法?
fail-fast是一種可能觸發的機制,實際上,ArrayList的執行緒安全仍然沒有保證,一般,保證ArrayList的執行緒安全可以通過這些方案:
- 使用 Vector 代替 ArrayList。(不推薦,Vector是一個歷史遺留類)
- 使用 Collections.synchronizedList 包裝 ArrayList,然後操作包裝後的 list。
- 使用 CopyOnWriteArrayList 代替 ArrayList。
- 在使用 ArrayList 時,應用程式通過同步機制去控制 ArrayList 的讀寫。
7.CopyOnWriteArrayList瞭解多少?
CopyOnWriteArrayList就是執行緒安全版本的ArrayList。
它的名字叫CopyOnWrite
——寫時複製,已經明示了它的原理。
CopyOnWriteArrayList採用了一種讀寫分離的併發策略。CopyOnWriteArrayList容器允許併發讀,讀操作是無鎖的,效能較高。至於寫操作,比如向容器中新增一個元素,則首先將當前容器複製一份,然後在新副本上執行寫操作,結束之後再將原容器的引用指向新容器。
Map
Map中,毫無疑問,最重要的就是HashMap,面試基本被盤出包漿了,各種問法,一定要好好準備。
8.能說一下HashMap的資料結構嗎?
JDK1.7的資料結構是陣列
+連結串列
,JDK1.7還有人在用?不會吧……
說一下JDK1.8的資料結構吧:
JDK1.8的資料結構是陣列
+連結串列
+紅黑樹
。
資料結構示意圖如下:
其中,桶陣列是用來儲存資料元素,連結串列是用來解決衝突,紅黑樹是為了提高查詢的效率。
- 資料元素通過對映關係,也就是雜湊函式,對映到桶陣列對應索引的位置
- 如果發生衝突,從衝突的位置拉一個連結串列,插入衝突的元素
- 如果連結串列長度>8&陣列大小>=64,連結串列轉為紅黑樹
- 如果紅黑樹節點個數<6 ,轉為連結串列
9.你對紅黑樹瞭解多少?為什麼不用二叉樹/平衡樹呢?
紅黑樹本質上是一種二叉查詢樹,為了保持平衡,它又在二叉查詢樹的基礎上增加了一些規則:
- 每個節點要麼是紅色,要麼是黑色;
- 根節點永遠是黑色的;
- 所有的葉子節點都是是黑色的(注意這裡說葉子節點其實是圖中的 NULL 節點);
- 每個紅色節點的兩個子節點一定都是黑色;
- 從任一節點到其子樹中每個葉子節點的路徑都包含相同數量的黑色節點;
之所以不用二叉樹:
紅黑樹是一種平衡的二叉樹,插入、刪除、查詢的最壞時間複雜度都為 O(logn),避免了二叉樹最壞情況下的O(n)時間複雜度。
之所以不用平衡二叉樹:
平衡二叉樹是比紅黑樹更嚴格的平衡樹,為了保持保持平衡,需要旋轉的次數更多,也就是說平衡二叉樹保持平衡的效率更低,所以平衡二叉樹插入和刪除的效率比紅黑樹要低。
10.紅黑樹怎麼保持平衡的知道嗎?
紅黑樹有兩種方式保持平衡:旋轉
和染色
。
- 旋轉:旋轉分為兩種,左旋和右旋
- 染⾊:
11.HashMap的put流程知道嗎?
先上個流程圖吧:
-
首先進行雜湊值的擾動,獲取一個新的雜湊值。
(key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
-
判斷tab是否位空或者長度為0,如果是則進行擴容操作。
if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length;
-
根據雜湊值計算下標,如果對應小標正好沒有存放資料,則直接插入即可否則需要覆蓋。
tab[i = (n - 1) & hash])
-
判斷tab[i]是否為樹節點,否則向連結串列中插入資料,是則向樹中插入節點。
-
如果連結串列中插入節點的時候,連結串列長度大於等於8,則需要把連結串列轉換為紅黑樹。
treeifyBin(tab, hash);
-
最後所有元素處理完成後,判斷是否超過閾值;
threshold
,超過則擴容。
12.HashMap怎麼查詢元素的呢?
先看流程圖:
HashMap的查詢就簡單很多:
- 使用擾動函式,獲取新的雜湊值
- 計算陣列下標,獲取節點
- 當前節點和key匹配,直接返回
- 否則,當前節點是否為樹節點,查詢紅黑樹
- 否則,遍歷連結串列查詢
13.HashMap的雜湊/擾動函式是怎麼設計的?
HashMap的雜湊函式是先拿到 key 的hashcode,是一個32位的int型別的數值,然後讓hashcode的高16位和低16位進行異或操作。
static final int hash(Object key) {
int h;
// key的hashCode和key的hashCode右移16位做異或運算
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
這麼設計是為了降低雜湊碰撞的概率。
14.為什麼雜湊/擾動函式能降hash碰撞?
因為 key.hashCode() 函式呼叫的是 key 鍵值型別自帶的雜湊函式,返回 int 型雜湊值。int 值範圍為 -2147483648~2147483647,加起來大概 40 億的對映空間。
只要雜湊函式對映得比較均勻鬆散,一般應用是很難出現碰撞的。但問題是一個 40 億長度的陣列,記憶體是放不下的。
假如 HashMap 陣列的初始大小才 16,就需要用之前需要對陣列的長度取模運算,得到的餘數才能用來訪問陣列下標。
原始碼中模運算就是把雜湊值和陣列長度 - 1 做一個 "與&
" 操作,位運算比取餘 % 運算要快。
bucketIndex = indexFor(hash, table.length);
static int indexFor(int h, int length) {
return h & (length-1);
}
順便說一下,這也正好解釋了為什麼 HashMap 的陣列長度要取 2 的整數冪。因為這樣(陣列長度 - 1)正好相當於一個 “低位掩碼”。與
操作的結果就是雜湊值的高位全部歸零,只保留低位值,用來做陣列下標訪問。以初始長度 16 為例,16-1=15。2 進製表示是 0000 0000 0000 0000 0000 0000 0000 1111
。和某個雜湊值做 與
操作如下,結果就是擷取了最低的四位值。
這樣是要快捷一些,但是新的問題來了,就算雜湊值分佈再鬆散,要是隻取最後幾位的話,碰撞也會很嚴重。如果雜湊本身做得不好,分佈上成等差數列的漏洞,如果正好讓最後幾個低位呈現規律性重複,那就更難搞了。
這時候 擾動函式
的價值就體現出來了,看一下擾動函式的示意圖:
右移 16 位,正好是 32bit 的一半,自己的高半區和低半區做異或,就是為了混合原始雜湊碼的高位和低位,以此來加大低位的隨機性。而且混合後的低位摻雜了高位的部分特徵,這樣高位的資訊也被變相保留下來。
15.為什麼HashMap的容量是2的倍數呢?
- 第一個原因是為了方便雜湊取餘:
將元素放在table陣列上面,是用hash值%陣列大小定位位置,而HashMap是用hash值&(陣列大小-1),卻能和前面達到一樣的效果,這就得益於HashMap的大小是2的倍數,2的倍數意味著該數的二進位制位只有一位為1,而該數-1就可以得到二進位制位上1變成0,後面的0變成1,再通過&運算,就可以得到和%一樣的效果,並且位運算比%的效率高得多
HashMap的容量是2的n次冪時,(n-1)的2進位制也就是1111111***111這樣形式的,這樣與新增元素的hash值進行位運算時,能夠充分的雜湊,使得新增的元素均勻分佈在HashMap的每個位置上,減少hash碰撞。
- 第二個方面是在擴容時,利用擴容後的大小也是2的倍數,將已經產生hash碰撞的元素完美的轉移到新的table中去
我們可以簡單看看HashMap的擴容機制,HashMap中的元素在超過負載因子*HashMap
大小時就會產生擴容。
16.如果初始化HashMap,傳一個17的值new HashMap<>
,它會怎麼處理?
簡單來說,就是初始化時,傳的不是2的倍數時,HashMap會向上尋找離得最近的2的倍數
,所以傳入17,但HashMap的實際容量是32。
我們來看看詳情,在HashMap的初始化中,有這樣⼀段⽅法;
public HashMap(int initialCapacity, float loadFactor) {
...
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
- 閥值 threshold ,通過⽅法
tableSizeFor
進⾏計算,是根據初始化傳的引數來計算的。 - 同時,這個⽅法也要要尋找⽐初始值⼤的,最⼩的那個2進位制數值。⽐如傳了17,我應該找到的是32。
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; }
- MAXIMUM_CAPACITY = 1 << 30,這個是臨界範圍,也就是最⼤的Map集合。
- 計算過程是向右移位1、2、4、8、16,和原來的數做
|
運算,這主要是為了把⼆進位制的各個位置都填上1,當⼆進位制的各個位置都是1以後,就是⼀個標準的2的倍數減1了,最後把結果加1再返回即可。
以17為例,看一下初始化計算table容量的過程:
17.你還知道哪些雜湊函式的構造方法呢?
HashMap裡雜湊建構函式的方法叫:
- 除留取餘法:H(key)=key%p(p<=N),關鍵字除以一個不大於雜湊表長度的正整數p,所得餘數為地址,當然HashMap裡進行了優化改造,效率更高,雜湊也更均衡。
除此之外,還有這幾種常見的雜湊函式構造方法:
-
直接定址法
直接根據
key
來對映到對應的陣列位置,例如1232放到下標1232的位置。 -
數字分析法
取
key
的某些數字(例如十位和百位)作為對映的位置 -
平方取中法
取
key
平方的中間幾位作為對映的位置 -
摺疊法
將
key
分割成位數相同的幾段,然後把它們的疊加和作為對映的位置
18.解決雜湊衝突有哪些方法呢?
我們到現在已經知道,HashMap使用連結串列的原因為了處理雜湊衝突,這種方法就是所謂的:
- 鏈地址法:在衝突的位置拉一個連結串列,把衝突的元素放進去。
除此之外,還有一些常見的解決衝突的辦法:
-
開放定址法:開放定址法就是從衝突的位置再接著往下找,給衝突元素找個空位。
找到空閒位置的方法也有很多種:
- 線行探查法: 從衝突的位置開始,依次判斷下一個位置是否空閒,直至找到空閒位置
- 平方探查法: 從衝突的位置x開始,第一次增加
1^2
個位置,第二次增加2^2
…,直至找到空閒的位置 - ……
- 再雜湊法:換種雜湊函式,重新計算衝突元素的地址。
- 建立公共溢位區:再建一個陣列,把衝突的元素放進去。
19.為什麼HashMap連結串列轉紅黑樹的閾值為8呢?
樹化發生在table陣列的長度大於64,且連結串列的長度大於8的時候。
為什麼是8呢?原始碼的註釋也給出了答案。
紅黑樹節點的大小大概是普通節點大小的兩倍,所以轉紅黑樹,犧牲了空間換時間,更多的是一種兜底的策略,保證極端情況下的查詢效率。
閾值為什麼要選8呢?和統計學有關。理想情況下,使用隨機雜湊碼,連結串列裡的節點符合泊松分佈,出現節點個數的概率是遞減的,節點個數為8的情況,發生概率僅為0.00000006
。
至於紅黑樹轉回連結串列的閾值為什麼是6,而不是8?是因為如果這個閾值也設定成8,假如發生碰撞,節點增減剛好在8附近,會發生連結串列和紅黑樹的不斷轉換,導致資源浪費。
20.擴容在什麼時候呢?為什麼擴容因子是0.75?
為了減少雜湊衝突發生的概率,噹噹前HashMap的元素個數達到一個臨界值的時候,就會觸發擴容,把所有元素rehash之後再放在擴容後的容器中,這是一個相當耗時的操作。
而這個臨界值threshold
就是由載入因子和當前容器的容量大小來確定的,假如採用預設的構造方法:
臨界值(threshold )= 預設容量(DEFAULT_INITIAL_CAPACITY) * 預設擴容因子(DEFAULT_LOAD_FACTOR)
那就是大於16x0.75=12
時,就會觸發擴容操作。
那麼為什麼選擇了0.75作為HashMap的預設載入因子呢?
簡單來說,這是對空間
成本和時間
成本平衡的考慮。
在HashMap中有這樣一段註釋:
我們都知道,HashMap的雜湊構造方式是Hash取餘,負載因子決定元素個數達到多少時候擴容。
假如我們設的比較大,元素比較多,空位比較少的時候才擴容,那麼發生雜湊衝突的概率就增加了,查詢的時間成本就增加了。
我們設的比較小的話,元素比較少,空位比較多的時候就擴容了,發生雜湊碰撞的概率就降低了,查詢時間成本降低,但是就需要更多的空間去儲存元素,空間成本就增加了。
21.那擴容機制瞭解嗎?
HashMap是基於陣列+連結串列和紅黑樹實現的,但用於存放key值的桶陣列的長度是固定的,由初始化引數確定。
那麼,隨著資料的插入數量增加以及負載因子的作用下,就需要擴容來存放更多的資料。而擴容中有一個非常重要的點,就是jdk1.8中的優化操作,可以不需要再重新計算每一個元素的雜湊值。
因為HashMap的初始容量是2的次冪,擴容之後的長度是原來的二倍,新的容量也是2的次冪,所以,元素,要麼在原位置,要麼在原位置再移動2的次冪。
看下這張圖,n為table的長度,圖a
表示擴容前的key1和key2兩種key確定索引的位置,圖b
表示擴容後key1和key2兩種key確定索引位置。
元素在重新計算hash之後,因為n變為2倍,那麼n-1的mask範圍在高位多1bit(紅色),因此新的index就會發生這樣的變化:
所以在擴容時,只需要看原來的hash值新增的那一位是0還是1就行了,是0的話索引沒變,是1的化變成原索引+oldCap
,看看如16擴容為32的示意圖:
擴容節點遷移主要邏輯:
22.jdk1.8對HashMap主要做了哪些優化呢?為什麼?
jdk1.8 的HashMap主要有五點優化:
-
資料結構:陣列 + 連結串列改成了陣列 + 連結串列或紅黑樹
原因
:發生 hash 衝突,元素會存入連結串列,連結串列過長轉為紅黑樹,將時間複雜度由O(n)
降為O(logn)
-
連結串列插入方式:連結串列的插入方式從頭插法改成了尾插法
簡單說就是插入時,如果陣列位置上已經有元素,1.7 將新元素放到陣列中,原始節點作為新節點的後繼節點,1.8 遍歷連結串列,將元素放置到連結串列的最後。
原因
:因為 1.7 頭插法擴容時,頭插法會使連結串列發生反轉,多執行緒環境下會產生環。 -
擴容rehash:擴容的時候 1.7 需要對原陣列中的元素進行重新 hash 定位在新陣列的位置,1.8 採用更簡單的判斷邏輯,不需要重新通過雜湊函式計算位置,新的位置不變或索引 + 新增容量大小。
原因:
提高擴容的效率,更快地擴容。 -
擴容時機:在插入時,1.7 先判斷是否需要擴容,再插入,1.8 先進行插入,插入完成再判斷是否需要擴容;
-
雜湊函式:1.7 做了四次移位和四次異或,jdk1.8只做一次。
原因
:做 4 次的話,邊際效用也不大,改為一次,提升效率。
23.你能自己設計實現一個HashMap嗎?
這道題快手常考。
不要慌,紅黑樹版我們們多半是寫不出來,但是陣列+連結串列版還是問題不大的,詳細可見: 手寫HashMap,快手面試官直呼內行!。
整體的設計:
- 雜湊函式:hashCode()+除留餘數法
- 衝突解決:鏈地址法
- 擴容:節點重新hash獲取位置
完整程式碼:
24.HashMap 是執行緒安全的嗎?多執行緒下會有什麼問題?
HashMap不是執行緒安全的,可能會發生這些問題:
-
多執行緒下擴容死迴圈。JDK1.7 中的 HashMap 使用頭插法插入元素,在多執行緒的環境下,擴容的時候有可能導致環形連結串列的出現,形成死迴圈。因此,JDK1.8 使用尾插法插入元素,在擴容時會保持連結串列元素原本的順序,不會出現環形連結串列的問題。
-
多執行緒的 put 可能導致元素的丟失。多執行緒同時執行 put 操作,如果計算出來的索引位置是相同的,那會造成前一個 key 被後一個 key 覆蓋,從而導致元素的丟失。此問題在 JDK 1.7 和 JDK 1.8 中都存在。
-
put 和 get 併發時,可能導致 get 為 null。執行緒 1 執行 put 時,因為元素個數超出 threshold 而導致 rehash,執行緒 2 此時執行 get,有可能導致這個問題。這個問題在 JDK 1.7 和 JDK 1.8 中都存在。
25.有什麼辦法能解決HashMap執行緒不安全的問題呢?
Java 中有 HashTable、Collections.synchronizedMap、以及 ConcurrentHashMap 可以實現執行緒安全的 Map。
- HashTable 是直接在操作方法上加 synchronized 關鍵字,鎖住整個table陣列,粒度比較大;
- Collections.synchronizedMap 是使用 Collections 集合工具的內部類,通過傳入 Map 封裝出一個 SynchronizedMap 物件,內部定義了一個物件鎖,方法內通過物件鎖實現;
- ConcurrentHashMap 在jdk1.7中使用分段鎖,在jdk1.8中使用CAS+synchronized。
26.能具體說一下ConcurrentHashmap的實現嗎?
ConcurrentHashmap執行緒安全在jdk1.7版本是基於分段鎖
實現,在jdk1.8是基於CAS+synchronized
實現。
1.7分段鎖
從結構上說,1.7版本的ConcurrentHashMap採用分段鎖機制,裡面包含一個Segment陣列,Segment繼承於ReentrantLock,Segment則包含HashEntry的陣列,HashEntry本身就是一個連結串列的結構,具有儲存key、value的能力能指向下一個節點的指標。
實際上就是相當於每個Segment都是一個HashMap,預設的Segment長度是16,也就是支援16個執行緒的併發寫,Segment之間相互不會受到影響。
put流程
整個流程和HashMap非常類似,只不過是先定位到具體的Segment,然後通過ReentrantLock去操作而已,後面的流程,就和HashMap基本上是一樣的。
- 計算hash,定位到segment,segment如果是空就先初始化
- 使用ReentrantLock加鎖,如果獲取鎖失敗則嘗試自旋,自旋超過次數就阻塞獲取,保證一定獲取鎖成功
- 遍歷HashEntry,就是和HashMap一樣,陣列中key和hash一樣就直接替換,不存在就再插入連結串列,連結串列同樣操作
get流程
get也很簡單,key通過hash定位到segment,再遍歷連結串列定位到具體的元素上,需要注意的是value是volatile的,所以get是不需要加鎖的。
1.8 CAS+synchronized
jdk1.8實現執行緒安全不是在資料結構上下功夫,它的資料結構和HashMap是一樣的,陣列+連結串列+紅黑樹。它實現執行緒安全的關鍵點在於put流程。
put流程
- 首先計算hash,遍歷node陣列,如果node是空的話,就通過CAS+自旋的方式初始化
tab = initTable();
node陣列初始化:
private final Node<K,V>[] initTable() {
Node<K,V>[] tab; int sc;
while ((tab = table) == null || tab.length == 0) {
//如果正在初始化或者擴容
if ((sc = sizeCtl) < 0)
//等待
Thread.yield(); // lost initialization race; just spin
else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) { //CAS操作
try {
if ((tab = table) == null || tab.length == 0) {
int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
@SuppressWarnings("unchecked")
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
table = tab = nt;
sc = n - (n >>> 2);
}
} finally {
sizeCtl = sc;
}
break;
}
}
return tab;
}
2.如果當前陣列位置是空則直接通過CAS自旋寫入資料
static final <K,V> boolean casTabAt(Node<K,V>[] tab, int i,
Node<K,V> c, Node<K,V> v) {
return U.compareAndSwapObject(tab, ((long)i << ASHIFT) + ABASE, c, v);
}
- 如果hash==MOVED,說明需要擴容,執行擴容
else if ((fh = f.hash) == MOVED)
tab = helpTransfer(tab, f);
final Node<K,V>[] helpTransfer(Node<K,V>[] tab, Node<K,V> f) {
Node<K,V>[] nextTab; int sc;
if (tab != null && (f instanceof ForwardingNode) &&
(nextTab = ((ForwardingNode<K,V>)f).nextTable) != null) {
int rs = resizeStamp(tab.length);
while (nextTab == nextTable && table == tab &&
(sc = sizeCtl) < 0) {
if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
sc == rs + MAX_RESIZERS || transferIndex <= 0)
break;
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) {
transfer(tab, nextTab);
break;
}
}
return nextTab;
}
return table;
}
- 如果都不滿足,就使用synchronized寫入資料,寫入資料同樣判斷連結串列、紅黑樹,連結串列寫入和HashMap的方式一樣,key hash一樣就覆蓋,反之就尾插法,連結串列長度超過8就轉換成紅黑樹
synchronized (f){
……
}
get查詢
get很簡單,和HashMap基本相同,通過key計算位置,table該位置key相同就返回,如果是紅黑樹按照紅黑樹獲取,否則就遍歷連結串列獲取。
27.HashMap 內部節點是有序的嗎?
HashMap是無序的,根據 hash 值隨機插入。如果想使用有序的Map,可以使用LinkedHashMap 或者 TreeMap。
28.講講 LinkedHashMap 怎麼實現有序的?
LinkedHashMap維護了一個雙向連結串列,有頭尾節點,同時 LinkedHashMap 節點 Entry 內部除了繼承 HashMap 的 Node 屬性,還有 before 和 after 用於標識前置節點和後置節點。
可以實現按插入的順序或訪問順序排序。
29.講講 TreeMap 怎麼實現有序的?
TreeMap 是按照 Key 的自然順序或者 Comprator 的順序進行排序,內部是通過紅黑樹來實現。所以要麼 key 所屬的類實現 Comparable 介面,或者自定義一個實現了 Comparator 介面的比較器,傳給 TreeMap 用於 key 的比較。
Set
Set面試沒啥好問的,拿HashSet來湊個數。
30.講講HashSet的底層實現?
HashSet 底層就是基於 HashMap 實現的。( HashSet 的原始碼⾮常⾮常少,因為除了 clone() 、 writeObject() 、 readObject() 是 HashSet⾃⼰不得不實現之外,其他⽅法都是直接調⽤ HashMap 中的⽅法。
HashSet的add方法,直接呼叫HashMap的put方法,將新增的元素作為key,new一個Object作為value,直接呼叫HashMap的put方法,它會根據返回值是否為空來判斷是否插入元素成功。
public boolean add(E e) {
return map.put(e, PRESENT)==null;
}
而在HashMap的putVal方法中,進行了一系列判斷,最後的結果是,只有在key在table陣列中不存在的時候,才會返回插入的值。
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
參考:
[1]. 一個HashMap跟面試官扯了半個小時
[2]. 《大廠面試》—Java 集合連環30問
[3]. 面經手冊 · 第4篇《HashMap資料插入、查詢、刪除、遍歷,原始碼分析》
[5]. 資料結構之LinkedHashMap
[6].面經手冊 · 第3篇《HashMap核心知識,擾動函式、負載因子、擴容連結串列拆分,深度學習》
[7]. 面試官:為什麼 HashMap 的載入因子是0.75?
[8]. 面試舊敵之紅黑樹(直白介紹深入理解)
[9]. Java TreeMap工作原理及實現
[10]. 手寫HashMap,快手面試官直呼內行!
[11].Java 8系列之重新認識HashMap