前言
1. 儲存結構
(1) 從原始碼可知,HashMap類中有一個非常重要的欄位,就是 Node[] table,即雜湊桶陣列,明顯它是一個Node的陣列。我們先來看看Node是什麼。
static class Node implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node next;//指向連結串列的下一個node
Node(int hash, K key, V value, Node next) { ... }
public final K getKey(){ ... }
public final V getValue() { ... }
public final String toString() { ... }
public final int hashCode() { ... }
public final V setValue(V newValue) { ... }
public final boolean equals(Object o) { ... }
}複製程式碼
(2) HashMap就是使用雜湊表來儲存的。雜湊表為解決衝突,可以採用開放地址法和鏈地址法等來解決問題,Java中HashMap採用了鏈地址法。
鏈地址法,簡單來說,就是陣列加連結串列的結合。在每個陣列元素上都有一個連結串列結構,當資料被Hash後,得到陣列下標,把資料放在對應下標元素的連結串列上(具體內容下文會說到)。
在理解Hash和擴容流程之前,我們得先了解下HashMap的幾個欄位。從HashMap的預設建構函式原始碼可知,建構函式就是對下面幾個欄位進行初始化,原始碼如下:
int threshold; // 所能容納的key-value對極限
final float loadFactor; // 負載因子
int modCount;
int size;複製程式碼
size這個欄位其實很好理解,就是HashMap中實際存在的鍵值對數量。注意和table的長度length、容納最大鍵值對數量threshold的區別。
modCount欄位主要用來記錄HashMap內部結構發生變化的次數,主要用於迭代的快速失敗。強調一點,內部結構發生變化指的是結構發生變化,例如put新鍵值對,但是某個key對應的value值被覆蓋不屬於結構變化。
這裡存在一個問題,即使負載因子和Hash演算法設計的再合理,也免不了會出現拉鍊過長的情況,一旦出現拉鍊過長,則會嚴重影響HashMap的效能。於是,在JDK1.8版本中,對資料結構做了進一步的優化,引入了紅黑樹。而當連結串列長度太長(預設超過8)時,連結串列就轉換為紅黑樹,利用紅黑樹快速增刪改查的特點提高HashMap的效能,其中會用到紅黑樹的插入、刪除、查詢等演算法。
1.1. 拉鍊法的工作原理
- 新建一個 HashMap,預設大小為 16;
- 插入 <K1,V1> 鍵值對,先計算 K1 的 hashCode 為 115,使用除留餘數法得到所在的桶下標 115%16=3。
- 插入 <K2,V2> 鍵值對,先計算 K2 的 hashCode 為 118,使用除留餘數法得到所在的桶下標 118%16=6。
- 插入 <K3,V3> 鍵值對,先計算 K3 的 hashCode 為 118,使用除留餘數法得到所在的桶下標 118%16=6,插在 <K2,V2> 前面。
- 計算鍵值對所在的桶;
- 在連結串列上順序查詢,時間複雜度顯然和連結串列的長度成正比。
1.2. 建構函式解析
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}複製程式碼
2. 實現原理
2.1. 確定雜湊桶陣列索引位置
方法一:
static final int hash(Object key) { //jdk1.8 & jdk1.7
int h;
// h = key.hashCode() 為第一步 取hashCode值
// h ^ (h >>> 16) 為第二步 高位參與運算
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
方法二:
static int indexFor(int h, int length) {
//jdk1.7的原始碼,jdk1.8沒有這個方法,原理是一樣的只不過放到其他方法中去,例如put()
return h & (length-1); //第三步 取模運算
}複製程式碼
對於任意給定的物件,只要它的hashCode()返回值相同,那麼程式呼叫方法一所計算得到的Hash碼值總是相同的。我們首先想到的就是把hash值對陣列長度取模運算,這樣一來,元素的分佈相對來說是比較均勻的。但是,模運算的消耗還是比較大的,在HashMap中是這樣做的:呼叫方法二來計算該物件應該儲存在table陣列的哪個索引處。
這個方法非常巧妙,它通過h & (table.length -1)
來得到該物件的儲存位,而HashMap底層陣列的長度總是2的n次方,這是HashMap在速度上的優化。當length總是2的n次方時,h& (length-1)
運算等價於對length取模,也就是h%length
,但是&比%具有更高的效率。
x : 00010000
x-1 : 00001111
複製程式碼
y : 10110010
x-1 : 00001111
y&(x-1) : 00000010複製程式碼
y : 10110010
x : 00010000
y%x : 00000010複製程式碼
2.2. 分析HashMap的put方法
public V put(K key, V value) {
// 對key的hashCode()做hash
return putVal(hash(key), key, value, false, true);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 步驟1:tab為空則建立
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 步驟2:計算index,並對null做處理
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
// 步驟3:節點key存在,直接覆蓋value
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// 步驟4:判斷該鏈為紅黑樹
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
// 步驟5:該鏈為連結串列
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key,value,null);
//連結串列長度大於8轉換為紅黑樹進行處理
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
// key已經存在直接覆蓋value
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// 步驟6:超過最大容量 就擴容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}複製程式碼
private V putForNullKey(V value) {
for (Entry<K,V> e = table[0]; e != null; e = e.next) {
if (e.key == null) {
V oldValue = e.value;
e.value = value;
e.recordAccess(this);
return oldValue;
}
}
modCount++;
addEntry(0, null, value, 0);
return null;
}複製程式碼
void addEntry(int hash, K key, V value, int bucketIndex) {
if ((size >= threshold) && (null != table[bucketIndex])) {
resize(2 * table.length);
hash = (null != key) ? hash(key) : 0;
bucketIndex = indexFor(hash, table.length);
}
createEntry(hash, key, value, bucketIndex);
}
void createEntry(int hash, K key, V value, int bucketIndex) {
Entry<K,V> e = table[bucketIndex];
// 頭插法,連結串列頭部指向新的鍵值對
table[bucketIndex] = new Entry<>(hash, key, value, e);
size++;
}
Entry(int h, K k, V v, Entry<K,V> n) {
value = v;
next = n;
key = k;
hash = h;
}
複製程式碼
2.3. 擴容-基本原理
和擴容相關的引數主要有:capacity、size、threshold 和 load_factor。
引數 | 含義 |
capacity | table 的容量大小,預設為 16。需要注意的是 capacity 必須保證為 2 的 n 次方。 |
size | table 的實際使用量。 |
threshold | size 的臨界值,size 必須小於 threshold,如果大於等於,就必須進行擴容操作。 |
loadFactor | 裝載因子,table 能夠使用的比例,threshold = capacity * loadFactor。 |
static final int DEFAULT_INITIAL_CAPACITY = 16;
static final int MAXIMUM_CAPACITY = 1 << 30;
static final float DEFAULT_LOAD_FACTOR = 0.75f;
transient Entry[] table;
transient int size;
int threshold;
final float loadFactor;
transient int modCount;複製程式碼
void addEntry(int hash, K key, V value, int bucketIndex) {
Entry<K,V> e = table[bucketIndex];
table[bucketIndex] = new Entry<>(hash, key, value, e);
if (size++ >= threshold)
resize(2 * table.length);
}複製程式碼
我們分析下resize的原始碼,這裡使用的是JDK1.7的程式碼,好理解一些,本質上區別不大。
void resize(int newCapacity) { //傳入新的容量
Entry[] oldTable = table; //引用擴容前的Entry陣列
int oldCapacity = oldTable.length;
if (oldCapacity == MAXIMUM_CAPACITY) { //擴容前的陣列大小如果已經達到最大(2^30)了
threshold = Integer.MAX_VALUE; //修改閾值為int的最大值(2^31-1),這樣以後就不會擴容了
return;
}
Entry[] newTable = new Entry[newCapacity]; //初始化一個新的Entry陣列
transfer(newTable); //將資料轉移到新的Entry陣列裡
table = newTable; //HashMap的table屬性引用新的Entry陣列
threshold = (int)(newCapacity * loadFactor);//修改閾值
}
複製程式碼
void transfer(Entry[] newTable) {
Entry[] src = table; //src引用了舊的Entry陣列
int newCapacity = newTable.length;
for (int j = 0; j < src.length; j++) { //遍歷舊的Entry陣列
Entry e = src[j]; //取得舊Entry陣列的每個元素
if (e != null) {
//釋放舊Entry陣列的物件引用(for迴圈後,舊的Entry陣列不再引用任何物件)
src[j] = null;
do {
Entry next = e.next;
//!!重新計算每個元素在陣列中的位置
int i = indexFor(e.hash, newCapacity);
e.next = newTable[i]; //標記[1]
newTable[i] = e; //將元素放在陣列上
e = next; //訪問下一個Entry鏈上的元素
} while (e != null);
}
}
} 複製程式碼
其實上面的陣列擴容、重新計算下標值並將舊資料插入到新陣列的過程並不難,有意思的一點是JDK1.8在這裡對擴容後的元素移動操作做了優化,具體過程如下。
經過觀測可以發現,我們使用的是2次冪的擴充套件(指長度擴為原來2倍),所以,元素的位置要麼是在原位置,要麼是在原位置再移動2次冪的位置。
看下圖可以明白這句話的意思,n為table的長度,圖(a)表示擴容前的key1和key2兩種key確定索引位置的示例,圖(b)表示擴容後key1和key2兩種key確定索引位置的示例,其中hash1是key1對應的雜湊與高位運算結果。
具體細節大家不妨可以去看看JDK1.8的原始碼中resize是怎麼寫的,這個思路的確十分巧妙。
3. 為什麼HashMap執行緒不安全?
public class HashMapInfiniteLoop {
private static HashMap map = new HashMap(2,0.75f);
public static void main(String[] args) {
map.put(5, "C");
new Thread("Thread1") {
public void run() {
map.put(7, "B");
System.out.println(map);
};
}.start();
new Thread("Thread2") {
public void run() {
map.put(3, "A);
System.out.println(map);
};
}.start();
}
} 複製程式碼
執行緒一被排程回來執行,先是執行 newTalbe[i] = e, 然後是e = next,導致了e指向了key(7),而下一次迴圈的next = e.next導致了next指向了key(3)。
4. 與 HashTable 的比較
- hashmap不是執行緒安全的、hashtable是安全的
- HashMap允許將 null 作為一個 entry 的 key 或者 value,而 Hashtable 不允許。
- HashMap 把 Hashtable 的 contains 方法去掉了,改成 containsValue 和 containsKey。因為 contains 方法容易讓人引起誤解。
- HashTable 繼承自 Dictionary 類,而 HashMap 是 Java1.2 引進的 Map interface 的一個實現。
- HashTable 的方法是 Synchronized 的,而 HashMap 不是,在多個執行緒訪問 Hashtable 時,不需要自己為它的方法實現同步,而 HashMap 就必須為之提供外同步,或者改為使用ConcurrentHashMap。
- Hashtable 和 HashMap 採用的 hash/rehash 演算法都大概一樣,所以效能不會有很大的差異。
- HashMap 不能保證隨著時間的推移 Map 中的元素次序是不變的。
- HashMap 的迭代器是 fail-fast 迭代器。
5. 總結
- 擴容是一個特別耗效能的操作,所以當程式設計師在使用HashMap的時候,估算map的大小,初始化的時候給一個大致的數值,避免map進行頻繁的擴容。
- 負載因子是可以修改的,也可以大於1,但是建議不要輕易修改。
- HashMap是執行緒不安全的,不要在併發的環境中同時操作HashMap,建議使用ConcurrentHashMap。
- JDK1.8引入紅黑樹很大程度優化了HashMap的效能。
閱讀原始碼是一件十分耗費精力的事情,但從中你可以領悟到JDK作者的巧妙思路,在原始碼層面去理解為什麼HashMap是執行緒不安全的,HashMap的擴容機制等等,而不是僅僅停留在會用HashMap這個容器的表面理解上。
參考自:tech.meituan.com/2016/06/24/…