Java8 HashMap實現原理探究
前言:Java8之後新增挺多新東西,在網上找了些相關資料,關於HashMap在自己被血虐之後痛定思痛決定整理一下相關知識方便自己看。圖和有些內容參考的這個文章:http://www.importnew.com/16599.html
HashMap的儲存結構如圖:一個桶(bucket)上的節點多於8個則儲存結構是紅黑樹,小於8個是單向連結串列。
1:HashMap的一些屬性
public class HashMap<k,v> extends AbstractMap<k,v> implements Map<k,v>, Cloneable, Serializable { private static final long serialVersionUID = 362498820763181265L; // 預設的初始容量是16 static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // 最大容量 static final int MAXIMUM_CAPACITY = 1 << 30; // 預設的填充因子(以前的版本也有叫載入因子的) static final float DEFAULT_LOAD_FACTOR = 0.75f; // 這是一個閾值,當桶(bucket)上的連結串列數大於這個值時會轉成紅黑樹,put方法的程式碼裡有用到 static final int TREEIFY_THRESHOLD = 8; // 也是閾值同上一個相反,當桶(bucket)上的連結串列數小於這個值時樹轉連結串列 static final int UNTREEIFY_THRESHOLD = 6; // 看原始碼註釋裡說是:樹的最小的容量,至少是 4 x TREEIFY_THRESHOLD = 32 然後為了避免(resizing 和 treeification thresholds) 設定成64 static final int MIN_TREEIFY_CAPACITY = 64; // 儲存元素的陣列,總是2的倍數 transient Node<k,v>[] table; transient Set<map.entry<k,v>> entrySet; // 存放元素的個數,注意這個不等於陣列的長度。 transient int size; // 每次擴容和更改map結構的計數器 transient int modCount; // 臨界值 當實際大小(容量*填充因子)超過臨界值時,會進行擴容 int threshold; // 填充因子 final float loadFactor;
2:HashMap的構造方法
// 指定初始容量和填充因子的構造方法 public HashMap(int initialCapacity, float loadFactor) { // 指定的初始容量非負 if (initialCapacity < 0) throw new IllegalArgumentException(Illegal initial capacity: + initialCapacity); // 如果指定的初始容量大於最大容量,置為最大容量 if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; // 填充比為正 if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException(Illegal load factor: + loadFactor); this.loadFactor = loadFactor; // 指定容量後,tableSizeFor方法計算出臨界值,put資料的時候如果超出該值就會擴容,該值肯定也是2的倍數 // 指定的初始容量沒有儲存下來,只用來生成了一個臨界值 this.threshold = tableSizeFor(initialCapacity); } // 該方法保證總是返回大於cap並且是2的倍數的值,比如傳入999 返回1024 static final int tableSizeFor(int cap) { int n = cap - 1; // 向右做無符號位移 n |= n >>> 1; n |= n >>> 2; n |= n >>> 4; n |= n >>> 8; n |= n >>> 16; // 三目運算子的巢狀 return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; } //建構函式2 public HashMap(int initialCapacity) { this(initialCapacity, DEFAULT_LOAD_FACTOR); } //建構函式3 public HashMap() { this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted }
3:get和put的時候確定元素在陣列中的位置
static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); }
要確定位置
第一步:首先是要計算key的hash碼,是一個int型別數字。那後面的 h >>> 16 原始碼註釋的說法是:為了避免hash碰撞(hash collisons)將高位分散到低位上了,這是綜合考慮了速度,效能等各方面因素之後做出的。
第二步: h是hash碼,length是上面Node[]陣列的長度,做與運算 h & (length-1)。由於length是2的倍數-1後它的二進位制碼都是1而1與上其他數的結果可能是0也可能是1,這樣保證運算後的均勻性。也就是hash方法保證了結果的均勻性,這點非常重要,會極大的影響HashMap的put和get效能。看下圖對比:
圖3.1是非對稱的hash結果
圖3.2是均衡的hash結果
這兩個圖的資料不是很多,如果連結串列長度超過8個會轉成紅黑樹。那個時候看著會更明顯,jdk8之前一直是連結串列,連結串列查詢的複雜度是O(n)而紅黑樹由於其自身的特點,查詢的複雜度是O(log(n))。如果hash的結果不均勻會極大影響操作的複雜度。相關的知識這裡有一個<a href=”http://blog.chinaunix.net/uid-26575352-id-3061918.html”>紅黑樹基礎知識部落格 </a>網上還有個例子來驗證:自定義了一個物件來做key,調整hashCode()方法來看put值得時間
public class MutableKeyTest { public static void main(String args[]){ class MyKey { Integer i; public void setI(Integer i) { this.i = i; } public MyKey(Integer i) { this.i = i; } @Override public int hashCode() { // 如果返回1 // return 1 return i; } // object作為key存map裡,必須實現equals方法 @Override public boolean equals(Object obj) { if (obj instanceof MyKey) { return i.equals(((MyKey)obj).i); } else { return false; } } } // 我機器配置不高,25000的話正常情況27毫秒,可以用2500萬試試,如果hashCode()方法返回1的話,250萬就卡死 Map<MyKey,String> map = new HashMap<>(25000,1); Date begin = new Date(); for (int i = 0; i < 20000; i++){ map.put(new MyKey(i), "test " + i); } Date end = new Date(); System.out.println("時間(ms) " + (end.getTime() - begin.getTime()));
4:get方法
public V get(Object key) { Node<k,v> e; return (e = getNode(hash(key), key)) == null ? null : e.value; } final Node<k,v> getNode(int hash, Object key) { Node<k,v>[] tab; Node<k,v> first, e; int n; K k; // hash & (length-1)得到紅黑樹的樹根位置或者是連結串列的表頭 if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k)))) return first; if ((e = first.next) != null) { // 如果是樹,遍歷紅黑樹複雜度是O(log(n)),得到節點值 if (first instanceof TreeNode) return ((TreeNode<k,v>)first).getTreeNode(hash, key); // else是連結串列結構 do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null; }
5 :put方法,put的時候根據 h & (length – 1) 定位到那個桶然後看是紅黑樹還是連結串列再putVal
public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<k,v>[] tab; Node<k,v> p; int n, i; // 如果tab為空或長度為0,則分配記憶體resize() if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; // (n - 1) & hash找到put位置,如果為空,則直接put if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); else { Node<k,v> e; K k; // 第一節節點hash值同,且key值與插入key相同 if (p.hash == hash &&((k = p.key) == key || (key != null && key.equals(k)))) e = p; else if (p instanceof TreeNode) // 紅黑樹的put方法比較複雜,putVal之後還要遍歷整個樹,必要的時候修改值來保證紅黑樹的特點 e = ((TreeNode<k,v>)p).putTreeVal(this, tab, hash, key, value); else { // 連結串列 for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) { // e為空,表示已到表尾也沒有找到key值相同節點,則新建節點 p.next = newNode(hash, key, value, null); // 新增節點後如果節點個數到達閾值,則將連結串列轉換為紅黑樹 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } // 容許空key空value if (e.hash == hash &&((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } // 更新hash值和key值均相同的節點Value值 if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; if (++size > threshold) resize(); afterNodeInsertion(evict); return null; }
6:resize方法
final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0; if (oldCap > 0) { if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } // 這一句比較重要,可以看出每次擴容是2倍 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold } else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; if (oldTab != null) { for (int j = 0; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null) newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { // preserve order Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next; if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); if (loTail != null) { loTail.next = null; newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; }
相關文章
- HashMap底層實現原理HashMap
- Promise原理探究及實現Promise
- Java中HashMap的實現原理JavaHashMap
- HashMap的實現原理 HashMap底層實現,hashCode如何對應bucket?HashMap
- HashMap實現原理及原始碼分析HashMap原始碼
- HashMap 實現原理與原始碼分析HashMap原始碼
- HashMap底層實現原理/HashMap與HashTable區別/HashMap與HashSet區別HashMap
- 面試題總結:HashMap實現原理面試題HashMap
- HashMap排序--Java8HashMap排序Java
- 探究synchronized底層原理(基於JAVA8原始碼分析)synchronizedJava原始碼
- 從零實現DNN 探究梯度下降的原理DNN梯度
- UITableView的原理——探究及重新實現程式碼UIView
- MG--探究KVO的底層實現原理
- HashMap設計原理與實現(下篇)200行帶你寫自己的HashMap!!!HashMap
- 面試必問:HashMap 底層實現原理分析面試HashMap
- HashMap的實現原理(看這篇就夠了)HashMap
- 一文搞定HashMap的實現原理和麵試HashMap
- 來來來,探究一下CommonJs的實現原理JS
- CAS實現單點登入SSO執行原理探究
- HashMap原理HashMap
- 深入探究JVM之方法呼叫及Lambda表示式實現原理JVM
- 探究Spring原理Spring
- 簡單的 HashMap 實現HashMap
- HashMap原始碼實現分析HashMap原始碼
- HashMap擴容原理HashMap
- HashMap原理21問HashMap
- [java]HashMap原理剖析JavaHashMap
- 從原始碼的角度來談一談HashMap的內部實現原理原始碼HashMap
- 十分鐘快速掌握HashMap底層實現原理(圖文詳解)HashMap
- 帶你逐步實現簡易HashMap,助力理解Java HashMapHashMapJava
- CAS實現單點登入SSO執行原理探究(終於明白了)
- HashMap的底層原理HashMap
- JDK1.7-HashMap原理JDKHashMap
- HashMap原理底層剖析HashMap
- iOS - 對 block 實現的探究iOSBloC
- HashMap原理詳解,包括底層原理HashMap
- zookeeper使用和原理探究
- RunLoop底層原理探究OOP
- Squirrel狀態機-從原理探究到最佳實踐UI