Java和Android的LRU快取及實現原理
一、概述
Android提供了LRUCache類,可以方便的使用它來實現LRU演算法的快取。Java提供了LinkedHashMap,可以用該類很方便的實現LRU演算法,Java的LRULinkedHashMap就是直接繼承了LinkedHashMap,進行了極少的改動後就可以實現LRU演算法。
二、Java的LRU演算法
Java的LRU演算法的基礎是LinkedHashMap,LinkedHashMap繼承了HashMap,並且在HashMap的基礎上進行了一定的改動,以實現LRU演算法。
1、HashMap
首先需要說明的是,HashMap將每一個節點資訊儲存在Entry<K,V>結構中。Entry<K,V>中儲存了節點對應的key、value、hash資訊,同時儲存了當前節點的下一個節點的引用。因此Entry<K,V>是一個單向連結串列。HashMap的儲存結構是一個陣列加單向連結串列的形式。每一個key對應的hashCode,在HashMap的陣列中都可以找到一個位置;而如果多個key對應了相同的hashCode,那麼他們在陣列中對應在相同的位置上,這時,HashMap將把對應的資訊放到Entry<K,V>中,並使用連結串列連線這些Entry<K,V>。
static class Entry<K,V> implements Map.Entry<K,V> { final K key; V value; Entry<K,V> next; int hash; /** * Creates new entry. */ Entry(int h, K k, V v, Entry<K,V> n) { value = v; next = n; key = k; hash = h; } public final K getKey() { return key; } public final V getValue() { return value; } public final V setValue(V newValue) { V oldValue = value; value = newValue; return oldValue; } public final boolean equals(Object o) { if (!(o instanceof Map.Entry)) return false; Map.Entry e = (Map.Entry)o; Object k1 = getKey(); Object k2 = e.getKey(); if (k1 == k2 || (k1 != null && k1.equals(k2))) { Object v1 = getValue(); Object v2 = e.getValue(); if (v1 == v2 || (v1 != null && v1.equals(v2))) return true; } return false; } public final int hashCode() { return Objects.hashCode(getKey()) ^ Objects.hashCode(getValue()); } public final String toString() { return getKey() + "=" + getValue(); } /** * This method is invoked whenever the value in an entry is * overwritten by an invocation of put(k,v) for a key k that's already * in the HashMap. */ void recordAccess(HashMap<K,V> m) { } /** * This method is invoked whenever the entry is * removed from the table. */ void recordRemoval(HashMap<K,V> m) { } }
下面貼一下HashMap的put方法的程式碼,並進行分析
public V put(K key, V value) { if (table == EMPTY_TABLE) { inflateTable(threshold); } if (key == null) return putForNullKey(value); //以上資訊不關心,下面是正常的插入邏輯。 //首先計算hashCode int hash = hash(key); //通過計算得到的hashCode,計算出hashCode在陣列中的位置 int i = indexFor(hash, table.length); //for迴圈,找到在HashMap中是否存在一個節點,對應的key與傳入的key完全一致。如果存在,說明使用者想要替換該key對應的value值,因此直接替換value即可返回。 for (Entry<K,V> e = table[i]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { V oldValue = e.value; e.value = value; e.recordAccess(this); return oldValue; } } //邏輯執行到此處,說明HashMap中不存在完全一致的kye.呼叫addEntry,新建一個節點儲存key、value資訊,並增加到HashMap中 modCount++; addEntry(hash, key, value, i); return null; }
在上面的程式碼中增加了一些註釋,可以對整體有一個瞭解。下面具體對一些值得分析的點進行說明。
<1> int i = indexFor(hash, table.length);
可以看一下原始碼:
static int indexFor(int h, int length) { // assert Integer.bitCount(length) == 1 : "length must be a non-zero power of 2"; return h & (length-1); }
為什麼獲得的hashCode(h)要和(length-1)進行按位與運算?這是為了保證去除掉h的高位資訊。如果陣列大小為8(1000),而計算出的h的值為10(1010),如果直接獲取陣列的index為10的資料,肯定會丟擲陣列超出界限異常。所以使用按位與(0111&1010),成功清除掉高位資訊,得到2(0010),表示對應陣列中index為2的資料。效果與取餘相同,但是位運算的效率明顯更高。
但是這樣有一個問題,如果length為9,獲取得length-1資訊為8(1000),這樣進行位運算,不但不能清除高位資料,得到的結果肯定不對。所以陣列的大小一定有什麼特別的地方。通過檢視原始碼,可以發現,HashMap無時無刻不在保證對應的陣列個數為2的n次方。
首先在put的時候,呼叫inflateTable方法。重點在於roundUpToPowerOf2方法,雖然它的內容包含大量的位相關的運算和處理,沒有看的很明白,但是註釋已經明確了,會保證陣列的個數為2的n次方。
private void inflateTable(int toSize) { // Find a power of 2 >= toSize int capacity = roundUpToPowerOf2(toSize); threshold = (int) Math.min(capacity * loadFactor, MAXIMUM_CAPACITY + 1); table = new Entry[capacity]; initHashSeedAsNeeded(capacity); }
其次,在addEntry等其他位置,也會使用(2 * table.length)、table.length << 1等方式,保證陣列的個數為2的n次方。
<2> for (Entry<K,V> e = table[i]; e != null; e = e.next)
因為HashMap使用的是陣列加連結串列的形式,所以通過hashCode獲取到在陣列中的位置後,得到的不是一個Entry<K,V>,而是一個Entry<K,V>的連結串列,一定要迴圈連結串列,獲取key對應的value。
<3> addEntry(hash, key, value, i);
先判斷陣列個數是否超出閾值,如果超過,需要增加陣列個數。然後會新建一個Entry,並加到陣列中。
/** * Adds a new entry with the specified key, value and hash code to * the specified bucket. It is the responsibility of this * method to resize the table if appropriate. * * Subclass overrides this to alter the behavior of put method. */ void addEntry(int hash, K key, V value, int bucketIndex) { if ((size >= threshold) && (null != table[bucketIndex])) { resize(2 * table.length); hash = (null != key) ? hash(key) : 0; bucketIndex = indexFor(hash, table.length); } createEntry(hash, key, value, bucketIndex); } /** * Like addEntry except that this version is used when creating entries * as part of Map construction or "pseudo-construction" (cloning, * deserialization). This version needn't worry about resizing the table. * * Subclass overrides this to alter the behavior of HashMap(Map), * clone, and readObject. */ void createEntry(int hash, K key, V value, int bucketIndex) { Entry<K,V> e = table[bucketIndex]; table[bucketIndex] = new Entry<>(hash, key, value, e); size++; }
2、LinkedHashMap
LinkedHashMap在HashMap的基礎上,進行了修改。首先將Entry由單向連結串列改成雙向連結串列。增加了before和after兩個隊Entry的引用。
private static class Entry<K,V> extends HashMap.Entry<K,V> { // These fields comprise the doubly linked list used for iteration. Entry<K,V> before, after; Entry(int hash, K key, V value, HashMap.Entry<K,V> next) { super(hash, key, value, next); } /** * Removes this entry from the linked list. */ private void remove() { before.after = after; after.before = before; } /** * Inserts this entry before the specified existing entry in the list. */ private void addBefore(Entry<K,V> existingEntry) { after = existingEntry; before = existingEntry.before; before.after = this; after.before = this; } /** * This method is invoked by the superclass whenever the value * of a pre-existing entry is read by Map.get or modified by Map.set. * If the enclosing Map is access-ordered, it moves the entry * to the end of the list; otherwise, it does nothing. */ void recordAccess(HashMap<K,V> m) { LinkedHashMap<K,V> lm = (LinkedHashMap<K,V>)m; if (lm.accessOrder) { lm.modCount++; remove(); addBefore(lm.header); } } void recordRemoval(HashMap<K,V> m) { remove(); } }
同時,LinkedHashMap提供了一個對Entry的引用header(private transient Entry<K,V> header)。header的作用就是永遠只是HashMap中所有成員的頭(header.after)和尾(header.before)。這樣把HashMap本身的陣列加連結串列的格式進行了修改。在LinkedHashMap中,即保留了HashMap的陣列加連結串列的資料儲存格式,同時增加了一套header作為開始標記的雙向連結串列(我們暫且稱之為header的雙向連結串列)。LinkedHashMap就是通過header的雙向連結串列來實現LRU演算法的。header.after永遠指向最近最不常使用的那個節點,刪除的話,就是刪除這個header.after對應的節點。相對的,header.before指向的就是剛剛使用過的那個節點。
LinkedHashMap並沒有提供put方法,但是LinkedHashMap重寫了addEntry和createEntry方法,如下:
/** * This override alters behavior of superclass put method. It causes newly * allocated entry to get inserted at the end of the linked list and * removes the eldest entry if appropriate. */ void addEntry(int hash, K key, V value, int bucketIndex) { super.addEntry(hash, key, value, bucketIndex); // Remove eldest entry if instructed Entry<K,V> eldest = header.after; if (removeEldestEntry(eldest)) { removeEntryForKey(eldest.key); } } /** * This override differs from addEntry in that it doesn't resize the * table or remove the eldest entry. */ void createEntry(int hash, K key, V value, int bucketIndex) { HashMap.Entry<K,V> old = table[bucketIndex]; Entry<K,V> e = new Entry<>(hash, key, value, old); table[bucketIndex] = e; e.addBefore(header); size++; }
HashMap的put方法,呼叫了addEntry方法;HashMap的addEntry方法又呼叫了createEntry方法。因此可以把上面的兩個方法和HashMap中的內容放到一起,方便分析,形成如下方法:
void addEntry(int hash, K key, V value, int bucketIndex) { if ((size >= threshold) && (null != table[bucketIndex])) { resize(2 * table.length); hash = (null != key) ? hash(key) : 0; bucketIndex = indexFor(hash, table.length); } HashMap.Entry<K,V> old = table[bucketIndex]; Entry<K,V> e = new Entry<>(hash, key, value, old); table[bucketIndex] = e; e.addBefore(header); size++; // Remove eldest entry if instructed Entry<K,V> eldest = header.after; if (removeEldestEntry(eldest)) { removeEntryForKey(eldest.key); } }
同樣,先判斷是否超出閾值,超出則增加陣列的個數。然後建立Entry物件,並加入到HashMap對應的陣列和連結串列中。與HashMap不同的是LinkedHashMap增加了e.addBefore(header);和removeEntryForKey(eldest.key);這樣兩個操作。
首先分析一下e.addBefore(header)。其中e是LinkedHashMap.Entry物件,addBefore程式碼如下,作用就是講header與當前物件相關聯,使當前物件增加到header的雙向連結串列的尾部(header.before):
private void addBefore(Entry<K,V> existingEntry) { after = existingEntry; before = existingEntry.before; before.after = this; after.before = this; }
其次是另一個重點,程式碼如下:
// Remove eldest entry if instructed Entry<K,V> eldest = header.after; if (removeEldestEntry(eldest)) { removeEntryForKey(eldest.key); }
其中,removeEldestEntry判斷是否需要刪除最近最不常使用的那個節點。LinkedHashMap中的removeEldestEntry(eldest)方法永遠返回false,如果我們要實現LRU演算法,就需要重寫這個方法,判斷在什麼情況下,刪除最近最不常使用的節點。removeEntryForKey的作用就是將key對應的節點在HashMap的陣列加連結串列結構中刪除,原始碼如下:
final Entry<K,V> removeEntryForKey(Object key) { if (size == 0) { return null; } int hash = (key == null) ? 0 : hash(key); int i = indexFor(hash, table.length); Entry<K,V> prev = table[i]; Entry<K,V> e = prev; while (e != null) { Entry<K,V> next = e.next; Object k; if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) { modCount++; size--; if (prev == e) table[i] = next; else prev.next = next; e.recordRemoval(this); return e; } prev = e; e = next; } return e; }
removeEntryForKey是HashMap的方法,對LinkedHashMap中header的雙向連結串列無能為力,而LinkedHashMap又沒有重寫這個方法,那header的雙向連結串列要如何處理呢。
仔細看一下程式碼,可以看到在成功刪除了HashMap中的節點後,呼叫了e.recordRemoval(this);方法。這個方法在HashMap中為空,LinkedHashMap的Entry則實現了這個方法。其中remove()方法中的兩行程式碼為雙向連結串列中刪除當前節點的標準程式碼,不解釋。
/** * Removes this entry from the linked list. */ private void remove() { before.after = after; after.before = before; }void recordRemoval(HashMap<K,V> m) { remove(); }
以上,LinkedHashMap增加節點的程式碼分析完畢,可以看到完美的將新增的節點放在了header雙向連結串列的末尾。
但是,這樣顯然是先進先出的演算法,而不是最近最不常使用演算法。需要在get的時候,更新header雙向連結串列,把剛剛get的節點放到header雙向連結串列的末尾。我們來看看get的原始碼:
public V get(Object key) { Entry<K,V> e = (Entry<K,V>)getEntry(key); if (e == null) return null; e.recordAccess(this); return e.value; }
程式碼很短,第一行的getEntry呼叫的是HashMap的getEntry方法,不需要解釋。真正處理header雙向連結串列的程式碼是e.recordAccess(this)。看一下程式碼:
/** * Removes this entry from the linked list. */ private void remove() { before.after = after; after.before = before; } /** * Inserts this entry before the specified existing entry in the list. */ private void addBefore(Entry<K,V> existingEntry) { after = existingEntry; before = existingEntry.before; before.after = this; after.before = this; } /** * This method is invoked by the superclass whenever the value * of a pre-existing entry is read by Map.get or modified by Map.set. * If the enclosing Map is access-ordered, it moves the entry * to the end of the list; otherwise, it does nothing. */ void recordAccess(HashMap<K,V> m) { LinkedHashMap<K,V> lm = (LinkedHashMap<K,V>)m; if (lm.accessOrder) { lm.modCount++; remove(); addBefore(lm.header); } }
首先在header雙向連結串列中刪除當前節點,再將當前節點新增到header雙向連結串列的末尾。當然,在呼叫LinkedHashMap的時候,需要將accessOrder設定為true,否則就是FIFO演算法。
三、Android的LRU演算法
Android同樣提供了HashMap和LinkedHashMap,而且總體思路有些類似,但是實現的細節明顯不同。而且Android提供的LruCache雖然使用了LinkedHashMap,但是實現的思路並不一樣。Java需要重寫removeEldestEntry來判斷是否刪除節點;而Android需要重寫LruCache的sizeOf,返回當前節點的大小,Android會根據這個大小判斷是否超出了限制,進行呼叫trimToSize方法清除多餘的節點。
Android的sizeOf方法預設返回1,預設的方式是判斷HashMap中的資料個數是否超出了設定的閾值。也可以重寫sizeOf方法,返回當前節點的大小。Android的safeSizeOf會呼叫sizeOf方法,其他判斷閾值的方法會呼叫safeSizeOf方法,進行加減操作並判斷閾值。進而判斷是否需要清除節點。
Java的removeEldestEntry方法,也可以達到同樣的效果。Java需要使用者自己提供整個判斷的過程,兩者思路還是有些區別的。
sizeOf,safeSizeOf不需要說明,而put和get方法,雖然和Java的實現方式不完全一樣,但是思路是相同的,也不需要分析。在LruCache中put方法的最後,會呼叫trimToSize方法,這個方法用於清除超出的節點。它的程式碼如下:
public void trimToSize(int maxSize) { while (true) { Object key; Object value; synchronized (this) { if ((this.size < 0) || ((this.map.isEmpty()) && (this.size != 0))) { throw new IllegalStateException(getClass().getName() + ".sizeOf() is reporting inconsistent results!"); } if (size <= maxSize) { break; } Map.Entry toEvict = (Map.Entry)this.map.entrySet().iterator().next(); key = toEvict.getKey(); value = toEvict.getValue(); this.map.remove(key); this.size -= safeSizeOf(key, value); this.evictionCount += 1; } entryRemoved(true, key, value, null); } }
重點需要說明的是Map.Entry toEvict = (Map.Entry)this.map.entrySet().iterator().next();這行程式碼。它前面的程式碼判斷是否需要刪除最近最不常使用的節點,後面的程式碼用於刪除具體的節點。這行程式碼用於獲取最近最不常使用的節點。
首先需要說明的問題是,Android的LinkedHashMap和Java的LinkedHashMap在思路上一樣,也是使用header儲存雙向連結串列。在put和get的時候,會更新對應的節點,儲存header.after指向最久沒有使用的節點;header.before用於指向剛剛使用過的節點。所以Map.Entry toEvict = (Map.Entry)this.map.entrySet().iterator().next();這行最終肯定是獲取header.after節點。下面逐步分析程式碼,就可以看到是如何實現的了。
首先,map.entrySet(),HashMap定義了這個方法,LinkedHashMap沒有重寫這個方法。因此呼叫的是HashMap對應的方法:
public Set<Entry<K, V>> entrySet() { Set<Entry<K, V>> es = entrySet; return (es != null) ? es : (entrySet = new EntrySet()); }
上面程式碼不需要細說,new一個EntrySet類的例項。而EntrySet也是在HashMap中定義,LinkedHashMap中沒有。
private final class EntrySet extends AbstractSet<Entry<K, V>> { public Iterator<Entry<K, V>> iterator() { return newEntryIterator(); } public boolean contains(Object o) { if (!(o instanceof Entry)) return false; Entry<?, ?> e = (Entry<?, ?>) o; return containsMapping(e.getKey(), e.getValue()); } public boolean remove(Object o) { if (!(o instanceof Entry)) return false; Entry<?, ?> e = (Entry<?, ?>)o; return removeMapping(e.getKey(), e.getValue()); } public int size() { return size; } public boolean isEmpty() { return size == 0; } public void clear() { HashMap.this.clear(); } } Iterator<Entry<K, V>> newEntryIterator() { return new EntryIterator(); }
程式碼中很明顯的可以看出,Map.Entry toEvict = (Map.Entry)this.map.entrySet().iterator().next(),就是要呼叫newEntryIterator().next(),就是呼叫(new EntryIterator()).next()。而EntryIterator類在LinkedHashMap中是有定義的。
private final class EntryIterator extends LinkedHashIterator<Map.Entry<K, V>> { public final Map.Entry<K, V> next() { return nextEntry(); } } private abstract class LinkedHashIterator<T> implements Iterator<T> { LinkedEntry<K, V> next = header.nxt; LinkedEntry<K, V> lastReturned = null; int expectedModCount = modCount; public final boolean hasNext() { return next != header; } final LinkedEntry<K, V> nextEntry() { if (modCount != expectedModCount) throw new ConcurrentModificationException(); LinkedEntry<K, V> e = next; if (e == header) throw new NoSuchElementException(); next = e.nxt; return lastReturned = e; } public final void remove() { if (modCount != expectedModCount) throw new ConcurrentModificationException(); if (lastReturned == null) throw new IllegalStateException(); LinkedHashMap.this.remove(lastReturned.key); lastReturned = null; expectedModCount = modCount; } }
現在可以得到結論,trimToSize中的那行程式碼得到的就是header.next對應的節點,也就是最近最不常使用的那個節點。
相關文章
- LRU快取實現(Java)快取Java
- 快取 LRU 和 LFU 實現快取
- LRU快取替換策略及C#實現快取C#
- Java 自定義實現 LRU 快取演算法Java快取演算法
- android 快取管理及LRU演算法Android快取演算法
- Android快取機制-LRU cache原理與用法Android快取
- LRU cache快取簡單實現快取
- LRU cache原理及go實現Go
- 昨天面試被問到的 快取淘汰演算法FIFO、LRU、LFU及Java實現面試快取演算法Java
- 10行Java程式碼實現最近被使用(LRU)快取Java快取
- 常見快取演算法和LRU的c++實現快取演算法C++
- JS 實現快取演算法(FIFO/LRU)JS快取演算法
- LRU快取快取
- LRU Cache的原理和python的實現Python
- LRU 快取淘汰演算法的兩種實現快取演算法
- LRU原理與實現
- NodeJS中的LRU快取(CLOCK-2-hand)實現NodeJS快取
- LRU快取-實現雜湊連結串列結合快取
- LRU快取機制快取
- Leetcode LRU快取,陣列+結構體實現LeetCode快取陣列結構體
- 演算法題:設計和實現一個 LRU Cache 快取機制演算法快取
- Retrofit和OkHttp實現 Android網路快取HTTPAndroid快取
- Memcached 分散式快取實現原理分散式快取
- 手把手使用 PHP 實現 LRU 快取淘汰演算法PHP快取演算法
- 146. LRU 快取快取
- 高效能快取 Caffeine 原理及實戰快取
- Android 清除快取功能實現Android快取
- Zepto中資料快取原理與實現快取
- java中的鎖及實現原理Java
- 看動畫理解「連結串列」實現LRU快取淘汰演算法動畫快取演算法
- 常見面試題之作業系統中的LRU快取機制實現面試題作業系統快取
- Nginx快取原理及機制Nginx快取
- HTTP快取機制及原理HTTP快取
- Redis 快取穿透、快取雪崩原理及解決方案Redis快取穿透
- Java 日誌快取機制的實現Java快取
- Java ArrayDeque工作原理及實現Java
- Java HashMap工作原理及實現JavaHashMap
- LSM-Tree - LevelDb之LRU快取快取