LRU cache原理及go實現

g4zhuj發表於2018-04-25

1. LRU簡介

1.1 概述

快取資源通常比較昂貴,通常資料量較大時,會竟可能從較少的快取滿足儘可能多訪問,這裡有一種假設,通常最近被訪問的資料,那麼它就有可能會被後續繼續訪問,基於這種假設,將所有的資料按訪問時間進行排序,並按驅逐出舊資料,那麼存在快取的資料就為熱點資料,這樣既節省了記憶體資源,又極大的滿足了訪問.LRU(Least recently used)演算法就是基於這種假設的一直快取置換演算法.

1.2 演算法流程

圖片描述

假設快取大小為4,而寫入順序為A B C D E D F.訪問順序分為寫入以及讀取兩種操作,寫入需要更新訪問時間,並且當資料到達最大快取時需要逐出資料,而讀取只會更新訪問時間,寫入置換演算法流程如上圖所示.

當未到達快取大小時,所有資料按寫入儲存,並記錄寫入次序.
寫入E時快取已經滿,且E的值不存在,需要逐出最久未訪問的資料A,此時快取內容為E D C B.
下一個寫入D, D在快取中,直接更新D的訪問次序,此時快取內容為 D E C B
下一個寫入F, F不在快取中,逐出快取中的末尾C,此時快取內容為 F D E C

2 go實現

2.1思路

採用go,可以使用list加map實現LRU cache,具體思路為:
寫入時,先從map中查詢,如果能查詢,如果能查詢到值,則將該值的在List中移動到最前面.如果查詢不到值,則判斷當前map是否到達最大值,如果到達最大值則移除List最後面的值,同時刪除map中的值,如果map容量未達最大值,則寫入map,同時將值放在List最前面.

讀取時,從map中查詢,如果能查詢到值,則直接將List中該值移動到最前面,返回查詢結果.

為保證併發安全,需要引入讀寫鎖.
另外,存在讀取List中內容反差map的情況,因為宣告一個容器物件同時儲存key以及value, List中以及map中儲存的都是容器物件的引用.
引入原子物件對命中數以及未命中數等指標進行統計

2.2 關鍵程式碼

完整程式碼見:cache

  • Set(寫入操作)
func (c *MemCache) Set(key string, value interface{}) {
	c.mutex.Lock()
	defer c.mutex.Unlock()
	if c.cache == nil {
		c.cache = make(map[interface{}]*list.Element)
		c.cacheList = list.New()
	}

    //判斷是否在map中,如果在map中,則將value從list中移動到前面.
	if ele, ok := c.cache[key]; ok {
		c.cacheList.MoveToFront(ele)
		ele.Value.(*entry).value = value
		return
	}

    //如果不再map中,將值存到List最前面
	ele := c.cacheList.PushFront(&entry{key: key, value: value})
	c.cache[key] = ele
    //判斷是否到達容量限制,到達容量限制時刪除List中最後面的值.
	if c.maxItemSize != 0 && c.cacheList.Len() > c.maxItemSize {
		c.RemoveOldest()
	}
}

複製程式碼
  • Get(讀取操作)
func (c *MemCache) Get(key string) (interface{}, bool) {
	c.mutex.RLock()
	defer c.mutex.RUnlock()
	c.gets.Add(1)
    //如果讀取到值,移動在List中位置,並返回value
	if ele, hit := c.cache[key]; hit {
		c.hits.Add(1)
		c.cacheList.MoveToFront(ele)
		return ele.Value.(*entry).value, true
	}
	return nil, false
}
複製程式碼

3. 參考

wiki_LRU

相關文章