Redis如何儲存和計算一億使用者的活躍度

菠菜東發表於2020-07-17

1

前段時間,在網上看到一道面試題:

如何用redis儲存統計1億使用者一年的登陸情況,並快速檢索任意時間視窗內的活躍使用者數量。

覺得很有意思,就仔細想了下 。並做了一系列實驗,自己模擬了下 。還是有點收穫的,現整理下來。和大家一起分享。

Redis是一個記憶體資料庫,採用單執行緒和事件驅動的機制來處理網路請求。實際生產的QPS和TPS單臺都能達到3,4W,讀寫效能非常棒。用來儲存一些對核心業務弱影響的使用者狀態資訊還是非常不錯的。

對於這題,有2個重要的點需要考慮:

1.如何用合適的資料型別來儲存1億使用者的資料,用普通的字串來儲存肯定不行。經過檢視一個最簡單的kv(key為aaa,value為1)的記憶體佔用,發現為48byte。

file

假設每個使用者每天登陸需要佔據1對KV的話,那一億就是(48*100000000)/1024/1024/1024=4.47G。這還是一天的量。

2.如何滿足搜尋,redis是一個鍵值對的記憶體結構,只能根據key來進行定位value值,無法做到像elastic search那樣對文件進行倒排索引快速全文檢索。

redis其實有這種資料結構的,可以以很少的空間來儲存大量的資訊。

2

在redis 2.2.0版本之後,新增了一個點陣圖資料,其實它不是一種資料結構。實際上它就是一個一個字串結構,只不過value是一個二進位制資料,每一位只能是0或者1。redis單獨對bitmap提供了一套命令。可以對任意一位進行設定和讀取。

bitmap的核心命令:

SETBIT

語法:SETBIT key offset value

例如:

setbit abc 5 1 ----> 00001

setbit abc 2 1 ----> 00101

GETBIT

語法:GETBIT key offset

例如:

getbit abc 5 ----> 1

getbit abc 1 ----> 0

bitmap的其他命令還有bitcount,bitcount,bitpos,bitop等命令。都是對位的操作。

因為bitmap的每一位只佔據1bit的空間 ,所以利用這個特性我們可以把每一天作為key,value為1億使用者的活躍度狀態。假設一個使用者一天內只要登入了一次就算活躍。活躍我們就記為1,不活躍我們就記為0。把使用者Id作為偏移量(offset)。這樣我們一個key就可以儲存1億使用者的活躍狀態。

file

我們再來算下,這樣一個點陣圖結構的值物件佔據多少空間。每一個位是1bit,一億使用者就是一億bit。8bit=1Byte

100000000/8/1024/1024=11.92M

我用測試工程往一個key裡通過lua塞進了1億個bit,然後用rdb tools對記憶體進行統計,實測如下:

file

一天1億使用者也就消耗12M的記憶體空間。這完全符合要求。1年的話也就4個G。幾年下來的話,redis可以叢集部署來進行擴容儲存。我們也可以用點陣圖壓縮演算法對bitmap進行壓縮儲存。例如WAH,EWAH,Roaring Bitmaps。這個以後可以單獨拉出來聊聊。

我們把每一天1億使用者的登陸狀態都用bitmap的形式存進了redis,那要獲取某一天id為88000的使用者是否活躍,直接使用getbit命令:

getbit 2020-01-01 88000 [時間複雜度為O(1)]

如果要統計某一天的所有的活躍使用者數,使用bitcount命令,bitcount可以統計1的個數,也就是活躍使用者數:

bitcount 2019-01-01 [時間複雜度為O(N)]

如果要統計某一段時間內的活躍使用者數,需要用到bitop命令。這個命令提供四種位運算,AND(與)(OR)或XOR(亦或)NOT(非)。我們可以對某一段時間內的所有key進行OR(或)操作,或操作出來的點陣圖是0的就代表這段時間內一次都沒有登陸的使用者。那隻要我們求出1的個數就可以了。以下例子求出了2019-01-01到2019-01-05這段時間內的活躍使用者數。

bitop or result 2019-01-01 2019-01-02 2019-01-03 2019-01-04 2019-01-05 [時間複雜度為O(N)]

bitcount result

從時間複雜度上說,無論是統計某一天,還是統計一段時間。在實際測試時,基本上都是秒出的。符合我們的預期。

3

bitmap可以很好的滿足一些需要記錄大量而簡單資訊的場景。所佔空間十分小。通常來說使用場景分2類:

1.某一業務物件的橫向擴充套件,key為某一個業務物件的id,比如記錄某一個終端的功能開關,1代表開,0代表關。基本可以無限擴充套件,可以記錄2^32個位資訊。不過這種用法由於key上帶有了業務物件的id,導致了key的儲存空間大於了value的儲存空間,從空間使用角度上來看有一定的優化空間。

2.某一業務的縱向擴充套件,key為某一個業務,把每一個業務物件的id作為偏移量記錄到位上。這道面試題的例子就是用此法來進行解決。十分巧妙的利用了使用者的id作為偏移量來找到相對應的值。當業務物件數量超過2^32時(約等於42億),還可以分片儲存。

看起來bitmap完美的解決了儲存和統計的問題。那有沒有比這個更加省空間的儲存嗎?

答案是有的。

4

redis從2.8.9之後增加了HyperLogLog資料結構。這個資料結構,根據redis的官網介紹,這是一個概率資料結構,用來估算資料的基數。能通過犧牲準確率來減少記憶體空間的消耗。

我們先來看看HyperLogLog的方法

PFADD 新增一個元素,如果重複,只算作一個

PFCOUNT 返回元素數量的近似值

PFMERGE 將多個 HyperLogLog 合併為一個 HyperLogLog

這很好理解,是不是。那我們就來看看同樣是儲存一億使用者的活躍度,HyperLogLog資料結構需要多少空間。是不是比bitmap更加省空間呢。

我通過測試工程往HyperLogLog裡PFADD了一億個元素。通過rdb tools工具統計了這個key的資訊:

file

只需要14392 Bytes!也就是14KB的空間。對,你沒看錯。就是14K。bitmap儲存一億需要12M,而HyperLogLog只需要14K的空間。

這是一個很驚人的結果。我似乎有點不敢相信使用如此小的空間竟能儲存如此大的資料量。

接下來我又放了1000w資料,統計出來還是14k。也就是說,無論你放多少資料進去,都是14K。

查了文件,發現HyperLogLog是一種概率性資料結構,在標準誤差0.81%的前提下,能夠統計2^64個資料。所以 HyperLogLog 適合在比如統計日活月活此類的對精度要不不高的場景。

HyperLogLog使用概率演算法來統計集合的近似基數。而它演算法的最本源則是伯努利過程。

伯努利過程就是一個拋硬幣實驗的過程。拋一枚正常硬幣,落地可能是正面,也可能是反面,二者的概率都是 1/2 。伯努利過程就是一直拋硬幣,直到落地時出現正面位置,並記錄下拋擲次數k。比如說,拋一次硬幣就出現正面了,此時 k 為 1; 第一次拋硬幣是反面,則繼續拋,直到第三次才出現正面,此時 k 為 3。

對於 n 次伯努利過程,我們會得到 n 個出現正面的投擲次數值 k1, k2 ... kn , 其中這裡的最大值是k_max。

根據一頓數學推導,我們可以得出一個結論: 2^{k_ max} 來作為n的估計值。也就是說你可以根據最大投擲次數近似的推算出進行了幾次伯努利過程。

5

雖然HyperLogLog資料型別這麼牛逼,但終究不是精確統計。只適用於對精度要求不高的場景。而且這種型別無法得出每個使用者的活躍度資訊。畢竟只有14K嘛。也不可能儲存下那麼多數量的資訊。

總結一下:對於文章開頭所提到的面試題來說,用bitmap和HyperLogLog都可以解決。

bitmap的優勢是:非常均衡的特性,精準統計,可以得到每個統計物件的狀態,秒出。缺點是:當你的統計物件數量十分十分巨大時,可能會佔用到一點儲存空間,但也可在接受範圍內。也可以通過分片,或者壓縮的額外手段去解決。

HyperLogLog的優勢是:可以統計誇張到無法想象的數量,並且佔用小的誇張的記憶體。 缺點是:建立在犧牲準確率的基礎上,而且無法得到每個統計物件的狀態。

我做了一個演示工程redis-bit,放在Gitee上,工程包括了初始化大容量的資料。和分別使用bitmap和HyperLogLog進行使用者活躍度的統計。最後通過http的方式進行輸出。

工程採用springboot+redisson客戶端。所有的引數支援配置

file

6

微信關注「jishuyuanren」獲取更多幹貨,或者掃描以下二維碼

file

本文由部落格群發一文多發等運營工具平臺 OpenWrite 釋出

相關文章