一種KV儲存的GC最佳化實踐

vivo網際網路技術發表於2023-05-12
作者:vivo 網際網路伺服器團隊- Yuan Jian Wei

從內部需求出發,我們基於TiKV設計了一款相容Redis的KV儲存。基於TiKV的資料儲存機制,對於視窗資料的處理以及過期資料的GC問題卻成為一個難題。本文希望基於從KV儲存的設計開始講解,到GC設計的逐層最佳化的過程,從問題的存在到不同層面的分析,可以給讀者在類似的最佳化實踐中提供一種參考思路。

一、背景介紹

當前公司內部沒有統一的KV儲存服務,很多業務都將 Redis 叢集當作KV儲存服務在使用,但是部分業務可能不需要 Redis 如此高的效能,卻承擔著巨大的機器資源成本(記憶體價格相對磁碟來說更加昂貴)。為了降低儲存成本的需求,同時儘可能減少業務遷移的成本,我們基於 TiKV 研發了一套磁碟KV儲存服務。

1.1 架構簡介

以下對這種KV儲存(下稱磁碟KV)的架構進行簡單描述,為後續問題描述做鋪墊。

1.1.1 系統架構

磁碟KV使用目前較流行的計算儲存分離架構,在TiKV叢集上層封裝計算層(後稱Tula)模擬Redis叢集(對外表現是不同的Tula負責某些slot範圍),直接接入業務Redis客戶端。

圖片

圖1:磁碟KV架構圖示

業務寫入資料基於Tula轉換成TiKV中儲存的KV對,基於類似的方式完成業務資料的讀取。

注意:Tula中會選舉出一個leader,用於進行一些後臺任務,後續詳細說。

1.1.2 資料編碼

TiKV對外提供的是一種KV的讀寫功能,但是Redis對外提供的是基於資料結構提供讀寫能力(例如SET,LIST等),因此需要基於TiKV現有提供的能力,將Redis的資料結構進行編碼,並且可以方便地在TiKV中進行讀寫。

TiKV提供的API比較簡單:基於key的讀寫介面,以及基於字典序的迭代器訪問。

因此,Tula層面基於字典序的機制,對Redis的資料結構基於字典序進行編碼,便於訪問。

注意:TiKV的key是可以基於字典序進行遍歷(例如基於某個字首進行遍歷等),後續的編碼,機制基本是基於字典序的特性進行設計

為了可以更好地基於字典序排列的搜尋特性下對資料進行讀寫,對於複雜的資料結構,我們會使用另外的空間去存放其中的資料(例如SET中的member,HASH中的field)。而對於簡單的資料結構(類似STRING),則可以直接存放到key對應的value中。

為此,我們在編碼設計上,會分為metaKey和dataKey。metaKey是基於使用者直接訪問的key進行編碼,是編碼設計中直接對外的一層;dataKey則是metaKey的儲存指向,用來存放複雜資料結構中的具體內部資料。

另外,為了保證訪問的資料一致性,我們基於TiKV的事務介面進行對key的訪問。

(1)編碼&欄位

以下以編碼中的一些概念以及設定,對編碼進行簡述。

key的編碼規則如下:

圖片

圖2:key編碼設計圖示

以下對欄位進行說明

  • namespace

為了方便在一個TiKV叢集中可以存放不同的磁碟KV資料,我們在編碼的時候新增了字首namespace,方便叢集基於這個namespace在同一個物理TiKV空間中基於邏輯空間進行分割槽。

  • dbid

因為原生Redis是支援select語句,因此在編碼上需要預留欄位表示db的id,方便後續進行db切換(select語句操作)的時候切換,表示不同的db空間。

  • role

用於區分是哪種型別的key。

對於簡單的資料結構(例如STRING),只需要直接在key下面儲存對應的value即可。

但是對於一些複雜的資料結構(例如HASH,LIST等),如果在一個value下把所有的元素都儲存了,對與類似SADD等指令的併發,為了保證資料一致性,必然可以預見其效能不足。

因此,磁碟KV在設計的時候把元素資料按照獨立的key做儲存,需要基於一定的規則對元素key進行訪問。這樣會導致在key的編碼上,會存在key的role欄位,區分是使用者看到的key(metaKey),還是這種元素的key(dataKey)。

其中,如果是metaKey,role固定是M;如果是dataKey,則是D。

  • keyname

在metaKey和dataKey的基礎上,可以基於keyname欄位可以較方便地訪問到對應的key。

  • suffix

針對dataKey,基於不同的Redis資料結構,都需要不同的dataKey規則進行支援。因此此處需要預留suffix區間給dataKey在編碼的時候預留空間,實現不同的資料型別。

以下基於SET型別的SADD指令,對編碼進行簡單演示:

圖3: SADD指令的編碼設計指令圖示

  1. 基於userKey,透過metaKey的拼接方式,拼接metaKey並且訪問
  2. 訪問metaKey獲取value中的
  3. 基於value中的uuid,生成需要的dataKey
  4. 寫入生成的dataKey

(2)編碼實戰

編碼實戰中,會以SET型別的實現細節作為例子,描述磁碟KV在實戰中的編碼細節。

在這之前,需要對metaKey的部分實現細節進行了解

(3)metaKey儲存細節

所有的metaKey中都會儲存下列資料。

圖4:metaKey編碼設計圖示

  1. uuid:每一個metaKey都會有一個對應的uuid,表示這個key的唯一身份。
  2. create_time:儲存該後設資料的建立時間
  3. update_time: 儲存該後設資料的最近更新時間
  4. expire_time: 儲存過期時間
  5. data_type: 儲存該後設資料對應的資料型別,例如SET,HASH,LIST,ZSET等等。
  6. encode_type: 儲存該資料型別的編碼方式

(4)SET實現細節

基於metaKey的儲存內容,以下基於SET型別的資料結構進行講解。

SET型別的dataKey的編碼規則如下:

  • keyname:metaKey的uuid
  • suffix:SET對應的member欄位

因此,SET的dataKey編碼如下:

圖片

圖5:SET資料結構dataKey編碼設計圖示

以下把使用者可以訪問到的key稱為user-key。集合中的元素使用member1,member2等標註。

這裡,可以梳理出訪問邏輯如下:

圖片

圖6:SET資料結構訪問流程圖示

簡述上圖的訪問邏輯:

  1. 基於user-key拼接出metaKey,讀取metaKey的value中的uuid。
  2. 基於uuid拼接出dataKey,基於TiKV的字典序遍歷機制獲取uuid下的所有member。

1.1.3 過期&GC設計

對標Redis,目前在user-key層面滿足過期的需求。

因為存在過期的資料,Redis基於過期的hash進行儲存。但是如果磁碟KV在一個namespace下使用一個value存放過期的資料,顯然在EXPIRE等指令下存在效能問題。因此,這裡會有獨立的編碼支援過期機制。

鑑於過期的資料可能無法及時刪除(例如SET中的元素),對於這型別的資料需要一種GC的機制,把資料完全清空。

(1)編碼設計

針對過期以及GC(後續會在機制中詳細說),需要額外的編碼機制,方便過期和GC機制的查詢,處理。

  • 過期編碼設計

為了可以方便地找到過期的key(下稱expireKey),基於字典序機制,優先把過期時間的位置排到前面,方便可以更快地得到expireKey。

編碼格式如下:

圖片

圖7:expireKey編碼設計圖示

其中:

  • expire-key-prefix:標識該key為expireKey,使用固定的字串標識
  • slot:4個位元組,標識slot值,對user-key進行hash之後對256取模得到,方便併發掃描的時候執行緒可以分割槽掃描,減少同key的事務衝突
  • expire-time:標識資料的過期時間
  • user-key:方便在遍歷過程中找到user-key,對expireKey做下一步操作
  • GC編碼設計

目前除了STRING型別,其他的型別因為如果在一次過期操作中把所有的元素都刪除,可能會存在問題:如果一個user-key下面的元素較多,過期進度較慢,這樣metaKey可能會長期存在,佔用空間更大。

因此使用一個GC的key(下稱gcKey)空間,安排其他執行緒進行掃描和清空。

編碼格式如下:

圖片

圖8:gcKey編碼設計圖示

(2)機制描述

基於前面的編碼,可以對Tula內部的過期和GC機制進行簡述。

因為過期和GC都是基於事務介面,為了減少衝突,Tula的leader會進行一些後臺的任務進行過期和GC。

  • 過期機制

因為前期已經對過期的user-key進行了slot分開,expireKey天然可以基於併發的執行緒進行處理,提高效率。

圖9:過期機制處理流程圖示

簡述上圖的過期機制:

  1. 拉起各個過期作業協程,不同的協程基於分配的slot,拼接協程下的expire-key-prefix,掃描expireKey
  2. 掃描expireKey,解析得到user-key
  3. 基於user-key拼接得到metaKey,訪問metaKey的value,得到uuid
  4. 根據uuid,新增gcKey
  5. 新增gcKey成功後,刪除metaKey

就目前來說,過期速度較快,而且key的量級也不至於讓磁碟KV存在容量等過大負擔,基於hash的過期機制目前表現良好。

  • GC機制

目前的GC機制比較落後:基於當前Tula的namespace的GC字首(gc-key-prefix),基於uuid進行遍歷,並且刪除對應的dataKey。

圖片

圖10:GC機制處理流程圖示

簡述上圖的GC機制:

  1. 拉起一個GC的協程,掃描gcKey空間
  2. 解析掃描到的gcKey,可以獲得需要GC的uuid
  3. 基於uuid,在dataKey的空間中基於字典序,刪除對應uuid下的所有dataKey

因此,GC本來就是在expire之後,會存在一定的滯後性。

並且,當前的GC任務只能單執行緒操作,目前來說很容易造成GC的遲滯。

1.2 問題描述

1.2.1 問題現象

業務側多次反饋,表示視窗資料(定期刷入重複過期資料)存在的時候,磁碟KV佔用的空間特別大。

我們使用工具單獨掃描對應的Tula配置namespace下的GC資料結合,發現確實存在較多的GC資料,包括gcKey,以及對應的dataKey也需要及時進行刪除。

1.2.2 成因分析

現網的GC過程速度比不上過期的速度。往往expireKey都已經沒了,但是gcKey很多,並且堆積。

這裡的問題點在於:前期的設計中,gcKey的編碼並沒有像expireKey那樣提前進行了hash的操作,全部都是uuid。

如果有一個類似的slot欄位可以讓GC可以使用多個協程進行併發訪問,可以更加高效地推進GC的進度,從而達到滿足最佳化GC速度的目的,視窗資料的場景可以得到較好的處理。

下面結合兩個機制的優劣,分析存在GC堆積的原因。

圖片

圖11:GC堆積成因圖示

簡單來說,上圖的流程中:

  1. 過期的掃描速度以及處理速度很快,expireKey很快及時的被清理並且新增到gcKey中
  2. GC速度很慢,新增的gcKey無法及時處理和清空

從上圖分析可以知道:如果視窗資料的寫入完全超過的GC的速度的話,必然導致GC的資料不斷堆積,最後導致所有磁碟KV的儲存容量不斷上漲。

二、最佳化

2.1 目標

分析了原始的GC機制之後,對於GC存在滯後的情況,必然需要進行最佳化。

如何加速GC成為磁碟KV針對視窗資料場景下的強需求。

但是,畢竟TiKV叢集的效能是有上限的,在進行GC的過程也應該照顧好業務請求的表現。

這裡就有了最佳化的基本目標:在不影響業務的正常使用前提下,對儘量減少GC資料堆積,加速GC流程。

2.2 實踐

2.2.1 階段1

在第一階段,其實並沒有想到需要對GC這個流程進行較大的變動,看可不可以從當前的GC流程中進行一些簡單調整,提升GC的效能。

  • 分析

GC的流程相對簡單:

圖片

圖12:GC流程圖示

可以看到,如果存在gcKey,會觸發一個批次的刪除gcKey和dataKey的流程。

最初設計存在sleep以及批次的原因在於減少GC對TiKV的影響,降低對現網的影響。

因此這裡可以調整的範圍比較有限:按照批次進行控制,或者縮短批次刪除之間的時間間隔。

  • 嘗試

縮短sleep時間(甚至縮短到0,去掉sleep過程),或者提高單個批次上限。

  • 結果

但是這裡原生sleep時間並不長,而且就算提高批次個數,畢竟單執行緒,提高並沒有太大。

  • 小結

原生GC流程可變動的範圍比較有限,必須打破這種侷限才可以對GC的速度得以更好的最佳化。

2.2.2 階段2

第一階段過後,發現原有機制確實侷限比較大,如果需要真的把GC進行加速,最好的辦法是在原有的機制上看有沒有辦法類似expireKey一樣給出併發的思路,可以和過期一樣在質上提速。

但是當前現網已經不少叢集在使用磁碟KV叢集,併發提速必須和現網存量key設計一致前提下進行調整,解決現網存量的GC問題。

  • 分析

如果有一種可能,更改GC的key編碼規則,類似模擬過期key的機制,新增slot位置,應該可以原生滿足這種多協程併發進行GC的情況。

但是基於當前編碼方式,有沒有其他辦法可以較好地把GC key分散開來?

把上述問題作為階段2的分析切入點,再對當前的GC key進行分析:

圖片

圖13:gcKey編碼設計圖示

考慮其中的各個欄位:

  • namespace:同一個磁碟KV下GC空間的必然一致
  • gc-key-prefix:不管哪個磁碟KV的欄位必然一致
  • dbid:現網的磁碟KV都是基於叢集模式,dbid都是0
  • uuid:對映到對應的dataKey

分析下來,也只有uuid在整個gcKey的編碼中是變化的。

正因為uuid的分佈應該是足夠的離散,此處提出一種比較大膽的想法:基於uuid的前若干位當作hash slot,多個協程可以基於不同的字首進行併發訪問

因為uuid是一個128bit長度(8個byte)的內容,如果拿出前面的8個bit(1個byte),可以對映到對應的256個slot。

  • 嘗試

基於上述分析,uuid的前一個byte作為hash slot的標記,這樣,GC流程變成:

圖片

圖14:基於uuid劃分GC機制圖示

簡單描述下階段2的GC流程:

  1. GC任務使用協程,分成256個任務
  2. 每一個任務基於字首掃描的時候,從之前掃描到dbid改成後續補充一個byte,每個協程被分配不同的字首,進行各自的任務執行
  3. GC任務執行邏輯和之前單執行緒邏輯保持不變,處理gcKey以及dataKey。

這樣,基於uuid的離散,GC的任務可以拆散成併發協程進行處理。

這樣的優點不容置疑,可以較好地進行併發處理,提高GC的速度。

  • 結果

基於併發的操作,GC的耗時可以縮短超過一半。後續會有同樣條件下的資料對比。

  • 小結

階段2確實帶來一些突破:再保留原有gcKey設計的前提下,基於拆解uuid的方法使得GC的速度有質的提高。

但是這樣會帶來問題:對於dataKey較多(可以理解為一個HASH,或者一個SET的元素較多)的時候,刪除操作可能對TiKV的效能帶來影響。這樣帶來的副作用是:如果併發強度很高地進行GC,因為TiKV叢集寫入(無論寫入還是刪除)效能是一定的,這樣是不是可能導致業務的正常寫入可能帶來了影響?

如何可以做到兼顧磁碟KV日常的寫入和GC?這成了下一個要考慮的問題。

2.2.3 階段3

階段2之後,GC的速度是得到了較大的提升,但是在測試過程中發現,如果在過程中進行寫入,寫入的效能會大幅度下降。如果因為GC的效能問題忽視了現網的業務正常寫入,顯然不符合線上業務的訴求。

磁碟KV的GC還需要一種能力,可以調節GC。

  • 分析

如果基於階段2,有辦法可以在業務低峰期的時候進行更多的GC,高峰期的時候進行讓路,也許會是個比較好的方法。

基於上面的想法,我們需要在Tula層面可以比較直接地知道當前磁碟KV的效能表現到底到怎樣的層面,當前是負荷較低還是較高,應該用怎樣的指標去衡量當前磁碟KV的效能?

  • 嘗試

此處我們進行過以下的一些摸索:

  • 基於TiKV的磁碟負載進行調整
  • 基於Tula的時延表現進行調整
  • 基於TiKV的介面效能表現進行調整

暫時發現TiKV的介面效能表現調整效果較好,因為基於磁碟負載不能顯式反饋到Tula的時延表現,基於Tula的時延表現應該需要蒐集所有的Tula時延進行調整(對於同一個TiKV叢集接入多個不同的Tula叢集有潛在影響),基於TiKV的介面效能表現調整可以比較客觀地得到Tula的效能表現反饋。

在階段1中,有兩個影響GC效能的引數:

  • sleep時延
  • 單次處理批次個數

加上階段2併發的話,會有三個可控維度,控制GC的速度。

調整後的GC流程如下:

圖片

圖15:自適應GC機制圖示

階段3對GC新增自適應機制,簡述如下:

①開啟協程,蒐集TiKV節點負載

  • 發現TiKV負載較高,控制GC引數,使得GC緩慢進行
  • 發現TiKV負載較低,控制GC引數,使得GC激進進行

②開啟協程,進行GC

  • 發現不需要GC,控制GC引數,使得GC緩慢進行
  • 結果

基於監控表現,可以明顯看到,GC不會一直強制佔據TiKV的所有效能。當Tula存在正常寫入的時候,GC的引數會響應調整,保證現網寫入的時延。

  • 小結

階段3之後,可以保證寫入和但是從TiKV的監控上看,有時候GC並沒有完全把TiKV的效能打滿。

是否有更加高效的GC機制,可以繼續提高磁碟KV的GC效能?

2.2.4 階段4

基於階段3繼續嘗試找到GC效能更高的GC方式。

  • 分析

基於階段3的最佳化,目前基於單個節點的Tula應該可以達到一個可以較高強度的GC,並且可以給現網讓路的一種情況。

但是,實際測試的時候發現,基於單個節點的刪除,速度應該還有提升空間(從TiKV的磁碟IO可以發現,並沒有佔滿)。

這裡的影響因素很多,例如我們發現client-go側存在獲取tso慢的一些報錯。可能是使用客戶端不當等原因造成。

但是之前都是基於單個Tula節點進行處理。既然每個Tula都是模擬了Redis的叢集模式,被分配了slot區間去處理請求。這裡是不是可以借鑑分片管理資料的模式,在GC的過程直接讓每個Tula管理對應分片的GC資料?

這裡先review一次最佳化階段2的解決方式:基於uuid的第一個byte,劃分成256個區間。leader Tula進行處理的時候基於256個區間。

反觀一個Tula模擬的分片範圍是16384(0-16383),而一個byte可以表示256(0-255)的範圍。

如果使用2個byte,可以得到65536(0-65535)的範圍。

這樣,如果一個Tula可以基於自己的分片範圍,對映到GC的範圍,基於Tula的Redis叢集模擬分片分佈去做基於Tula節點的GC分片是可行的。

假如某個Tula的分片是從startSlot到endSlot(範圍:0-16383),只要經過簡單的對映:

  • startHash = startSlot* 4
  • endHash = (endSlot + 1)* 4 - 1

基於這樣的對映,可以直接把Tula的GC進行分配,而且基本在最佳化階段2中無縫銜接。

  • 嘗試

基於分析得出的機制如下:

圖片

圖16:多Tula節點GC機制圖示

可以簡單地描述最佳化之後的GC流程:

① 基於當前拓撲劃分當前Tula節點的startHash與endHash

② 基於步驟1的startHash與endHash,Tula分配協程進行GC,和階段2基本一致:

  • GC任務使用協程,分成多個任務。
  • 每一個任務基於字首掃描的時候,從之前掃描到dbid改成後續補充2個byte,每個協程被分配不同的字首,進行各自的任務執行。
  • GC任務執行邏輯和之前單執行緒邏輯保持不變,處理gcKey以及dataKey。

基於節點分開之後,可以滿足在每個節點併發地前提下,各個節點不相干地進行GC。

  • 結果

基於併發的操作,GC的耗時可以在階段2的基礎上繼續縮短。後續會有同樣條件下的資料對比。

  • 小結

基於節點進行併發,可以更加提高GC的效率。

但是我們在這個過程中也發現,client-go的使用上可能存在不當的情況,也許調整client-go的使用後可以獲得更高的GC效能。

三、最佳化結果對比

我們基於一個寫入500W的SET作為寫入資料。其中每一個SET都有一個元素,元素大小是4K。

因為階段2和階段4的提升較大,效能基於這兩個進行對比:

圖片

表1:各階段GC耗時對照表

可以比較明顯地看出:

  1. 階段2之後的GC時延明顯縮減
  2. 階段4之後的GC時延可以隨著節點數的增長存在部分縮減

四、後續計劃

階段4之後,我們發現Tula的單節點效能應該有提升空間。我們會從以下方面進行入手:

  1. 補充更多的監控專案,讓Tula更加可視,觀察client-go的使用情況。
  2. 基於上述調整跟進client-go在不同場景下的使用情況,嘗試找出client-go在使用上的瓶頸。
  3. 嘗試調整client-go的使用方式,在Tula層面提高從指令執行,到GC,過期的效能。

五、總結

回顧我們從原來的單執行緒GC,到基於編碼機制做到了多執行緒GC,到為了減少現網寫入效能影響,做到了自適應GC,再到為了提升GC效能,進行多節點GC。

GC的效能提升階段依次經歷了以下過程:

  1. 單程式單協程
  2. 單程式多協程
  3. 多程式多協程

突破點主要在於進入階段2(單程式多協程)階段,設計上的困難主要來源於:已經存在存量資料,我們需要兼顧存量資料的資料分佈情況進行設計,這裡我們必須在考慮存量的gcKey存在的前提下,原版gcKey的編碼設計與基於字典序的遍歷機制對改造造成的約束。

但是這裡基於原有的設計,還是有空間進行一些二次設計,把原有的問題進行調優。

這個過程中,我們認為有幾點比較關鍵:

  • 在第一次設計的時候,應該從多方面進行衡量,思考好某種設計會帶來的副作用。
  • 上線之前,對各種場景(例如不同的指令,資料大小)進行充分測試,提前發現出問題及時修正方案。
  • 已經是存量資料的前提下,更應該對原有的設計進行重新梳理。也許原有的設計是有問題的,遵循當前設計的約束,找出問題關鍵點,基於現有的設計嘗試找到空間去調整,也許存在調優的空間。

相關文章