多圖詳解:不停機分庫分表五個步驟

JAVA前線發表於2023-05-18

1 理論知識

1.1 分庫分表是否必要

分庫分表確實可以解決單表資料量大這個問題,但是並非首選。因為分庫分表至少引入了三個必須解決的突出問題。

第一是分庫分表方案本身具有的複雜性。第二是本地事務失效問題,原本在同一個資料庫中可以保證強一致性業務邏輯,分庫之後事務失效。第三是難以聚合查詢問題,因為分庫分表後查詢條件中必須帶有shardingKey,所以限制了很多查詢場景。

我們在之前文章《面試官問單表資料量大是否必須分庫分表》介紹過解決單表資料量過大問題,可以按照刪、換、分、拆、異、熱這六個字順序進行處理,而不是一上來就分庫分表。

刪是指刪除歷史資料並進行歸檔。換是指不要只使用資料庫資源,有些資料可以儲存至其它替代資源。分是指讀寫分離,增加多個讀例項應對讀多寫少的網際網路場景。拆是指分庫分表,將資料分散至不同的庫表中減輕壓力。異指資料異構,將一份資料根據不同業務需求儲存多份。熱是指熱點資料,這是一個非常值得注意的問題。


1.2 分庫分表兩大維度

假設有一個電商資料庫存放訂單、商品、支付三張業務表。隨著業務量越來越大,這三張業務資料表也越來越大,查詢效能顯著降低,資料拆分勢在必行,那麼資料拆分可以從縱向和橫向兩個維度進行。


1.2.1 縱向拆分

縱向拆分就是按照業務拆分,我們將電商資料庫拆分成三個庫,訂單庫、商品庫。支付庫,訂單表在訂單庫,商品表在商品庫,支付表在支付庫。這樣每個庫只需要儲存本業務資料,物理隔離不會互相影響。


02 縱向分表.jpg


1.2.2 橫向拆分

按照縱向拆分方案,現在我們已經有三個庫了,平穩執行了一段時間。但是隨著業務增長,每個單庫單表的資料量也越來越大,逐漸到達瓶頸。

這時我們就要對資料表進行橫向拆分,所謂橫向拆分就是根據某種規則將單庫單表資料分散到多庫多表,從而減小單庫單表的壓力。

橫向拆分策略有很多方案,最重要的一點是選好ShardingKey,也就是按照哪一列進行拆分,怎麼分取決於我們訪問資料的方式。


(1) 範圍分片

如果我們選擇的ShardingKey是訂單建立時間,那麼分片策略是拆分四個資料庫,分別儲存每季度資料,每個庫包含三張表,分別儲存每個月資料:


03 橫向分表_範圍分表.jpg


這個方案的優點是對範圍查詢比較友好,例如我們需要統計第一季度的相關資料,查詢條件直接輸入時間範圍即可。這個方案的問題是容易產生熱點資料。例如雙11當天下單量特別大,就會導致11月這張表資料量特別大從而造成訪問壓力。


(2) 查表分片

查表法是根據一張路由表決定ShardingKey路由到哪一張表,每次路由時首先到路由表裡查到分片資訊,再到這個分片去取資料。我們分析一個查表法思想應用實際案例。

Redis官方在3.0版本之後提供了叢集方案RedisCluster,其中引入了雜湊槽(slot)這個概念。一個叢集固定有16384個槽,在叢集初始化時這些槽會平均分配到Redis叢集節點上。每個key請求最終落到哪個槽計算公式是固定的:

SLOT = CRC16(key) mod 16384

一個key請求過來怎麼知道去哪臺Redis節點獲取資料?這就要用到查表法思想:

(1) 客戶端連線任意一臺Redis節點,假設隨機訪問到節點A
(2) 節點A根據key計算出slot值
(3) 每個節點都維護著slot和節點對映關係表
(4) 如果節點A查表發現該slot在本節點,直接返回資料給客戶端
(5) 如果節點A查表發現該slot不在本節點,返回給客戶端一個重定向命令,告訴客戶端應該去哪個節點請求這個key的資料
(6) 客戶端向正確節點發起連線請求

查表法方案優點是可以靈活制定路由策略,如果我們發現有的分片已經成為熱點則修改路由策略。缺點是多一次查詢路由表操作增加耗時,而且路由表如果是單點也可能會有單點問題。


(3) 雜湊分片

現在比較流行的分片方法是雜湊分片,相較於範圍分片,雜湊分片可以較為均勻將資料分散在資料庫中。我們現在將訂單庫拆分為4個庫編號為[0,3],每個庫包含3張表編號為[0,2],如下圖如所示:


04 橫向分表_雜湊分表_1.jpg


我們選擇使用orderId作為ShardingKey,那麼orderId=100這個訂單會儲存在哪張表?因為是分庫分表,第一步確定路由到哪一個庫,取模計算結果表示庫表序號:

db_index = 100 % 4 = 0

第二步確定路由到哪一張表:

table_index = 100 % 3 = 1

第三步資料路由到0號庫1號表:


04 橫向分表_雜湊分表_2.jpg


在實際開發中路由邏輯並不需要我們手動實現,因為有許多開源框架透過配置就可以實現路由功能,例如ShardingSphere、TDDL框架等等。


2 分庫分表準備工作

2.1 計算庫表數量

分幾個庫和幾張表是在分庫分表工作開始前必須要回答的問題,我們首先看看阿里巴巴開發手冊的建議:單錶行數超過500萬行或者單表容量超過2GB才推薦進行分庫分表,如果預計3年後資料量根本達不到這個級別,請不要在建立表時就分庫分表。

我們提取出這個建議的兩個關鍵詞500萬、3年作為預估庫表數的基線,假設業務資料日增量60萬,那麼應該如何預估需要分多少個庫,多少張表呢?

日增量60萬計算3年後資料總量:

三年資料總量 = 60 * 365 * 3 = 65700

隨著後續業務發展日增量會超過60萬,所以我們要對資料總量進行冗餘,冗餘指數是多少根據業務情況而定,本文按照3倍冗餘:

三年資料總量三倍冗餘 = 65700 * 3 = 197100

按照單表500萬並向上取整至2的冪次計算表數量

表數量 = 197100 / 500 = 394.2 向上取整 = 512

所有表放在一個庫並不合適,因為隨著資料量增大,訪問併發量也會呈正相關增大,一個資料庫例項是難以支撐的。本文按照一個資料庫例項包含32張表計算庫數量:

庫數量 = 512 / 32 = 16

2.2 shardingKey

確定shardingKey非常關鍵,因為作為分片指標,當資料拆分至多個庫表之後,代理層只能根據shardingKey進行表路由。假設我們設定了userId作為shardingKey,那麼後續DML操作都必須包含userId欄位。但是現在有一種場景只有orderId作為查詢條件,那麼我們應該如何處理這種場景呢?

第一種方案是設計orderId包含userId相關特徵,這樣即使只有訂單號作為查詢條件,也可以擷取userId特徵進行分片:

訂單號 = 毫秒數 + 版本號 + userId後六位 + 全域性序列號

第二種方案是資料異構,核心思想是以空間換時間,一份資料根據不同維度儲存到多個資料介質,資料異構一般分為如下型別。

資料異構至MySQL:我們可以選擇orderId作為shardingKey儲存至另一個資料庫例項,那麼orderId就可以作為條件進行查詢。

資料異構至ES:如果每一個維度都新建一個資料庫例項也是不現實的,所以我們可以將資料同步至ES滿足多維度查詢需求。

資料異構至Hive:MySQL和ES可以滿足實時查詢需求,Hive可以滿足離線分析需求,報表等資料分析工作無需透過主庫,而是可以透過Hive進行。

現在又引出一個新問題,業務不可能每次都將資料寫入多個資料來源,這樣會帶來效能問題和資料一致性問題,所以需要一個管道進行各資料來源之間同步,阿里開源的canal元件可以解決這個問題。


3 分庫分表例項

在完成準備工作之後,我們可以開始分庫分表工作了。分庫分表方法有很多種,但是說到底都是在處理兩類資料:存量和增量。存量表示舊資料庫已經存在的資料,增量表示不存在於舊資料庫待新增或者變更的資料。根據存量和增量這兩種型別,我們可以將分庫分表方法分為停服拆分和不停服拆分。


3.1 停服拆分

停服是指停止服務,系統不再接收新業務資料,那麼舊資料在分庫分表這個時間段內是靜止不變的,資料全部變為了存量資料。停服拆分一般分為三個階段。

第一階段首先編寫代理層和新DAO,代理層透過開關決定訪問舊錶還是新表,此時流量還是全部訪問舊錶:


00 停服_階段1.jpg


第二階段停止服務,整個應用都沒有流量,舊錶資料已經處於靜止狀態,此時透過指令碼將存量資料從舊錶遷移至新表:


00 停服_階段2.jpg


第三階段透過代理層訪問新表,如果出現錯誤可以停服排查問題:


00 停服_階段3.jpg


3.2 不停服拆分

停服拆分方案比較簡單,但是在分表這段時間沒有業務流量,對業務是有損的,所以我們一般採用不停服拆分方案,一邊有流量訪問,一邊進行分庫分表,此時資料不僅有存量還有增量,相對而言會複雜一些。

第一階段首先編寫代理層和新DAO,代理層透過開關決定訪問舊錶還是新表,此時流量還是全部訪問舊錶:


01 不停服_階段1.jpg


第二階段開啟雙寫,增量資料不僅在舊錶新增和修改,也在新表新增和修改,日誌或者臨時表記錄下寫入新表ID起始值,舊錶中小於這個值的資料就是存量資料:


02 不停服_階段2.jpg


第三階段存量資料遷移,透過指令碼將存量資料寫入新表:


03 不停服_階段3.jpg


第四階段停讀舊錶改讀新表,此時新表已經承載了所有讀寫業務,但是不要立刻停寫舊錶,需要保持雙寫一段時間。

不停寫舊錶有兩個原因:第一是因為如果讀新表出現問題,還可以將讀流量切回舊錶。第二是因為可以進行資料校對,例如新表和舊錶資料都同步至Hive,選取幾天的資料進行校對,從而驗證資料同步的準確性。


04 不停服_階段4.jpg


第五階段當讀寫新表一段時間之後,沒有發生業務問題,可以停寫舊錶:


05 不停服_階段5.jpg


3.3 代理層實現

代理層實現了新舊資料來源切換,需要儘量減少業務層程式碼的侵入性,而介面卡模式可以有效減少對業務層的侵入性。我們首先看看舊資料訪問物件和業務服務:

// 訂單資料物件
public class OrderDO {
    private String orderId;
    private Long price;

    public String getOrderId() {
        return orderId;
    }

    public void setOrderId(String orderId) {
        this.orderId = orderId;
    }

    public Long getPrice() {
        return price;
    }

    public void setPrice(Long price) {
        this.price = price;
    }
}

// 舊DAO
public interface OrderDAO {
    public void insert(OrderDO orderDO);
}

// 業務服務
public class OrderServiceImpl implements OrderService {

    @Resource
    private OrderDAO orderDAO;

    @Override
    public String createOrder(Long price) {
        String orderId = "orderId_123";
        OrderDO orderDO = new OrderDO();
        orderDO.setOrderId(orderId);
        orderDO.setPrice(price);
        orderDAO.insert(orderDO);
        return orderId;
    }
}

引入新資料來源訪問物件:

// 新資料物件
public class OrderNewDO {
    private String orderId;
    private Long price;
}

// 新DAO
public interface OrderNewDAO {
    public void insert(OrderNewDO orderNewDO);
}

介面卡模式減少業務程式碼侵入性:

// 代理層
public class OrderDAOProxy implements OrderDAO {
    private OrderDAO orderDAO;
    private OrderNewDAO orderNewDAO;

    public OrderDAOProxy(OrderDAO orderDAO, OrderNewDAO orderNewDAO) {
        this.orderDAO = orderDAO;
        this.orderNewDAO = orderNewDAO;
    }

    @Override
    public void insert(OrderDO orderDO) {
        if(ApolloConfig.routeNewDB) {
            OrderNewDO orderNewDO = new OrderNewDO();
            orderNewDO.setPrice(orderDO.getPrice());
            orderNewDO.setOrderId(orderDO.getOrderId());
            orderNewDAO.insert(orderNewDO);
        } else {
            orderDAO.insert(orderDO);
        }
    }
}


// 業務服務
public class OrderServiceImpl implements OrderService {

    @Resource
    private OrderDAO orderDAO;
    @Resource
    private OrderNewDAO orderNewDAO;

    @Override
    public String createOrder(Long price) {
        String orderId = "orderId_123";
        OrderDO orderDO = new OrderDO();
        orderDO.setOrderId(orderId);
        orderDO.setPrice(price);
        new OrderDAOProxy(orderDAO, orderNewDAO).insert(orderDO);
        return orderId;
    }
}

4 文章總結

分庫分表具有三個必須面對的問題:方案本身複雜性、本地事務失效問題、難以聚合查詢問題,所以分庫分表方案並非解決海量資料問題的首選。

如果必須分庫分表,首先進行容量預估並選擇合適的shardingKey,其次根據實際業務選擇停服或者不停服方案,如果選擇不停服方案,注意保持新表和舊錶雙寫一段時間,從而驗證資料準確性,希望本文對大家有所幫助。


5 延伸閱讀

一種簡單可落地的分散式事務方案

面試官問單表資料量大是否必須分庫分表

相關文章