分散式系統技術:儲存之資料庫
經常思考一個問題,為什麼我們需要分散式?很大程度或許是不得已而為之。如果摩爾定律不會失效,如果透過低成本的硬體就能解決網際網路日益增長的計算儲存需求,是不是我們也就不需要分散式了。
過去的二三十年,是一場軟體工程師們自我拯救的,浩浩蕩蕩的革命。分散式技術的發展,深刻地改變了我們程式設計的模式,改變了我們思考軟體的模式。透過隨處可見的 X86 或者 Arm 機器,構建出一個無限擴充套件的計算以及儲存能力,這是軟體工程師最浪漫的自我救贖。
值 2019 年末,PingCAP 聯合 InfoQ 共同策劃出品“分散式系統前沿技術”專題, 邀請轉轉、Pulsar、微眾銀行、UCloud、知乎、貝殼金服等技術團隊共同參與,從資料庫、硬體、測試、運維等角度,共同探索這個古老領域的新生機。
系列一:儲存之資料庫篇
回看這幾年,分散式系統領域出現了很多新東西,特別是雲和 AI 的崛起,讓這個過去其實不太 sexy 的領域一下到了風口浪尖,在這期間誕生了很多新技術、新思想,讓這個古老的領域重新煥發生機。站在 2010s 的尾巴上,我想跟大家一起聊聊分散式系統令人振奮的進化路程,以及談一些對 2020s 的大膽猜想。
無論哪個時代,儲存都是一個重要的話題,今天先聊聊資料庫。在過去的幾年,資料庫技術上出現了幾個很明顯的趨勢。
儲存和計算進一步分離
我印象中最早的儲存-計算分離的嘗試是 Snowflake,Snowflake 團隊在 2016 年發表的論文《The Snowflake Elastic Data Warehouse》是近幾年我讀過的最好的大資料相關論文之一,尤其推薦閱讀。Snowflake 的架構關鍵點是在無狀態的計算節點 + 中間的快取層 + S3 上儲存資料,計算並不強耦合快取層,非常符合雲的思想。從最近 AWS 推出的 RedShift 冷熱分離架構來看,AWS 也承認 Snowflake 這個搞法是先進生產力的發展方向。另外這幾年關注資料庫的朋友不可能不注意到 Aurora。不同於 Snowflake,Aurora 應該是第一個將儲存-計算分離的思想用在 OLTP 資料庫中的產品,並大放異彩。Aurora 的成功在於將資料複製的粒度從 Binlog降低到 Redo Log ,極大地減少複製鏈路上的 IO 放大。而且前端複用了 MySQL,基本做到了 100% 的應用層 MySQL 語法相容,並且託管了運維,同時讓傳統的 MySQL 適用範圍進一步擴充,這在中小型資料量的場景下是一個很省心的方案。
雖然 Aurora 獲得了商業上的成功,但是從技術上,我並不覺得有很大的創新。熟悉 Oracle 的朋友第一次見 Aurora 的架構可能會覺得和 RAC 似曾相識。Oracle 大概在十幾年前就用了類似的方案,甚至很完美的解決了 Cache Coherence 的問題。另外,Aurora 的 Multi-Master 還有很長的路要走,從最近在 ReInvent 上的說法來看,目前 Aurora 的 Multi-Master 的主要場景還是作為 Single Writer 的高可用方案,本質的原因應該是目前 Multi-Writer 採用樂觀衝突檢測,衝突檢測的粒度是 Page,在衝突率高的場合會帶來很大的效能下降。
我認為 Aurora 是一個很好的迎合 90% 的公有云網際網路使用者的方案:100% MySQL 相容,對一致性不太關心,讀遠大於寫,全託管。但同時,Aurora 的架構決定了它放棄了 10% 有極端需求的使用者,如全域性的 ACID 事務+ 強一致,Hyper Scale(百 T 以上,並且業務不方便拆庫),需要實時的複雜 OLAP。這類方案我覺得類似 TiDB 的以 Shared-nothing 為主的設計才是唯一的出路。作為一個分散式系統工程師,我對任何不能水平擴充套件的架構都會覺得不太優雅。
分散式SQL資料庫登上舞臺
ACID全面迴歸
回想幾年前 NoSQL 最風光的時候,大家恨不得將一切系統都使用 NoSQL 改造,雖然易用性、擴充套件性和效能都不錯,但是多數 NoSQL 系統都拋棄掉了資料庫最重要的一些東西,例如 ACID 約束,SQL 等等。NoSQL 的主要推手是網際網路公司,網際網路公司的簡單業務加上超強的工程師團隊,NoSQL丟掉的東西當然能用某些工具簡單搞定。
但最近幾年大家漸漸發現低垂的果實基本上沒有了,剩下的都是硬骨頭。
最好的例子就是作為 NoSQL 的開山鼻祖,Google 第一個搞了 NewSQL (Spanner 和 F1)。在後移動時代,業務變得越來越複雜,要求越來越實時,同時對於資料的需求也越來越強。尤其對於一些金融機構來說,一方面產品面臨著網際網路化,一方面不管是出於監管的要求還是業務本身的需求,ACID 是很難繞開的。更現實的是,大多數傳統公司並沒有像頂級網際網路公司的人才供給,大量歷史系統基於 SQL 開發,完全遷移到 NoSQL 上肯定不現實。
在這個背景下,分散式關係型資料庫,我認為這是我們這一代人,在開源資料庫這個市場上最後一個 missing part,終於慢慢流行起來。這背後的很多細節由於篇幅的原因我就不介紹,推薦閱讀 PingCAP TiFlash技術負責人 maxiaoyu 的一篇文章《從大資料到資料庫》,對這個話題有很精彩的闡述。
雲基礎設施和資料庫的進一步整合
在過去的幾十年,資料庫開發者都像是在單打獨鬥,就好像作業系統以下的就完全是黑盒了,這個假設也沒錯,畢竟軟體開發者大多也沒有硬體背景。另外如果一個方案過於繫結硬體和底層基礎設施,必然很難成為事實標準,而且硬體非常不利於除錯和更新,成本過高,這也是我一直對定製一體機不是太感興趣的原因。但是雲的出現,將 IaaS 的基礎能力變成了軟體可複用的單元,我可以在雲上按需租用算力和服務,這會給資料庫開發者在設計系統的時候帶來更多的可能性,舉幾個例子:
Spanner 原生的 TrueTime API 依賴原子鐘和 GPS 時鐘,如果純軟體實現的話,需要犧牲的東西很多(例如 CockroachDB 的 HLC 和 TiDB 的改進版 Percolator 模型,都是基於軟體時鐘的事務模型)。但是長期來看,不管是 AWS 還是 GCP 都會提供類似 TrueTime 的高精度時鐘服務,這樣一來我們就能更好的實現低延遲長距離分散式事務。可以藉助 Fargate + EKS 輕量級容器 + Managed K8s 的服務,讓資料庫應對突發熱點小表讀的場景(這個場景幾乎是 Shared-Nothing 架構的老大難問題),比如在 TiDB 中透過 Raft Learner 的方式,配合雲的 Auto Scaler 快速在新的容器中建立只讀副本,而不是僅僅透過 3 副本提供服務;比如動態起 10 個 pod,給熱點資料建立 Raft 副本(這是我們將 TiKV 的資料分片設計得那麼小的一個重要原因),處理完突發的讀流量後再銷燬這些容器,變成 3 副本。冷熱資料分離,這個很好理解,將不常用的資料分片,分析型的副本,資料備份放到 S3 上,極大地降低成本。RDMA/CPU/超算 as a Service,任何雲上的硬體層面的改進,只要暴露 API,都是可以給軟體開發者帶來新的好處。例子還有很多,我就不一一列舉了。總之我的觀點是雲服務 API 的能力會像過去的程式碼標準庫一樣,是大家可以依賴的東西,雖然現在公有云的 SLA 仍然不夠理想,但是長遠上看,一定是會越來越完善的。
所以,資料庫的未來在哪裡?是更加的垂直化還是走向統一?對於這個問題,我同意這個世界不存在銀彈,但是我也並不像我的偶像,AWS CTO Vogels 博士那麼悲觀,相信未來是一個割裂的世界(AWS 恨不得為了每個細分的場景設計一個資料庫)。過度地細分會加大資料在不同系統中流動的成本。解決這個問題有兩個關鍵:
資料產品應該切分到什麼粒度?
使用者可不可以不用知道背後發生了什麼?
第一個問題並沒有一個明確的答案,但是我覺得肯定不是越細越好的,而且這個和 Workload 有關,比如如果沒有那麼大量的資料,直接在 MySQL 或者 PostgreSQL 上跑分析查詢其實一點問題也沒有,沒有必要非去用 Redshift。雖然沒有直接的答案,但是我隱約覺得第一個問題和第二個問題是息息相關的,畢竟沒有銀彈,就像 OLAP 跑在列儲存引擎上一定比行存引擎快,但是對使用者來說其實可以都是 SQL 的介面。
SQL 是一個非常棒的語言,它只描述了使用者的意圖,而且完全與實現無關,對於資料庫來說,其實可以在 SQL 層的後面來進行切分,在 TiDB 中,我們引入 TiFlash 就是一個很好的例子。動機很簡單:
1.使用者其實並不是資料庫專家,你不能指望使用者能 100% 在恰當的時間使用恰當的資料庫,並且用對。
2.資料之間的同步在一個系統之下才能儘量保持更多的資訊,例如,TiFlash 能保持 TiDB 中事務的 MVCC 版本,TiFlash 的資料同步粒度可以小到 Raft Log 的級別。
另外一些新的功能仍然可以以 SQL 的介面對外提供,例如全文檢索,用 SQL 其實也可以簡潔的表達。這裡我就不一一展開了。
我其實堅信系統一定是朝著更智慧、更易用的方向發展的,現在都 21 世紀了,你是希望每天拿著一個 Nokia 再揹著一個相機,還是直接一部手機搞定。
更多免費影片及資料
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69976011/viewspace-2696571/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 【大資料】BigTable分散式資料儲存系統分散式資料庫 | 複習筆記大資料分散式資料庫筆記
- IPFS分散式儲存挖礦技術系統開發分散式
- [技術思考]分散式儲存系統的雪崩效應分散式
- 分散式儲存技術概念分散式
- 不同體系分散式儲存技術的技術特性分散式
- 從Google Spanner漫談分散式儲存與資料庫技術XAGo分散式資料庫
- 分散式文件儲存資料庫之MongoDB索引管理分散式資料庫MongoDB索引
- 分散式文件儲存資料庫之MongoDB副本集分散式資料庫MongoDB
- 分散式儲存技術解讀系列之GFS分散式
- 分散式文件儲存資料庫之MongoDB分片叢集分散式資料庫MongoDB
- 分散式文件儲存資料庫之MongoDB訪問控制分散式資料庫MongoDB
- IPFS分散式儲存挖礦系統開發軟體技術分散式
- Ceph分散式儲存技術解讀分散式
- 分散式系統中的資料儲存方案實踐分散式
- 分散式文件儲存資料庫之MongoDB基礎入門分散式資料庫MongoDB
- 分散式系統中資料儲存方案實踐分散式
- 分散式資料庫技術論壇分散式資料庫
- 【技術解密】SequoiaDB分散式儲存原理解密分散式
- 分散式kv儲存系統之Etcd叢集分散式
- 分散式文件儲存資料庫之MongoDB備份與恢復分散式資料庫MongoDB
- 儲存與資料庫系統資料庫
- Bayou複製分散式儲存系統分散式
- 分散式檔案系統HDFS,大資料儲存實戰(一)分散式大資料
- 崑崙分散式資料庫技術特點分散式資料庫
- 崑崙分散式資料庫技術優勢分散式資料庫
- 聊聊Oracle的分散式資料庫技術Oracle分散式資料庫
- 詳解 Oracle 分散式系統資料複製技術Oracle分散式
- [Oracle]分散式系統的資料複製技術(轉)Oracle分散式
- 崑崙分散式資料庫儲存叢集 Fullsync 機制分散式資料庫
- 淺談分散式儲存系統的資料分佈演算法分散式演算法
- 滴滴Ceph分散式儲存系統優化之鎖優化分散式優化
- 雲端儲存及其分散式檔案系統分散式
- 分散式資料庫系統(DDBS) 概述分散式資料庫
- HDFS分散式儲存的意義及技術解析分散式
- 分散式資料庫技術論壇回顧分散式資料庫
- 華為CloudNative分散式資料庫技術解析Cloud分散式資料庫
- 阿里分散式資料庫未來技術之路阿里分散式資料庫
- Oracle 資料庫分散式技術的探討Oracle資料庫分散式