hbase大規模資料寫入的優化歷程
業務背景:由於需要將ngix日誌過濾出來的1億+條使用者行為記錄存入Hbase資料庫,以此根據一定的條件來提供近實時查詢,比如根據使用者id及一定的時間段等條件來過濾符合要求的若干行為記錄,滿足這一場景的技術包括:Solr,Elasticsearch,hbase等,在此選用了Hbase來實踐。
step 1 :
直接hbase建表,然後讀取記錄檔案逐條寫入Hbase。由於hbase實際的寫入速度遠遠小於我的提交速度,在寫入了1700條記錄後,hbase出現了當機,提交後無響應。檢視hbase日誌,出現 out of memory異常。
step 2:
考慮在建表的時候沒有進行預分割槽,因此寫入的時候會存在熱點寫的問題,同時資料持續增長,需要不斷的對region進行split,實際上這一步相當消耗資源。因此對要寫入的Hbase表重新預分割槽。好在上一步驟中寫入的資料不多,因此直接刪除表和資料後重新建表並預分割槽:
create 'user_actions', {NAME => 'info', VERSIONS=> 3},{SPLITS => ['130','140','160','170','180']}
設計預分割槽的時候需要有個預判,rowkey的範圍及在各個區間的可能分佈情況,由於我這裡的rowkey是組合使用者的註冊電話/時間及其他欄位,因此上述的預分割槽,可以將記錄較好的雜湊在各個region上,對熱點寫有一定的減緩作用。
同時,針對out of memory異常,修改hbase配置檔案/conf/hbase-site.xml,將hbase的堆記憶體增加到3GB(條件有限,如果硬體條件好的話,可以增加到4-8GB)。
繼續寫入,但是寫入速度很慢,維持在數百條/秒的樣子,同時寫入了20幾萬條後響應速度越來越慢。
STEP 3:
上述問題的根源在於高頻提交小資料,導致Hbase疲於建立執行緒並進行資源的回收,最終甚至會出現當機。
之後,將單條put到Hbase改為一次put多條記錄到hbase,即批量提交,同時限制一秒內提交的頻次。最後順利寫入。由於hbase叢集只有三臺機器(一臺master,2臺slave),進過上述優化後,寫入速度基本維持在1w-2w條/秒的水平,基本滿足需要了。
總結:在hbase涉及一次性寫入大量資料時,有幾個地方可以考慮進行優化:(1)建表的同時進行預分割槽 (2)修改Hbase本身的配置(能夠優化寫入和讀取的配置項遠不止修改堆記憶體這一項,在此不表了)
(3)儘量使用批量寫入的方法,同樣的道理,讀取的時候,使用批量讀的方法 (4)網路IO/磁碟IO
除了批量Put外,Hbase還支援Hfiles方式匯入:
STEP 1:
將要匯入的資料預生成hfiles檔案。
STEP 2:
使用Hbase的BulkLoad方式將Hfile檔案批量匯入Hbase。
相關文章
- 運籌優化(十三)--大規模優化方法優化
- HBase BulkLoad批量寫入資料實戰
- 效能提升 48 倍! python redis 批量寫入大量資料優化過程PythonRedis優化
- AppDelegate模組化歷程APP
- HBase資料的讀寫流程
- etcd 在超大規模資料場景下的效能優化優化
- 資料視覺化,BizCharts圖表庫入坑歷程視覺化
- 大規模服務網格效能優化 | Aeraki xDS 按需載入優化
- 實時資料併發寫入 Redis 優化Redis優化
- Hbase優化優化
- Javascript模組化的演進歷程JavaScript
- Redis資料匯入工具優化過程總結Redis優化
- 攀登規模化的高峰 - 螞蟻集團大規模 Sigma 叢集 ApiServer 優化實踐APIServer優化
- 大資料系列 1:大資料技術發展歷程大資料
- MySQL的寫入資料儲存過程MySql儲存過程
- javascript模組化發展歷程JavaScript
- 前端模組化發展歷程 (-)前端
- MapReduce之----往hbase資料庫寫入資料時, 出現資料異常資料庫
- PHP大資料xlswriter匯入匯出(最優資料化)PHP大資料
- Elasticsearch高併發寫入優化的開源協同經歷Elasticsearch優化
- HBase寫吞吐場景資源消耗量化分析及優化優化
- HBase 寫吞吐場景資源消耗量化分析及優化優化
- 記寫 android 微信登入的demo歷程Android
- 大資料——HBase基礎大資料
- 大資料技術 - Hbase大資料
- 一次資料庫的優化經歷資料庫優化
- MySQL資料寫入過程介紹MySql
- HBase資料庫效能調優OW資料庫
- HBase查詢優化優化
- 入門大資料---大資料調優彙總大資料
- 資料匯入終章:如何將HBase的資料匯入HDFS?
- ES寫入效能優化優化
- vueTable大資料展示優化Vue大資料優化
- Criteo在大規模資料工程最佳化上經驗 - Nam
- 美萊:整形大資料揭祕中國人“顏值進化”歷程大資料
- Serverless 在大規模資料處理的實踐Server
- 資料庫 三大正規化資料庫
- 資料庫三大正規化資料庫
- Apache DolphinScheduler大規模任務排程系統對大資料實時Flink任務支援Apache大資料