Python使用ClickHouse的實踐與踩坑記錄

佚名發表於2022-05-17

clickhouse是近年來備受關注的開源列式資料庫(dbms),主要用於資料聯機分析(olap)領域,於2016年開源。目前國內社群火熱,各個大廠紛紛跟進大規模使用。

  • 今日頭條,內部用clickhouse來做使用者行為分析,內部一共幾千個clickhouse節點,單叢集最大1200節點,總資料量幾十pb,日增原始資料300tb左右。
  • 騰訊內部用clickhouse做遊戲資料分析,並且為之建立了一整套監控運維體系。
  • 攜程內部從2018年7月份開始接入試用,目前80%的業務都跑在clickhouse上。每天資料增量十多億,近百萬次查詢請求。
  • 快手內部也在使用clickhouse,儲存總量大約10pb, 每天新增200tb, 90%查詢小於3s。

在國外,yandex內部有數百節點用於做使用者點選行為分析,cloudflare、spotify等頭部公司也在使用。

clickhouse最初是為 yandexmetrica 世界第二大web分析平臺 而開發的。多年來一直作為該系統的核心元件被該系統持續使用著。

1. 關於clickhouse使用實踐

首先,我們回顧一些基礎概念:

  • oltp:是傳統的關係型資料庫,主要操作增刪改查,強調事務一致性,比如銀行系統、電商系統。
  • olap:是倉庫型資料庫,主要是讀取資料,做複雜資料分析,側重技術決策支援,提供直觀簡單的結果。

1.1. clickhouse 應用於資料倉儲場景

clickhouse做為列式資料庫,列式資料庫更適合olap場景,olap場景的關鍵特徵:

  • 絕大多數是讀請求
  • 資料以相當大的批次(> 1000行)更新,而不是單行更新;或者根本沒有更新。
  • 已新增到資料庫的資料不能修改。
  • 對於讀取,從資料庫中提取相當多的行,但只提取列的一小部分。
  • 寬表,即每個表包含著大量的列
  • 查詢相對較少(通常每臺伺服器每秒查詢數百次或更少)
  • 對於簡單查詢,允許延遲大約50毫秒
  • 列中的資料相對較小:數字和短字串(例如,每個url 60個位元組)
  • 處理單個查詢時需要高吞吐量(每臺伺服器每秒可達數十億行)
  • 事務不是必須的
  • 對資料一致性要求低
  • 每個查詢有一個大表。除了他以外,其他的都很小。
  • 查詢結果明顯小於源資料。換句話說,資料經過過濾或聚合,因此結果適合於單個伺服器的ram中

1.2. 客戶端工具dbeaver

clickhouse客戶端工具為dbeaver,官網為https://dbeaver.io/。

  • dbeaver是免費和開源(gpl)為開發人員和資料庫管理員通用資料庫工具。[百度百科]
  • 易用性是該專案的主要目標,是經過精心設計和開發的資料庫管理工具。免費、跨平臺、基於開源框架和允許各種擴充套件寫作(外掛)。
  • 它支援任何具有一個jdbc驅動程式資料庫。
  • 它可以處理任何的外部資料來源。

透過操作介面選單中“資料庫”建立配置新連線,如下圖所示,選擇並下載clickhouse驅動(預設不帶驅動)。

在這裡插入圖片描述

dbeaver配置是基於jdbc方式,一般預設url和埠如下:

jdbc:clickhouse://192.168.17.61:8123

如下圖所示。

在是用dbeaver連線clickhouse做查詢時,有時候會出現連線或查詢超時的情況,這個時候可以在連線的引數中新增設定socket_timeout引數來解決問題。

jdbc:clickhouse://{host}:{port}[/{database}]?socket_timeout=600000

在這裡插入圖片描述

1.3. 大資料應用實踐

  • 環境簡要說明:
  • 硬體資源有限,僅有16g記憶體,交易資料為億級。

本應用是某交易大資料,主要包括交易主表、相關客戶資訊、物料資訊、歷史價格、優惠及積分資訊等,其中主交易表為自關聯樹狀表結構。

為了分析客戶交易行為,在有限資源的條件下,按日和交易點抽取、彙集交易明細為交易記錄,如下圖所示。

在這裡插入圖片描述

其中,在clickhouse上,交易資料結構由60個列(欄位)組成,擷取部分如下所示:

在這裡插入圖片描述

針對頻繁出現“would use 10.20 gib , maximum: 9.31 gib”等記憶體不足的情況,基於clickhouse的sql,編寫了提取聚合資料集sql語句,如下所示。

在這裡插入圖片描述

大約60s返回結果,如下所示:

在這裡插入圖片描述

2. python使用clickhouse實踐

2.1. clickhouse第三方python驅動clickhouse_driver

clickhouse沒有提供官方python介面驅動,常用第三方驅動介面為clickhouse_driver,可以使用pip方式安裝,如下所示:

pip install clickhouse_driver
collecting clickhouse_driver
  downloading https://files.pythonhosted.org/packages/88/59/c570218bfca84bd0ece896c0f9ac0bf1e11543f3c01d8409f5e4f801f992/clickhouse_driver-0.2.1-cp36-cp36m-win_amd64.whl (173kb)
    100% |████████████████████████████████| 174kb 27kb/s
collecting tzlocal<3.0 (from clickhouse_driver)
  downloading https://files.pythonhosted.org/packages/5d/94/d47b0fd5988e6b7059de05720a646a2930920fff247a826f61674d436ba4/tzlocal-2.1-py2.py3-none-any.whl
requirement already satisfied: pytz in d:\python\python36\lib\site-packages (from clickhouse_driver) (2020.4)
installing collected packages: tzlocal, clickhouse-driver
successfully installed clickhouse-driver-0.2.1 tzlocal-2.1

使用的client api不能用了,報錯如下:

file "clickhouse_driver\varint.pyx", line 62, in clickhouse_driver.varint.read_varint

file "clickhouse_driver\bufferedreader.pyx", line 55, in clickhouse_driver.bufferedreader.bufferedreader.read_one

file "clickhouse_driver\bufferedreader.pyx", line 240, in clickhouse_driver.bufferedreader.bufferedsocketreader.read_into_buffer

eoferror: unexpected eof while reading bytes

python驅動使用clickhouse埠9000

clickhouse伺服器和客戶端之間的通訊有兩種協議:http(埠8123)和本機(埠9000)。dbeaver驅動配置使用jdbc驅動方式,埠為8123。

clickhouse介面返回資料型別為元組,也可以返回pandas的dataframe,本文程式碼使用的為返回dataframe。

collection = self.client.query_dataframe(self.query_sql)

2.2. 實踐程式程式碼

由於我本機最初資源為8g記憶體(現擴到16g),以及實際可操作性,分批次取資料儲存到多個檔案中,每個檔案大約為1g。

# -*- coding: utf-8 -*-
'''
created on 2021年3月1日
@author: xiaoyw
'''
import pandas as pd
import json
import numpy as np
import datetime
from clickhouse_driver import client
#from clickhouse_driver import connect
# 基於clickhouse資料庫基礎資料物件類
class db_obj(object):
    '''
    192.168.17.61:9000
    ebd_all_b04.card_tbl_trade_m_orc
    '''
    def __init__(self, db_name):
        self.db_name = db_name
        host='192.168.17.61' #伺服器地址
        port ='9000' #'8123' #埠
        user='***' #使用者名稱
        password='***' #密碼
        database=db_name #資料庫
        send_receive_timeout = 25 #超時時間
        self.client = client(host=host, port=port, database=database) #, send_receive_timeout=send_receive_timeout)
        #self.conn = connect(host=host, port=port, database=database) #, send_receive_timeout=send_receive_timeout)
         
    def setpricetable(self,df):
        self.pricetable = df
    def get_trade(self,df_trade,filename):         
        print('trade join price!')
        df_trade = pd.merge(left=df_trade,right=self.pricetable[['occurday','dim_date','end_date','v_0','v_92','v_95','zde_0','zde_92',
                              'zde_95']],how="left",on=['occurday'])
        df_trade.to_csv(filename,mode='a',encoding='utf-8',index=false)
    def get_datas(self,query_sql):         
        n = 0 # 累計處理卡客戶資料
        k = 0 # 取每次dataframe資料量
        batch = 100000 #100000 # 分批次處理
        i = 0 # 檔案標題順序累加
        flag=true # 資料處理解釋標誌
        filename = 'card_trade_all_{}.csv'
        while flag:
            self.query_sql = query_sql.format(n, n+batch)
            print('query started')
            collection = self.client.query_dataframe(self.query_sql)
            print('return query result')
            df_trade = collection #pd.dataframe(collection)
             
            i=i+1
            k = len(df_trade)
            if k > 0:
                self.get_trade(df_trade, filename.format(i))
             
            n = n + batch
            if k == 0:
                flag=false       
            print('completed ' + str(k) + 'trade details!')
            print('usercard count ' + str(n) )   
                
        return n               
# 價格變動資料集
class price_table(object):
    def __init__(self, cityname, startdate):
        self.cityname = cityname
        self.startdate = startdate
        self.filename = 'price20210531.csv'
         
    def get_price(self):
        df_price = pd.read_csv(self.filename)
        ......
            self.price_table=self.price_table.append(data_dict, ignore_index=true)   
             
        print('generate price table!')  
class cardtradedb(object):
    def __init__(self,db_obj):
        self.db_obj = db_obj
         
    def insertdatasbycsv(self,filename):
        # 存在資料混合型別
        df = pd.read_csv(filename,low_memory=false)
         
    # 獲取交易記錄   
    def gettradedatasbyid(self,id_list=none):
        # 字串過長,需要使用'''
        query_sql = '''select c.carduser_id,c.org_id,c.cardasn,c.occurday as
                ......
                limit {},{})
                group by c.carduser_id,c.org_id,c.cardasn,c.occurday
                order by c.carduser_id,c.occurday'''
         
         
        n = self.db_obj.get_datas(query_sql)
         
        return n
                     
if __name__ == '__main__':
    ptable = price_table('湖北','2015-12-01')  
    ptable.get_price() 
     
    db_obj = db_obj('ebd_all_b04')
    db_obj.setpricetable(ptable.price_table)
    ctd = cardtradedb(db_obj)
    df = ctd.gettradedatasbyid()

返回本地檔案為:

在這裡插入圖片描述

3. 小結一下

clickhouse在olap場景下應用,查詢速度非常快,需要大記憶體支援。python第三方clickhouse-driver 驅動基本滿足資料處理需求,如果能返回pandas dataframe最好。

clickhouse和pandas聚合都是非常快的,clickhouse聚合函式也較為豐富(例如文中anylast(x)返回最後遇到的值),如果能透過sql聚合的,還是在clickhouse中完成比較理想,把更小的結果集反饋給python進行機器學習。

操作clickhouse刪除指定資料

def info_del2(i):
    client = click_client(host='地址', port=埠, user='使用者名稱', password='密碼',
                          database='資料庫')
    sql_detail='alter table ss_goods_order_all delete where order_id='+str(i)+';'
    try:
        client.execute(sql_detail)
    except exception as e:
        print(e,'刪除商品資料失敗')

在進行資料刪除的時候,python操作clickhou和MySQL的方式不太一樣,這裡不能使用以往常用的%s然後新增資料的方式,必須完整的編輯一條語句,如同上面方法所寫的一樣,傳進去的引數統一使用str型別

以上為個人經驗,希望能給大家一個參考,也希望大家多多支援

相關文章