ES 不香嗎,為啥還要 ClickHouse?
來源:
Elasticsearch 是一個實時的分散式搜尋分析引擎,它的底層是構建在Lucene之上的。簡單來說是透過擴充套件Lucene的搜尋能力,使其具有分散式的功能。ES通常會和其它兩個開源元件logstash(日誌採集)和Kibana(儀表盤)一起提供端到端的日誌/搜尋分析的功能,常常被簡稱為ELK。
Clickhouse是俄羅斯搜尋巨頭Yandex開發的面向列式儲存的關係型資料庫。ClickHouse是過去兩年中OLAP領域中最熱門的,並於2016年開源。
ES是最為流行的大資料日誌和搜尋解決方案,但是近幾年來,它的江湖地位受到了一些挑戰,許多公司已經開始把自己的日誌解決方案從ES遷移到了Clickhouse,這裡就包括:攜程,快手等公司。
架構和設計的對比
ES的底層是Lucenc,主要是要解決搜尋的問題。搜尋是大資料領域要解決的一個常見的問題,就是在海量的資料量要如何按照條件找到需要的資料。搜尋的核心技術是倒排索引和布隆過濾器。ES透過分散式技術,利用分片與副本機制,直接解決了叢集下搜尋效能與高可用的問題。
ElasticSearch是為分散式設計的,有很好的擴充套件性,在一個典型的分散式配置中,每一個節點(node)可以配製成不同的角色,如下圖所示:
Client Node,負責API和資料的訪問的節點,不儲存/處理資料 Data Node,負責資料的儲存和索引 Master Node, 管理節點,負責Cluster中的節點的協調,不儲存資料。
ClickHouse是基於MPP架構的分散式ROLAP(關係OLAP)分析引擎。每個節點都有同等的責任,並負責部分資料處理(不共享任何內容)。ClickHouse 是一個真正的列式資料庫管理系統(DBMS)。在 ClickHouse 中,資料始終是按列儲存的,包括向量(向量或列塊)執行的過程。關注工眾號:碼猿技術專欄,回覆關鍵詞:1111 獲取阿里內部Java效能調優手冊!讓查詢變得更快,最簡單且有效的方法是減少資料掃描範圍和資料傳輸時的大小,而列式儲存和資料壓縮就可以幫助實現上述兩點。Clickhouse同時使用了日誌合併樹,稀疏索引和CPU功能(如SIMD單指令多資料)充分發揮了硬體優勢,可實現高效的計算。Clickhouse 使用Zookeeper進行分散式節點之間的協調。
為了支援搜尋,Clickhouse同樣支援布隆過濾器。
查詢對比實戰
為了對比ES和Clickhouse的基本查詢能力的差異,我寫了一些程式碼()來驗證。
這個測試的架構如下:
架構主要有四個部分組成:
ES stack ES stack有一個單節點的Elastic的容器和一個Kibana容器組成,Elastic是被測目標之一,Kibana作為驗證和輔助工具。部署程式碼如下:
version: '3.7'
services:
elasticsearch:
image: docker.elastic.co/elasticsearch/elasticsearch:7.4.0
container_name: elasticsearch
environment:
- xpack.security.enabled=false
- discovery.type=single-node
ulimits:
memlock:
soft: -1
hard: -1
nofile:
soft: 65536
hard: 65536
cap_add:
- IPC_LOCK
volumes:
- elasticsearch-data:/usr/share/elasticsearch/data
ports:
- 9200:9200
- 9300:9300
deploy:
resources:
limits:
cpus: '4'
memory: 4096M
reservations:
memory: 4096M
kibana:
container_name: kibana
image: docker.elastic.co/kibana/kibana:7.4.0
environment:
- ELASTICSEARCH_HOSTS=
ports:
- 5601:5601
depends_on:
- elasticsearch
volumes:
elasticsearch-data:
driver: local
Clickhouse stack Clickhouse stack有一個單節點的Clickhouse服務容器和一個TabixUI作為Clickhouse的客戶端。部署程式碼如下:
version: "3.7"
services:
clickhouse:
container_name: clickhouse
image: yandex/clickhouse-server
volumes:
- ./data/config:/var/lib/clickhouse
ports:
- "8123:8123"
- "9000:9000"
- "9009:9009"
- "9004:9004"
ulimits:
nproc: 65535
nofile:
soft: 262144
hard: 262144
healthcheck:
test: ["CMD", "wget", "--spider", "-q", "localhost:8123/ping"]
interval: 30s
timeout: 5s
retries: 3
deploy:
resources:
limits:
cpus: '4'
memory: 4096M
reservations:
memory: 4096M
tabixui:
container_name: tabixui
image: spoonest/clickhouse-tabix-web-client
environment:
- CH_NAME=dev
- CH_HOST=127.0.0.1:8123
- CH_LOGIN=default
ports:
- "18080:80"
depends_on:
- clickhouse
deploy:
resources:
limits:
cpus: '0.1'
memory: 128M
reservations:
memory: 128M
資料匯入 stack 資料匯入部分使用了Vector.dev開發的vector,該工具和fluentd類似,都可以實現資料管道式的靈活的資料匯入。 測試控制 stack 測試控制我使用了Jupyter,使用了ES和Clickhouse的Python SDK來進行查詢的測試。
用Docker compose啟動ES和Clickhouse的stack後,我們需要匯入資料,我們利用Vector的generator功能,生成syslog,並同時匯入ES和Clickhouse,在這之前,我們需要在Clickhouse上建立表。ES的索引沒有固定模式,所以不需要事先建立索引。關注工眾號:碼猿技術專欄,回覆關鍵詞:1111 獲取阿里內部Java效能調優手冊!
建立表的程式碼如下:
CREATE TABLE default.syslog(
application String,
hostname String,
message String,
mid String,
pid String,
priority Int16,
raw String,
timestamp DateTime('UTC'),
version Int16
) ENGINE = MergeTree()
PARTITION BY toYYYYMMDD(timestamp)
ORDER BY timestamp
TTL timestamp + toIntervalMonth(1);
建立好表之後,我們就可以啟動vector,向兩個stack寫入資料了。vector的資料流水線的定義如下:
[sources.in]
type = "generator"
format = "syslog"
interval = 0.01
count = 100000
[transforms.clone_message]
type = "add_fields"
inputs = ["in"]
fields.raw = "{{ message }}"
[transforms.parser]
# General
type = "regex_parser"
inputs = ["clone_message"]
field = "message" # optional, default
patterns = ['^<(?P<priority>\d*)>(?P<version>\d) (?P<timestamp>\d{4}-\d{2}-\d{2}T\d{2}:\d{2}:\d{2}\.\d{3}Z) (?P<hostname>\w+\.\w+) (?P<application>\w+) (?P<pid>\d+) (?P<mid>ID\d+) - (?P<message>.*)$']
[transforms.coercer]
type = "coercer"
inputs = ["parser"]
types.timestamp = "timestamp"
types.version = "int"
types.priority = "int"
[sinks.out_console]
# General
type = "console"
inputs = ["coercer"]
target = "stdout"
# Encoding
encoding.codec = "json"
[sinks.out_clickhouse]
host = "
inputs = ["coercer"]
table = "syslog"
type = "clickhouse"
encoding.only_fields = ["application", "hostname", "message", "mid", "pid", "priority", "raw", "timestamp", "version"]
encoding.timestamp_format = "unix"
[sinks.out_es]
# General
type = "elasticsearch"
inputs = ["coercer"]
compression = "none"
endpoint = "
index = "syslog-%F"
# Encoding
# Healthcheck
healthcheck.enabled = true
這裡簡單介紹一下這個流水線:
生成syslog的模擬資料,生成10w條,生成間隔和0.01秒 transforms.clone_message 把原始訊息複製一份,這樣抽取的資訊同時可以保留原始訊息 transforms.parser 使用正規表示式,按照syslog的定義,抽取出application,hostname,message ,mid ,pid ,priority ,timestamp ,version 這幾個欄位 transforms.coercer 資料型別轉化 sinks.out_console 把生成的資料列印到控制檯,供開發除錯 sinks.out_clickhouse 把生成的資料傳送到Clickhouse sinks.out_es 把生成的資料傳送到ES
執行Docker命令,執行該流水線:
docker run \
-v $(mkfile_path)/vector.toml:/etc/vector/vector.toml:ro \
-p 18383:8383 \
timberio/vector:nightly-alpine
資料匯入後,我們針對一下的查詢來做一個對比。ES使用自己的查詢語言來進行查詢,Clickhouse支援SQL,我簡單測試了一些常見的查詢,並對它們的功能和效能做一些比較。
返回所有的記錄
# ES
{
"query":{
"match_all":{}
}
}
# Clickhouse
"SELECT * FROM syslog"
匹配單個欄位
# ES
{
"query":{
"match":{
"hostname":"for.org"
}
}
}
# Clickhouse
"SELECT * FROM syslog WHERE hostname='for.org'"
匹配多個欄位
# ES
{
"query":{
"multi_match":{
"query":"up.com ahmadajmi",
"fields":[
"hostname",
"application"
]
}
}
}
# Clickhouse、
"SELECT * FROM syslog WHERE hostname='for.org' OR application='ahmadajmi'"
單詞查詢,查詢包含特定單詞的欄位
# ES
{
"query":{
"term":{
"message":"pretty"
}
}
}
# Clickhouse
"SELECT * FROM syslog WHERE lowerUTF8(raw) LIKE '%pretty%'"
範圍查詢, 查詢版本大於2的記錄
# ES
{
"query":{
"range":{
"version":{
"gte":2
}
}
}
}
# Clickhouse
"SELECT * FROM syslog WHERE version >= 2"
查詢到存在某欄位的記錄
ES是文件型別的資料庫,每一個文件的模式不固定,所以會存在某欄位不存在的情況;而Clickhouse對應為欄位為空值
# ES
{
"query":{
"exists":{
"field":"application"
}
}
}
# Clickhouse
"SELECT * FROM syslog WHERE application is not NULL"
正規表示式查詢,查詢匹配某個正規表示式的資料
# ES
{
"query":{
"regexp":{
"hostname":{
"value":"up.*",
"flags":"ALL",
"max_determinized_states":10000,
"rewrite":"constant_score"
}
}
}
}
# Clickhouse
"SELECT * FROM syslog WHERE match(hostname, 'up.*')"
聚合計數,統計某個欄位出現的次數
# ES
{
"aggs":{
"version_count":{
"value_count":{
"field":"version"
}
}
}
}
# Clickhouse
"SELECT count(version) FROM syslog"
聚合不重複的值,查詢所有不重複的欄位的個數
# ES
{
"aggs":{
"my-agg-name":{
"cardinality":{
"field":"priority"
}
}
}
}
# Clickhouse
"SELECT count(distinct(priority)) FROM syslog "
我用Python的SDK,對上述的查詢在兩個Stack上各跑10次,然後統計查詢的效能結果。
我們畫出出所有的查詢的響應時間的分佈:
總查詢時間的對比如下:
透過測試資料我們可以看出Clickhouse在大部分的查詢的效能上都明顯要優於Elastic。在正則查詢(Regex query)和單詞查詢(Term query)等搜尋常見的場景下,也並不遜色。
在聚合場景下,Clickhouse表現異常優秀,充分發揮了列村引擎的優勢。
注意,我的測試並沒有任何最佳化,對於Clickhouse也沒有開啟布隆過濾器。可見Clickhouse確實是一款非常優秀的資料庫,可以用於某些搜尋的場景。當然ES還支援非常豐富的查詢功能,這裡只有一些非常基本的查詢,有些查詢可能存在無法用SQL表達的情況。
總結
本文透過對於一些基本查詢的測試,對比了Clickhouse 和Elasticsearch的功能和效能,測試結果表明,Clickhouse在這些基本場景表現非常優秀,效能優於ES,這也解釋了為什麼用很多的公司應從ES切換到Clickhouse之上。
來源:
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/70027827/viewspace-2947015/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 你還不會ES的CUD嗎?
- 2020年了,IT外企還香嗎?
- 騰訊獨代不香了嗎?
- 不寫情書,程式設計師還要學寫作嗎?程式設計師
- 16年之後,《牧場物語》它還香嗎?
- 懶得寫文件,swagger文件匯出來不香嗎Swagger
- 2021年Java還值得學嗎?能做些啥?Java
- 實體類為啥要序列化
- 為啥要繼承一個空介面繼承
- 別瞎寫工具類了,Spring自帶的不香嗎?Spring
- 你說啥什麼?註解你還不會?
- 用費曼技巧學程式設計,香不香?程式設計
- Ubuntu linux 為啥要開始選擇ubuntu LINUXUbuntuLinux
- mysql索引為啥要選擇B+樹 (下)MySql索引
- mysql索引為啥要選擇B+樹 (上)MySql索引
- 還在為影像訓練資料少發愁嗎?那是因為你還不會這幾招
- ClickHouse與ES的優劣對比
- 別再這麼寫程式碼了,這幾個方法不香嗎?
- IBM:AI不僅要合規, 還要合乎道德(附下載)IBMAI
- IT圈兒最香的工種,將會是啥?
- 面試 (MySQL 索引為啥要選擇 B+ 樹)面試MySql索引
- 為什麼還要記密碼密碼
- 為啥win10不推薦用火絨 win10有必要安裝火絨嗎Win10
- 【clickhouse專欄】clickhouse效能為何如此卓越
- Swagger 3.0 天天刷屏,真的香嗎?Swagger
- 年底了!你還在為年度總結掉頭髮嗎?那還不趕緊學起來~
- 2020年Java前景如何?入行IT為啥還首選JavaJava
- 你還用ES存請求日誌?ClickHouse+Vector打造最強Grafana日誌分析看板Grafana
- 蘋果下架iPhone 8全系 iPhone SE到底香不香?蘋果iPhone
- 為什麼有了 HTTP 還要 RPCHTTPRPC
- Linux作業系統好學嗎?Linux運維要先學些啥?Linux作業系統運維
- 已知人工智慧不會接管世界,為什麼還要繼續關注它?人工智慧
- 駭客眼中的“香餑餑”:API攻擊為啥盛行,企業應該如何防範?API
- 996工作制,還要抽時間提升自己嗎?996
- 還在期待安卓9.0嗎?Android 10.0要來了安卓Android
- 03-為啥大模型LLM還沒能完全替代你?大模型
- 企業資訊化建設,花小錢匯入開源ERP不香嗎?
- 想學Java要啥基礎?Java