.net分頁查詢代碼(net 分頁)
Elasticsearch 是一個(gè)實(shí)時(shí)的分布式搜索分析引擎,它的底層是構(gòu)建在Lucene之上的。簡單來說是通過擴(kuò)展Lucene的搜索能力,使其具有分布式的功能。ES通常會(huì)和其它兩個(gè)開源組件logstash(日志采集)和Kibana(儀表盤)一起提供端到端的日志/搜索分析的功能,常常被簡稱為ELK。
Clickhouse是俄羅斯搜索巨頭Yandex開發(fā)的面向列式存儲(chǔ)的關(guān)系型數(shù)據(jù)庫。ClickHouse是過去兩年中OLAP領(lǐng)域中最熱門的,并于2016年開源。
ES是最為流行的大數(shù)據(jù)日志和搜索解決方案,但是近幾年來,它的江湖地位受到了一些挑戰(zhàn),許多公司已經(jīng)開始把自己的日志解決方案從ES遷移到了Clickhouse,這里就包括:攜程,快手等公司。
一、架構(gòu)和設(shè)計(jì)的對比
ES的底層是Lucenc,主要是要解決搜索的問題。搜索是大數(shù)據(jù)領(lǐng)域要解決的一個(gè)常見的問題,就是在海量的數(shù)據(jù)量要如何按照條件找到需要的數(shù)據(jù)。搜索的核心技術(shù)是倒排索引和布隆過濾器。ES通過分布式技術(shù),利用分片與副本機(jī)制,直接解決了集群下搜索性能與高可用的問題。
ElasticSearch是為分布式設(shè)計(jì)的,有很好的擴(kuò)展性,在一個(gè)典型的分布式配置中,每一個(gè)節(jié)點(diǎn)(node)可以配制成不同的角色,如下圖所示:
Client Node,負(fù)責(zé)API和數(shù)據(jù)的訪問的節(jié)點(diǎn),不存儲(chǔ)/處理數(shù)據(jù)。
Data Node,負(fù)責(zé)數(shù)據(jù)的存儲(chǔ)和索引。
Master Node,管理節(jié)點(diǎn),負(fù)責(zé)Cluster中的節(jié)點(diǎn)的協(xié)調(diào),不存儲(chǔ)數(shù)據(jù)。
Client Node,負(fù)責(zé)API和數(shù)據(jù)的訪問的節(jié)點(diǎn),不存儲(chǔ)/處理數(shù)據(jù)。
Data Node,負(fù)責(zé)數(shù)據(jù)的存儲(chǔ)和索引。
Master Node,管理節(jié)點(diǎn),負(fù)責(zé)Cluster中的節(jié)點(diǎn)的協(xié)調(diào),不存儲(chǔ)數(shù)據(jù)。
展開全文
ClickHouse是基于MPP架構(gòu)的分布式ROLAP(關(guān)系OLAP)分析引擎。每個(gè)節(jié)點(diǎn)都有同等的責(zé)任,并負(fù)責(zé)部分?jǐn)?shù)據(jù)處理(不共享任何內(nèi)容)。ClickHouse 是一個(gè)真正的列式數(shù)據(jù)庫管理系統(tǒng)(DBMS)。
在 ClickHouse 中,數(shù)據(jù)始終是按列存儲(chǔ)的,包括矢量(向量或列塊)執(zhí)行的過程。讓查詢變得更快,最簡單且有效的方法是減少數(shù)據(jù)掃描范圍和數(shù)據(jù)傳輸時(shí)的大小,而列式存儲(chǔ)和數(shù)據(jù)壓縮就可以幫助實(shí)現(xiàn)上述兩點(diǎn)。Clickhouse同時(shí)使用了日志合并樹,稀疏索引和CPU功能(如SIMD單指令多數(shù)據(jù))充分發(fā)揮了硬件優(yōu)勢,可實(shí)現(xiàn)高效的計(jì)算。Clickhouse 使用Zookeeper進(jìn)行分布式節(jié)點(diǎn)之間的協(xié)調(diào)。
為了支持搜索,Clickhouse同樣支持布隆過濾器。
二、查詢對比實(shí)戰(zhàn)
為了對比ES和Clickhouse的基本查詢能力的差異,我寫了一些代碼來驗(yàn)證。
這個(gè)測試的架構(gòu)如下:
架構(gòu)主要包括四個(gè)部分。
1、ES stack
ES stack有一個(gè)單節(jié)點(diǎn)的Elastic的容器和一個(gè)Kibana容器組成,Elastic是被測目標(biāo)之一,Kibana作為驗(yàn)證和輔助工具。部署代碼如下:
services:elasticsearch:image: docker.elastic.co/elasticsearch/elasticsearch:7.4.0container_name: elasticsearchenvironment:- xpack.security.enabled=false- discovery.type=single-nodeulimits:memlock:soft: -1hard: -1nofile:soft: 65536hard: 65536cap_add:- IPC_LOCKvolumes:- elasticsearch-data:/usr/share/elasticsearch/dataports:- 9200:9200- 9300:9300deploy:resources:limits:cpus: '4'memory: 4096Mreservations:memory: 4096M
kibana:container_name: kibanaimage: docker.elastic.co/kibana/kibana:7.4.0environment:- ELASTICSEARCH_HOSTS=http://elasticsearch:9200ports:- 5601:5601depends_on:- elasticsearch
volumes:elasticsearch-data:driver: local
2、Clickhouse stack
Clickhouse stack有一個(gè)單節(jié)點(diǎn)的Clickhouse服務(wù)容器和一個(gè)TabixUI作為Clickhouse的客戶端。部署代碼如下:
tabixui:container_name: tabixuiimage: spoonest/clickhouse-tabix-web-clientenvironment:- CH_NAME=dev- CH_HOST=127.0.0.1:8123- CH_LOGIN=defaultports:- "18080:80"depends_on:- clickhousedeploy:resources:limits:cpus: '0.1'memory: 128Mreservations:memory: 128M
3、數(shù)據(jù)導(dǎo)入 stack
數(shù)據(jù)導(dǎo)入部分使用了Vector.dev開發(fā)的vector,該工具和fluentd類似,都可以實(shí)現(xiàn)數(shù)據(jù)管道式的靈活的數(shù)據(jù)導(dǎo)入。
4、測試控制 stack
測試控制我使用了Jupyter,使用了ES和Clickhouse的Python SDK來進(jìn)行查詢的測試。
用Docker compose啟動(dòng)ES和Clickhouse的stack后,我們需要導(dǎo)入數(shù)據(jù),我們利用Vector的generator功能,生成syslog,并同時(shí)導(dǎo)入ES和Clickhouse,在這之前,我們需要在Clickhouse上創(chuàng)建表。ES的索引沒有固定模式,所以不需要事先創(chuàng)建索引。
創(chuàng)建表的代碼如下:
創(chuàng)建好表之后,我們就可以啟動(dòng)vector,向兩個(gè)stack寫入數(shù)據(jù)了。vector的數(shù)據(jù)流水線的定義如下:
[transforms.clone_message]type = "add_fields"inputs = ["in"]fields.raw = "{{ message }}"
[transforms.parser]# Generaltype = "regex_parser"inputs = ["clone_message"]field = "message" # optional, defaultpatterns = ['^(?Ppriority\d*)(?Pversion\d) (?Ptimestamp\d{4}-\d{2}-\d{2}T\d{2}:\d{2}:\d{2}\.\d{3}Z) (?Phostname\w+\.\w+) (?Papplication\w+) (?Ppid\d+) (?PmidID\d+) - (?Pmessage.*)$']
[transforms.coercer]type = "coercer"inputs = ["parser"]types.timestamp = "timestamp"types.version = "int"types.priority = "int"
[sinks.out_console]# Generaltype = "console"inputs = ["coercer"] target = "stdout" # Encodingencoding.codec = "json"
[sinks.out_clickhouse]host = "http://host.docker.internal:8123"inputs = ["coercer"]table = "syslog"type = "clickhouse"
encoding.only_fields = ["application", "hostname", "message", "mid", "pid", "priority", "raw", "timestamp", "version"]encoding.timestamp_format = "unix"
[sinks.out_es]# Generaltype = "elasticsearch"inputs = ["coercer"]compression = "none" endpoint = "http://host.docker.internal:9200" index = "syslog-%F"
# Encoding# Healthcheckhealthcheck.enabled = true
這里簡單介紹一下這個(gè)流水線:
http://source.in 生成syslog的模擬數(shù)據(jù),生成10w條,生成間隔和0.01秒。
transforms.clone_message 把原始消息復(fù)制一份,這樣抽取的信息同時(shí)可以保留原始消息。
transforms.parser 使用正則表達(dá)式,按照syslog的定義,抽取出application,hostname,message ,mid ,pid ,priority ,timestamp ,version 這幾個(gè)字段。
transforms.coercer 數(shù)據(jù)類型轉(zhuǎn)化。
sinks.out_console 把生成的數(shù)據(jù)打印到控制臺,供開發(fā)調(diào)試。
sinks.out_clickhouse 把生成的數(shù)據(jù)發(fā)送到Clickhouse。
sinks.out_es 把生成的數(shù)據(jù)發(fā)送到ES。
運(yùn)行Docker命令,執(zhí)行該流水線:
數(shù)據(jù)導(dǎo)入后,我們針對一下的查詢來做一個(gè)對比。ES使用自己的查詢語言來進(jìn)行查詢,Clickhouse支持SQL,我簡單測試了一些常見的查詢,并對它們的功能和性能做一些比較。
返回所有的記錄
匹配單個(gè)字段
匹配多個(gè)字段
單詞查找,查找包含特定單詞的字段
范圍查詢, 查找版本大于2的記錄
查找到存在某字段的記錄
ES是文檔類型的數(shù)據(jù)庫,每一個(gè)文檔的模式不固定,所以會(huì)存在某字段不存在的情況;而Clickhouse對應(yīng)為字段為空值
正則表達(dá)式查詢,查詢匹配某個(gè)正則表達(dá)式的數(shù)據(jù)
聚合計(jì)數(shù),統(tǒng)計(jì)某個(gè)字段出現(xiàn)的次數(shù)
聚合不重復(fù)的值,查找所有不重復(fù)的字段的個(gè)數(shù)
我用Python的SDK,對上述的查詢在兩個(gè)Stack上各跑10次,然后統(tǒng)計(jì)查詢的性能結(jié)果。
我們畫出出所有的查詢的響應(yīng)時(shí)間的分布:
總查詢時(shí)間的對比如下:
通過測試數(shù)據(jù)我們可以看出Clickhouse在大部分的查詢的性能上都明顯要優(yōu)于Elastic。在正則查詢(Regex query)和單詞查詢(Term query)等搜索常見的場景下,也并不遜色。
在聚合場景下,Clickhouse表現(xiàn)異常優(yōu)秀,充分發(fā)揮了列村引擎的優(yōu)勢。
我的測試并沒有任何優(yōu)化,對于Clickhouse也沒有打開布隆過濾器??梢奀lickhouse確實(shí)是一款非常優(yōu)秀的數(shù)據(jù)庫,可以用于某些搜索的場景。當(dāng)然ES還支持非常豐富的查詢功能,這里只有一些非?;镜牟樵儯行┎樵兛赡艽嬖跓o法用SQL表達(dá)的情況。
三、總結(jié)
本文通過對于一些基本查詢的測試,對比了Clickhouse 和Elasticsearch的功能和性能,測試結(jié)果表明,Clickhouse在這些基本場景表現(xiàn)非常優(yōu)秀,性能優(yōu)于ES,這也解釋了為什么有很多的公司應(yīng)從ES切換到Clickhouse之上。
來源:https://zhuanlan.zhihu.com/p/353296392
了解下大型企業(yè)是如何建設(shè) DevOps、BizDevOps、AIOps、SRE的,10月26-27日,GOPS 全球運(yùn)維大會(huì) 2023 · 上海站,期待與您共同成長~
數(shù)字化浪潮,數(shù)據(jù)中心場景下的數(shù)字孿生該如何探索與實(shí)踐 “高效運(yùn)維”公 眾號誠邀廣大技術(shù)人員投稿投稿郵箱: jiachen@greatops.net,或添加聯(lián)系人微信:greatops1118。
點(diǎn)個(gè)“在看”,一年不宕機(jī)
掃描二維碼推送至手機(jī)訪問。
版權(quán)聲明:本文由飛速云SEO網(wǎng)絡(luò)優(yōu)化推廣發(fā)布,如需轉(zhuǎn)載請注明出處。