人妖在线一区,国产日韩欧美一区二区综合在线,国产啪精品视频网站免费,欧美内射深插日本少妇

新聞動態(tài)

以示例講解Clickhouse Docker集群部署以及配置

發(fā)布日期:2021-12-13 19:24 | 文章來源:CSDN

寫在前面

抽空來更新一下大數(shù)據(jù)的玩意兒了,起初架構(gòu)選型的時候有考慮Hadoop那一套做數(shù)倉,但是Hadoop要求的服務(wù)器數(shù)量有點高,集群至少6臺或以上,所以選擇了Clickhouse(后面簡稱CH)。CH做集群的話,3臺服務(wù)器起步就可以的,當(dāng)然,不是硬性,取決于你的zookeeper做不做集群,其次CH性能更強大,對于量不是非常巨大的場景來說,單機已經(jīng)足夠應(yīng)對OLAP多種場景了。

進入正題,相關(guān)環(huán)境:

IP 服務(wù)器名 操作系統(tǒng) 服務(wù) 備注
172.192.13.10 server01 Ubuntu20.04 兩個Clickhouse實例、Zookeeper

CH實例1端口:tcp 9000, http 8123, 同步端口9009,MySQL 9004, 類型: 主分片1

CH實例2端口:tcp 9000, http 8124, 同步端口9010,MySQL 9005, 類型: server02的副本

172.192.13.11 server02 Ubuntu20.04 兩個Clickhouse實例、Zookeeper

CH實例3端口:tcp 9000, http 8123, 同步端口9009,MySQL 9004, 類型: 主分片2

CH實例4端口:tcp 9000, http 8124, 同步端口9010,MySQL 9005, 類型: server03的副本

172.192.13.12 server03 Ubuntu20.04 兩個Clickhouse實例、Zookeeper

CH實例5端口:tcp 9000, http 8123, 同步端口9009,MySQL 9004, 類型: 主分片3

CH實例6端口:tcp 9000, http 8124, 同步端口9010,MySQL 9005, 類型: server01的副本

在每一臺服務(wù)上都安裝docker,docker里面分別安裝有3個服務(wù):ch-main,ch-sub,zookeeper_node,如圖所示:

細心的已經(jīng)看到,PORTS沒有映射關(guān)系,這里是使用Docker host網(wǎng)絡(luò)模式,模式簡單并且性能高,避免了很多容器間或跨服務(wù)器的通信問題,這個踩了很久。

環(huán)境部署

1. 服務(wù)器環(huán)境配置

在每一臺服務(wù)器上執(zhí)行:vim /etc/hosts,打開hosts之后新增配置:

172.192.13.10 server01
172.192.13.11 server02
172.192.13.12 server03

2.安裝docker

太簡單,略...

3.拉取clickhouse、zookeeper鏡像

太簡單,略...

Zookeeper集群部署

在每個服務(wù)器上你想存放的位置,新建一個文件夾來存放zk的配置信息,這里是/usr/soft/zookeeper/,在每個服務(wù)器上依次運行以下啟動命令:

server01執(zhí)行:

docker run -d -p 2181:2181 -p 2888:2888 -p 3888:3888 --name zookeeper_node --restart always \
-v /usr/soft/zookeeper/data:/data \
-v /usr/soft/zookeeper/datalog:/datalog \
-v /usr/soft/zookeeper/logs:/logs \
-v /usr/soft/zookeeper/conf:/conf \
--network host  \
-e ZOO_MY_ID=1  zookeeper

server02執(zhí)行:

docker run -d -p 2181:2181 -p 2888:2888 -p 3888:3888 --name zookeeper_node --restart always \
-v /usr/soft/zookeeper/data:/data \
-v /usr/soft/zookeeper/datalog:/datalog \
-v /usr/soft/zookeeper/logs:/logs \
-v /usr/soft/zookeeper/conf:/conf \
--network host  \
-e ZOO_MY_ID=2  zookeeper

server03執(zhí)行:

docker run -d -p 2181:2181 -p 2888:2888 -p 3888:3888 --name zookeeper_node --restart always \
-v /usr/soft/zookeeper/data:/data \
-v /usr/soft/zookeeper/datalog:/datalog \
-v /usr/soft/zookeeper/logs:/logs \
-v /usr/soft/zookeeper/conf:/conf \
--network host  \
-e ZOO_MY_ID=3  zookeeper

唯一的差別是:-e ZOO_MY_ID=*而已。

其次,每臺服務(wù)上打開/usr/soft/zookeeper/conf路徑,找到zoo.cfg配置文件,修改為:

dataDir=/data
dataLogDir=/datalog
tickTime=2000
initLimit=5
syncLimit=2
clientPort=2181
autopurge.snapRetainCount=3
autopurge.purgeInterval=0
maxClientCnxns=60
server.1=172.192.13.10:2888:3888
server.2=172.192.13.11:2888:3888
server.3=172.192.13.12:2888:3888

然后進入其中一臺服務(wù)器,進入zk查看是否配置啟動成功:

docker exec -it zookeeper_node /bin/bash
./bin/zkServer.sh status

Clickhouse集群部署

1.臨時鏡像拷貝出配置  

運行一個臨時容器,目的是為了將配置、數(shù)據(jù)、日志等信息存儲到宿主機上:

docker run --rm -d --name=temp-ch yandex/clickhouse-server

拷貝容器內(nèi)的文件:

docker cp temp-ch:/etc/clickhouse-server/ /etc/
//https://www.cnblogs.com/EminemJK/p/15138536.html

2.修改config.xml配置

//同時兼容IPV6,一勞永逸
<listen_host>0.0.0.0</listen_host>
//設(shè)置時區(qū)
<timezone>Asia/Shanghai</timezone>
//刪除原節(jié)點<remote_servers>的測試信息
<remote_servers incl="clickhouse_remote_servers" />
//新增,和上面的remote_servers 節(jié)點同級
<include_from>/etc/clickhouse-server/metrika.xml</include_from>
//新增,和上面的remote_servers 節(jié)點同級
<zookeeper incl="zookeeper-servers" optional="true" />
//新增,和上面的remote_servers 節(jié)點同級
<macros incl="macros" optional="true" />

其他listen_host僅保留一項即可,其他listen_host則注釋掉。

3.拷貝到其他文件夾

cp -rf /etc/clickhouse-server/ /usr/soft/clickhouse-server/main
cp -rf /etc/clickhouse-server/ /usr/soft/clickhouse-server/sub

main為主分片,sub為副本。

4.分發(fā)到其他服務(wù)器

#拷貝配置到server02上
scp /usr/soft/clickhouse-server/main/ server02:/usr/soft/clickhouse-server/main/
scp /usr/soft/clickhouse-server/sub/ server02:/usr/soft/clickhouse-server/sub/ 
#拷貝配置到server03上
scp /usr/soft/clickhouse-server/main/ server03:/usr/soft/clickhouse-server/main/
scp /usr/soft/clickhouse-server/sub/ server03:/usr/soft/clickhouse-server/sub/

SCP真香。

然后就可以刪除掉臨時容器:docker rm -f temp-ch

配置集群

這里三臺服務(wù)器,每臺服務(wù)器起2個CH實例,環(huán)狀相互備份,達到高可用的目的,資源充裕的情況下,可以將副本Sub實例完全獨立出來,修改配置即可,這個又是Clickhouse的好處之一,橫向擴展非常方便。

1.修改配置

進入server1服務(wù)器,/usr/soft/clickhouse-server/sub/conf修改config.xml文件,主要修改內(nèi)容:

原:
<http_port>8123</http_port>
<tcp_port>9000</tcp_port>
<mysql_port>9004</mysql_port>
<interserver_http_port>9009</interserver_http_port>
修改為:
<http_port>8124</http_port>
<tcp_port>9001</tcp_port>
<mysql_port>9005</mysql_port>
<interserver_http_port>9010</interserver_http_port>

修改的目的目的是為了和主分片main的配置區(qū)分開來,端口不能同時應(yīng)用于兩個程序。server02和server03如此修改或scp命令進行分發(fā)。

2.新增集群配置文件metrika.xml

server01,main主分片配置:

進入/usr/soft/clickhouse-server/main/conf文件夾內(nèi),新增metrika.xml文件(文件編碼:utf-8)。

<yandex>
    <!-- CH集群配置,所有服務(wù)器都一樣 -->
    <clickhouse_remote_servers>
        <cluster_3s_1r>
            <!-- 數(shù)據(jù)分片1  -->
            <shard>
                <internal_replication>true</internal_replication>
                <replica>
                    <host>server01</host>
                    <port>9000</port>
                    <user>default</user>
                    <password></password>
                </replica>
                <replica>
                    <host>server03</host>
                    <port>9001</port>
                    <user>default</user>
                    <password></password>
                </replica>
            </shard>
            <!-- 數(shù)據(jù)分片2  -->
            <shard>
                <internal_replication>true</internal_replication>
                <replica>
                    <host>server02</host>
                    <port>9000</port>
                    <user>default</user>
                    <password></password>
                </replica>
                <replica>
                    <host>server01</host>
                    <port>9001</port>
                    <user>default</user>
                    <password></password>
                </replica>
            </shard>
            <!-- 數(shù)據(jù)分片3  -->
            <shard>
                <internal_replication>true</internal_replication>
                <replica>
                    <host>server03</host>
                    <port>9000</port>
                    <user>default</user>
                    <password></password>
                </replica>
                <replica>
                    <host>server02</host>
                    <port>9001</port>
                    <user>default</user>
                    <password></password>
                </replica>
            </shard>
        </cluster_3s_1r>
    </clickhouse_remote_servers>
    <!-- zookeeper_servers所有實例配置都一樣 -->
    <zookeeper-servers>
        <node index="1">
            <host>172.16.13.10</host>
            <port>2181</port>
        </node>
        <node index="2">
            <host>172.16.13.11</host>
            <port>2181</port>
        </node>
        <node index="3">
            <host>172.16.13.12</host>
            <port>2181</port>
        </node>
    </zookeeper-servers>
    <!-- marcos每個實例配置不一樣 -->
    <macros>
        <layer>01</layer>
        <shard>01</shard>
        <replica>cluster01-01-1</replica>
    </macros>
    <networks>
        <ip>::/0</ip>
    </networks>
    <!-- 數(shù)據(jù)壓縮算法  -->
    <clickhouse_compression>
        <case>
            <min_part_size>10000000000</min_part_size>
            <min_part_size_ratio>0.01</min_part_size_ratio>
            <method>lz4</method>
        </case>
    </clickhouse_compression>
</yandex>

<macros>節(jié)點每個服務(wù)器每個實例不同,其他節(jié)點配置一樣即可,下面僅列舉<macros>節(jié)點差異的配置。

server01,sub副本配置:

<macros>
    <layer>01</layer>
    <shard>02</shard>
    <replica>cluster01-02-2</replica>
</macros>

server02,main主分片配置:

<macros>
    <layer>01</layer>
    <shard>02</shard>
    <replica>cluster01-02-1</replica>
</macros>

server02,sub副本配置:

<macros>
    <layer>01</layer>
    <shard>03</shard>
    <replica>cluster01-03-2</replica>
</macros>

server03,main主分片配置:

<macros>
    <layer>01</layer>
    <shard>03</shard>
    <replica>cluster01-03-1</replica>
</macros>

server03,sub副本配置:

<macros>
    <layer>01</layer>
    <shard>02</shard>
    <replica>cluster01-01-2</replica>
</macros>

至此,已經(jīng)完成全部配置,其他的比如密碼等配置,可以按需增加。

集群運行及測試

在每一臺服務(wù)器上依次運行實例,zookeeper前面已經(jīng)提前運行,沒有則需先運行zk集群。

運行main實例:

docker run -d --name=ch-main -p 8123:8123 -p 9000:9000 -p 9009:9009 --ulimit nofile=262144:262144 \-v /usr/soft/clickhouse-server/main/data:/var/lib/clickhouse:rw \-v /usr/soft/clickhouse-server/main/conf:/etc/clickhouse-server:rw \-v /usr/soft/clickhouse-server/main/log:/var/log/clickhouse-server:rw \
--add-host server01:172.192.13.10 \
--add-host server02:172.192.13.11 \
--add-host server03:172.192.13.12 \
--hostname server01 \
--network host \
--restart=always \
 yandex/clickhouse-server

運行sub實例:

docker run -d --name=ch-sub -p 8124:8124 -p 9001:9001 -p 9010:9010 --ulimit nofile=262144:262144 \
-v /usr/soft/clickhouse-server/sub/data:/var/lib/clickhouse:rw \
-v /usr/soft/clickhouse-server/sub/conf:/etc/clickhouse-server:rw \
-v /usr/soft/clickhouse-server/sub/log:/var/log/clickhouse-server:rw \
--add-host server01:172.192.13.10 \
--add-host server02:172.192.13.11 \
--add-host server03:172.192.13.12 \
--hostname server01 \
--network host \
--restart=always \
 yandex/clickhouse-server

在每臺服務(wù)器執(zhí)行命令,唯一不同的參數(shù)是hostname,因為我們前面已經(jīng)設(shè)置了hostname來指定服務(wù)器,否則在執(zhí)行select * from system.clusters查詢集群的時候,將is_local列全為0,則表示找不到本地服務(wù),這是需要注意的地方。在每臺服務(wù)器的實例都啟動之后,這里使用正版DataGrip來打開:

在任一實例上新建一個查詢:

create table T_UserTest on cluster cluster_3s_1r
(
    ts  DateTime,
    uid String,
    biz String
)
    engine = ReplicatedMergeTree('/clickhouse/tables/{layer}-{shard}/T_UserTest', '{replica}')
        PARTITION BY toYYYYMMDD(ts)
        ORDER BY ts
        SETTINGS index_granularity = 8192;

cluster_3s_1r是前面配置的集群名稱,需一一對應(yīng)上,/clickhouse/tables/是固定的前綴,相關(guān)語法可以查看官方文檔了。

刷新每個實例,即可看到全部實例中都有這張T_UserTest表,因為已經(jīng)搭建zookeeper,很容易實現(xiàn)分布式DDL。

繼續(xù)新建Distributed分布式表:

CREATE TABLE T_UserTest_All ON CLUSTER cluster_3s_1r AS T_UserTest ENGINE = Distributed(cluster_3s_1r, default,  T_UserTest, rand())

每個主分片分別插入相關(guān)信息:

--server01insert into  T_UserTest values ('2021-08-16 17:00:00',1,1)
--server02
insert into  T_UserTest values ('2021-08-16 17:00:00',2,1)
--server03
insert into  T_UserTest values ('2021-08-16 17:00:00',3,1)

然后查詢分布式表select * from T_UserTest_All,

查詢對應(yīng)的副本表或者關(guān)閉其中一臺服務(wù)器的docker實例,查詢也是不受影響,時間關(guān)系不在測試。

到此這篇關(guān)于Clickhouse Docker集群配置及部署的文章就介紹到這了,更多相關(guān)Clickhouse Docker集群內(nèi)容請搜索本站以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持本站!

版權(quán)聲明:本站文章來源標注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請保持原文完整并注明來源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非www.sddonglingsh.com所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學(xué)習(xí)參考,不代表本站立場,如有內(nèi)容涉嫌侵權(quán),請聯(lián)系alex-e#qq.com處理。

實時開通

自選配置、實時開通

免備案

全球線路精選!

全天候客戶服務(wù)

7x24全年不間斷在線

專屬顧問服務(wù)

1對1客戶咨詢顧問

在線
客服

在線客服:7*24小時在線

客服
熱線

400-630-3752
7*24小時客服服務(wù)熱線

關(guān)注
微信

關(guān)注官方微信
頂部