Skip to content

gbabook/clickhouse-reshard

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

22 Commits
 
 

Repository files navigation

clickhouse-reshard

Clickhouse 增加分片后,官方文档建议把新分片的权重设大。这样新数据会优先写入新的分片,整体数据逐渐平衡后再把权重设置回来。

然而,加新机器的目的大都是集群负载变高。如果按照官方建议来操作,显而易见集群上的老数据并未发生任何变化,短时间内并未达到降低集群负载的目的。

如何把旧数据较为平均的 reshard 到新机器上?

把这篇文章发到 v2ex 后,2 楼的 lovecy 用户提出了更简便的方法,我认为在数据量不大或者集群的机器不多的情况下应该优先用这个方法:

  • 在配置文件 config.xml 中再新建一个新命名的集群,配置和当前集群相同,然后把新机器加到这个新命名的集群中去。
  • 在集群的每台机器上再新建一个放本地表的数据库,以及放分布式表的数据库,例如旧的本地表在 local 库,旧的分布式表在 default 库,那么再新建本地数据库 local_new,分布式库 default_new,default_new 映射 local_new 的本地表。

然后就可以通过读取旧的分布式表,写入新的分布式表,把数据较为平均地分配到集群中的每台机器中:

INSERT INTO default_new.cs_100_1 SELECT * FROM default.cs_100_1

完成后删除各台节点 local 库中对应的表即可。

以下是我的思路,供参考:

PS:副本是另一个方向,ck 和 zookeeper 交互后会自动同步,故以下不会提到副本。

单分片转 2 分片

也就是原来是单机,现在用两台机器,每台机器一个分片。

假设线上有一台 ck 单机,名字是 node-1,本地数据都放在数据库 local 下。现在需要增加一台 node-2。

首先在 node-2 根据 node-1 的结构建立同样的本地表。

然后在 node-1、node-2 的 config.xml 中,配置 remote_servers

<remote_servers>
    <!-- 集群命名 cluster_2s_1r,随意 -->
    <cluster_2s_1r>
        <shard>
            <internal_replication>true</internal_replication>
            <replica>
                <host>node-1</host>
                <port>9000</port>
                <user>default</user>
                <password></password>
            </replica>
        </shard>
    </cluster_2s_1r>
</remote_servers>

目前这个所谓的集群,暂时就只有 node-1 自己,目的是 node-2 可以通过分布式表直接读取 node-1 的数据。

接下来在 node-2 的 default 数据库建立分布式表:

CREATE TABLE default.cs_100_1
(字段...)
ENGINE = Distributed('cluster_2s_1r', 'local', 'cs_100_1', rand())

Distributed 第一个参数:cluster_2s_1rconfig.xml 中集群的名字;

第二个参数:local 是本机本地数据库名;

第三个参数:cs_100_1,结合参数二,表示此表映射 local.cs_100_1

第四个参数:rand() 是 shard key,这里设置为:把数据随机分配到节点

准备工作完毕,接下来就开始把 node-1 的数据尽量平分到 node-2:

PS:保存到 ck 的数据,大部分都是事件日志,都会有时间字段,拆分数据就依靠这个字段。

在 node-2 的 clickhouse-client 中执行:

INSERT INTO local.cs_100_1 SELECT * FROM default.cs_100_1 WHERE (toSecond(time) % 2) = 0

node-2 上面的 default.cs_100_1 是分布式表,数据源就只有 node-1

toSecond 函数会把时间字段转化为以秒为单位的数字,范围是 0-59。

切割的逻辑简单粗暴:node-1 保存秒数是奇数的数据,node-2 保存秒数是偶数的数据。

处理很快,单机 cs_100_1 数据接近一亿,十秒不到就完成了(当然了,这是在我本地模拟的两台 ck,CPU、内存容量、硬盘都还不错)。

完成之后就要把 node-1 的 cs_100_1 表中,时间是偶数秒的数据给删了:

在 node-2 的 clickhouse-client 中执行,直接操作分布式表:

ALTER TABLE default.cs_100_1 DELETE WHERE (toSecond(time) % 2) = 0

因为是 ck 的删除是异步操作,立即就会返回完成,所以别忘了适时检查下是不是删除都完成了。

SELECT COUNT(*) FROM default.cs_100_1 WHERE (toSecond(time) % 2) = 0;

至此 node-1 单机的 local.cs_100_1 表数据就还算平均地分到 node-2 上了。

接下来就是配置 remote_servers,设置第二个分片,把 node-2 加进去。

同样 node-1 的 default 库也建立好分布式表,完成之后两台机器就可以随意挑一台来用了。

2 分片转 3 分片

先看一下两台 ck 的本地表,时间字段的秒数有哪些:

SELECT toSecond(time) AS seconds FROM local.cs_100_1 GROUP BY seconds;

假设原来的 node-1、node-2 数据比较平均,都是 30 条数据。

那么现在就可以分别在 node-1、node-2 随机取 10 条秒数数据,放到 node-3:

通过上面的方法,在 node-3 的 clickhouse-client 中执行:

INSERT INTO local.cs_100_1 SELECT * FROM default.cs_100_1 WHERE toSecond(time) IN (35,27,3,55,43,21,45,47,59,31,16,0,14,18,42,30,6,36,54,20)

接下来仍然同样的操作。

最终完成之后看了下,数据还算平均。

3 分片转 4 分片

还继续加机器,就不用再说了吧。

减少分片

运维过程中各种情况都会遇到,机器弄多了资源有富余,要下架机器。

减少分片就方便多了,把要下架的机器脱离集群,再直接把本地数据写入分布式表,如果分布式表第四个参数是 rand() 的话,数据就会很平均的分配过去了。


前几天在折腾 Clickhouse 集群,弄完了就想到了分片有变化数据如何平均的问题。然后在腾讯云看到某文章,说他们已经有了把老数据平均分到新分片的工具。

我在想他们是怎么实现的,基于我目前对集群的了解,以上就是对于 Clickhouse 增减节点后均衡数据的思路。

感觉这种方式很简单,但是过程稍繁琐。不过如果写好了脚本,只需要等待就行了。

如果你认为有更好的方法,欢迎共同探讨。:)

Clickhouse 最新测试版 21.3 在加入了窗口函数之后,功能更加强大,非常值得期待。如果官方能够在分片上再提供一些内置的运维支持,那就简直“完美”。

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published