From b5a6af35cbf02f924700622cbfbaed4324d7c22f Mon Sep 17 00:00:00 2001 From: birdstorm Date: Mon, 25 May 2020 20:54:54 +0800 Subject: [PATCH 1/9] modify scale doc structure --- scale-tidb-using-tiup.md | 89 ++++++++++++++++++++++++++++++++----- tiflash/maintain-tiflash.md | 71 ----------------------------- upgrade-tidb-using-tiup.md | 4 ++ 3 files changed, 81 insertions(+), 83 deletions(-) diff --git a/scale-tidb-using-tiup.md b/scale-tidb-using-tiup.md index e5569452bfcb..51d8c5c0102b 100644 --- a/scale-tidb-using-tiup.md +++ b/scale-tidb-using-tiup.md @@ -215,27 +215,92 @@ tiup cluster display > **注意:** > -> 本节介绍的缩容流程不会删除缩容节点上的数据文件,如需再次上线该节点,请先手动删除原来的数据文件。 +> 如果下线该 TiFlash 节点后,TiFlash 集群剩余节点数大于等于所有数据表的最大副本数,可跳过下列步骤。 -### 4.1 下线该 TiFlash 节点 +1. 在 TiDB 客户端中针对所有副本数大于集群剩余 TiFlash 节点数的表执行: -参考[下线 TiFlash 节点](/tiflash/maintain-tiflash.md#下线-tiflash-节点)一节,对要进行缩容的 TiFlash 节点进行下线操作。 + {{< copyable "sql" >}} -### 4.2 检查节点是否下线成功 + ```sql + alter table . set tiflash replica 0; + ``` -使用 Grafana 或者 pd-ctl 检查节点是否下线成功(下线需要一定时间)。 +2. 等待相关表的 TiFlash 副本被删除(按照[查看表同步进度](/tiflash/use-tiflash.md#查看表同步进度)一节操作,查不到相关表的同步信息时即为副本被删除)。 -### 4.3 关闭 TiFlash 进程 +接下来,请任选下列方案其一进行缩容。 -等待 TiFlash 对应的 `store` 消失,或者 `state_name` 变成 `Tombstone` 后,执行如下命令关闭 TiFlash 进程: +### 4.1 通过 TiUP 缩容节点 -{{< copyable "shell-regular" >}} +1. 通过以下命令确定需要下线的节点名称: -```shell -tiup cluster scale-in --node 10.0.1.4:9000 -``` + {{< copyable "shell-regular" >}} + + ```shell + tiup cluster display + ``` + +2. 调用 scale-in 命令执行下线节点,例如步骤 1 中获得该节点名为 `10.0.1.4:9000` + + {{< copyable "shell-regular" >}} + + ```shell + tiup cluster scale-in --node 10.0.1.4:9000 + ``` -### 4.4 查看集群状态 +### 4.2 手动缩容 TiFlash 节点 + +1. 在 [pd-ctl](/pd-control.md) (tidb-ansible 目录下的 `resources/bin` 包含对应的二进制文件) 中输入 store 命令,查看该 TiFlash 节点对应的 store id。 + +2. 在 pd-ctl 中输入 `store delete `,其中 为上一步查到的该 TiFlash 节点对应的 store id。 + +3. 等待该 TiFlash 节点对应的 store 消失或者 state_name 变成 Tombstone 再关闭 TiFlash 进程。 + +> **注意:** +> +> 如果在集群中所有的 TiFlash 节点停止运行之前,没有取消所有同步到 TiFlash 的表,则需要手动在 PD 中清除同步规则,否则无法成功完成 TiFlash 节点的下线。 + +手动在 PD 中清除同步规则的步骤如下: + +1. 查询当前 PD 实例中所有与 TiFlash 相关的的数据同步规则。 + + {{< copyable "shell-regular" >}} + + ```shell + curl http://:/pd/api/v1/config/rules/group/tiflash + ``` + + ``` + [ + { + "group_id": "tiflash", + "id": "table-45-r", + "override": true, + "start_key": "7480000000000000FF2D5F720000000000FA", + "end_key": "7480000000000000FF2E00000000000000F8", + "role": "learner", + "count": 1, + "label_constraints": [ + { + "key": "engine", + "op": "in", + "values": [ + "tiflash" + ] + } + ] + } + ] + ``` + +2. 删除所有与 TiFlash 相关的数据同步规则。以 `id` 为 `table-45-r` 的规则为例,通过以下命令可以删除该规则。 + + {{< copyable "shell-regular" >}} + + ```shell + curl -v -X DELETE http://:/pd/api/v1/config/rule/tiflash/table-45-r + ``` + +### 4.3 查看集群状态 {{< copyable "shell-regular" >}} diff --git a/tiflash/maintain-tiflash.md b/tiflash/maintain-tiflash.md index fc466d78e143..4dd9cb0f7a94 100644 --- a/tiflash/maintain-tiflash.md +++ b/tiflash/maintain-tiflash.md @@ -30,77 +30,6 @@ aliases: ['/docs-cn/dev/reference/tiflash/maintain/'] : TiFlash version: TiFlash 0.2.0 master-375035282451103999f3863c691e2fc2 ``` -## 下线 TiFlash 节点 - -下线 TiFlash 节点与[缩容 TiFlash 节点](/scale-tidb-using-tiup.md#4-缩容-tiflash-节点)不同,下线 TiFlash 并不会在 TiDB Ansible 中删除这个节点,而仅仅是安全地关闭这个进程。 - -下线 TiFlash 节点的步骤如下: - -> **注意:** -> -> 如果下线该 TiFlash 节点后,TiFlash 集群剩余节点数大于等于所有数据表的最大副本数,直接进行下面第 3 步。 - -1. 在 TiDB 客户端中针对所有副本数大于集群剩余 TiFlash 节点数的表执行: - - {{< copyable "sql" >}} - - ```sql - alter table . set tiflash replica 0; - ``` - -2. 等待相关表的 TiFlash 副本被删除(按照[查看表同步进度](/tiflash/use-tiflash.md#查看表同步进度)一节操作,查不到相关表的同步信息时即为副本被删除)。 - -3. 在 [pd-ctl](/pd-control.md) (tidb-ansible 目录下的 `resources/bin` 包含对应的二进制文件) 中输入 store 命令,查看该 TiFlash 节点对应的 store id。 - -4. 在 pd-ctl 中输入 `store delete `,其中 为上一步查到的该 TiFlash 节点对应的 store id。 - -5. 等待该 TiFlash 节点对应的 store 消失或者 state_name 变成 Tombstone 再关闭 TiFlash 进程。 - -> **注意:** -> -> 如果在集群中所有的 TiFlash 节点停止运行之前,没有取消所有同步到 TiFlash 的表,则需要手动在 PD 中清除同步规则,否则无法成功完成 TiFlash 节点的下线。 - -手动在 PD 中清除同步规则的步骤如下: - -1. 查询当前 PD 实例中所有与 TiFlash 相关的的数据同步规则。 - - {{< copyable "shell-regular" >}} - - ```shell - curl http://:/pd/api/v1/config/rules/group/tiflash - ``` - - ``` - [ - { - "group_id": "tiflash", - "id": "table-45-r", - "override": true, - "start_key": "7480000000000000FF2D5F720000000000FA", - "end_key": "7480000000000000FF2E00000000000000F8", - "role": "learner", - "count": 1, - "label_constraints": [ - { - "key": "engine", - "op": "in", - "values": [ - "tiflash" - ] - } - ] - } - ] - ``` - -2. 删除所有与 TiFlash 相关的数据同步规则。以 `id` 为 `table-45-r` 的规则为例,通过以下命令可以删除该规则。 - - {{< copyable "shell-regular" >}} - - ```shell - curl -v -X DELETE http://:/pd/api/v1/config/rule/tiflash/table-45-r - ``` - ## TiFlash 故障处理 本节介绍了一些 TiFlash 常见问题、原因及解决办法。 diff --git a/upgrade-tidb-using-tiup.md b/upgrade-tidb-using-tiup.md index bd08ea32ae86..476e92a1eec0 100644 --- a/upgrade-tidb-using-tiup.md +++ b/upgrade-tidb-using-tiup.md @@ -211,6 +211,10 @@ tiup cluster upgrade v4.0.0-rc --force https://download.pingcap.org/tidb-{version}-linux-amd64.tar.gz ``` +### 5.4 升级过程中 TiFlash 组件升级失败 + +由于 TiFlash 在 `v4.0.0-rc.2` 之前的版本可能有一些不兼容的问题,所以如果将包含 TiFlash 组件的集群由此前版本升级至 `v4.0.0-rc.2` 之后的过程中遇到问题,请访问 [ASK TUG](https://asktug.com/) 提出,会由研发方面人工解决。 + ## 6. TiDB 4.0 兼容性变化 - `oom-action` 参数设置为 `cancel` 时,当查询语句触发 OOM 阈值后会被 kill 掉,升级到 4.0 版本后除了 `select` 语句,还可能 kill 掉 `insert`/`update`/`delete` 等 DML 语句。 From 586b2204ebca11e545d988a80fac91e56a8d11b7 Mon Sep 17 00:00:00 2001 From: birdstorm Date: Tue, 26 May 2020 15:23:58 +0800 Subject: [PATCH 2/9] add pd-ctl descriptions --- scale-tidb-using-tiup.md | 26 ++++++++++++++++++++++++-- 1 file changed, 24 insertions(+), 2 deletions(-) diff --git a/scale-tidb-using-tiup.md b/scale-tidb-using-tiup.md index 4561c2fdc5f8..77f0ba98bd14 100644 --- a/scale-tidb-using-tiup.md +++ b/scale-tidb-using-tiup.md @@ -343,12 +343,34 @@ tiup cluster display ### 5.2 手动缩容 TiFlash 节点 -1. 在 [pd-ctl](/pd-control.md) (tidb-ansible 目录下的 `resources/bin` 包含对应的二进制文件) 中输入 store 命令,查看该 TiFlash 节点对应的 store id。 +1. 使用 pd-ctl 的 store 命令在 PD 中查看该 TiFlash 节点对应的 store id。 -2. 在 pd-ctl 中输入 `store delete `,其中 为上一步查到的该 TiFlash 节点对应的 store id。 + * 在 [pd-ctl](/pd-control.md) (tidb-ansible 目录下的 `resources/bin` 包含对应的二进制文件) 中输入 store 命令。 + + * 若使用 TiUP 部署,则请调用以下命令: + + {{< copyable "shell-regular" >}} + + ```shell + tiup ctl pd -u store + ``` + +2. 在 pd-ctl 中下线该 TiFlash 节点。 + + * 在 pd-ctl 中输入 `store delete `,其中 为上一步查到的该 TiFlash 节点对应的 store id。 + + * 若通过 TiUP 部署,则请调用以下命令: + + {{< copyable "shell-regular" >}} + + ```shell + tiup ctl pd -u store delete + ``` 3. 等待该 TiFlash 节点对应的 store 消失或者 state_name 变成 Tombstone 再关闭 TiFlash 进程。 +4. 手动删除 TiFlash 的数据文件,其目录由用户先前配置于 TiFlash 配置文件中。 + > **注意:** > > 如果在集群中所有的 TiFlash 节点停止运行之前,没有取消所有同步到 TiFlash 的表,则需要手动在 PD 中清除同步规则,否则无法成功完成 TiFlash 节点的下线。 From c63a9622adc85acf83113fcbb955dbc477741cef Mon Sep 17 00:00:00 2001 From: birdstorm Date: Tue, 26 May 2020 15:53:36 +0800 Subject: [PATCH 3/9] Apply suggestions from code review Co-authored-by: Flowyi --- scale-tidb-using-tiup.md | 8 ++++---- 1 file changed, 4 insertions(+), 4 deletions(-) diff --git a/scale-tidb-using-tiup.md b/scale-tidb-using-tiup.md index 77f0ba98bd14..15dadc3dba7d 100644 --- a/scale-tidb-using-tiup.md +++ b/scale-tidb-using-tiup.md @@ -342,12 +342,12 @@ tiup cluster display ``` ### 5.2 手动缩容 TiFlash 节点 - +在特殊情况下,比如需要强制下线节点,或者 TiUP 操作失败的情况下,可以使用以下方法手动下线 TiFlash 节点。 1. 使用 pd-ctl 的 store 命令在 PD 中查看该 TiFlash 节点对应的 store id。 * 在 [pd-ctl](/pd-control.md) (tidb-ansible 目录下的 `resources/bin` 包含对应的二进制文件) 中输入 store 命令。 - * 若使用 TiUP 部署,则请调用以下命令: + * 若使用 TiUP 部署,可以调用以下命令代替: {{< copyable "shell-regular" >}} @@ -359,7 +359,7 @@ tiup cluster display * 在 pd-ctl 中输入 `store delete `,其中 为上一步查到的该 TiFlash 节点对应的 store id。 - * 若通过 TiUP 部署,则请调用以下命令: + * 若通过 TiUP 部署,可以调用以下命令代替: {{< copyable "shell-regular" >}} @@ -369,7 +369,7 @@ tiup cluster display 3. 等待该 TiFlash 节点对应的 store 消失或者 state_name 变成 Tombstone 再关闭 TiFlash 进程。 -4. 手动删除 TiFlash 的数据文件,其目录由用户先前配置于 TiFlash 配置文件中。 +4. 手动删除 TiFlash 的数据文件,具体位置请查看 TiFlash 的配置文件。 > **注意:** > From ab571a2ab3becbd0cfd31153d36d5bd42531ee26 Mon Sep 17 00:00:00 2001 From: birdstorm Date: Tue, 26 May 2020 16:39:39 +0800 Subject: [PATCH 4/9] fmt --- scale-tidb-using-tiup.md | 12 +++++++----- 1 file changed, 7 insertions(+), 5 deletions(-) diff --git a/scale-tidb-using-tiup.md b/scale-tidb-using-tiup.md index 15dadc3dba7d..a27172f71172 100644 --- a/scale-tidb-using-tiup.md +++ b/scale-tidb-using-tiup.md @@ -307,9 +307,9 @@ tiup cluster display 如果要缩容 IP 地址为 10.0.1.4 的一个 TiFlash 节点,,可以按照如下步骤进行操作。 -> **注意:** -> -> 如果下线该 TiFlash 节点后,TiFlash 集群剩余节点数大于等于所有数据表的最大副本数,可跳过下列步骤。 +### 5.1 根据 TiFlash 剩余节点数调整数据表的副本数 + +在下线节点之前,确保 TiFlash 集群剩余节点数大于等于所有数据表的最大副本数,否则需要修改相关表的 TiFlash 副本数。 1. 在 TiDB 客户端中针对所有副本数大于集群剩余 TiFlash 节点数的表执行: @@ -323,7 +323,7 @@ tiup cluster display 接下来,请任选下列方案其一进行缩容。 -### 5.1 通过 TiUP 缩容节点 +### 5.2 通过 TiUP 缩容节点 1. 通过以下命令确定需要下线的节点名称: @@ -341,8 +341,10 @@ tiup cluster display tiup cluster scale-in --node 10.0.1.4:9000 ``` -### 5.2 手动缩容 TiFlash 节点 +### 5.3 手动缩容 TiFlash 节点 + 在特殊情况下,比如需要强制下线节点,或者 TiUP 操作失败的情况下,可以使用以下方法手动下线 TiFlash 节点。 + 1. 使用 pd-ctl 的 store 命令在 PD 中查看该 TiFlash 节点对应的 store id。 * 在 [pd-ctl](/pd-control.md) (tidb-ansible 目录下的 `resources/bin` 包含对应的二进制文件) 中输入 store 命令。 From d1cd99e6b22b1013a2a72d5c84545e6c019087d9 Mon Sep 17 00:00:00 2001 From: birdstorm Date: Tue, 26 May 2020 17:36:44 +0800 Subject: [PATCH 5/9] address comments --- scale-tidb-using-tiup.md | 10 ++++++++++ 1 file changed, 10 insertions(+) diff --git a/scale-tidb-using-tiup.md b/scale-tidb-using-tiup.md index a27172f71172..c3f498017f48 100644 --- a/scale-tidb-using-tiup.md +++ b/scale-tidb-using-tiup.md @@ -371,6 +371,16 @@ tiup cluster display 3. 等待该 TiFlash 节点对应的 store 消失或者 state_name 变成 Tombstone 再关闭 TiFlash 进程。 + 如果等待较长时间后,该节点仍然无法正常消失或者状态变成 Tombstone,可以考虑以下命令,把节点强制踢出集群: + + **注意以下命令会直接丢弃该 TiFlash 节点上的副本,有可能导致查询失败** + + {{< copyable "shell-regular" >}} + + ```shell + curl -X POST 'http:///pd/api/v1/store//state?state=Tombstone' + ``` + 4. 手动删除 TiFlash 的数据文件,具体位置请查看 TiFlash 的配置文件。 > **注意:** From 0551bfe5edd79409f1985f44899b39b45c3ca1b0 Mon Sep 17 00:00:00 2001 From: birdstorm Date: Tue, 26 May 2020 18:27:05 +0800 Subject: [PATCH 6/9] Apply suggestions from code review Co-authored-by: kissmydb --- scale-tidb-using-tiup.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/scale-tidb-using-tiup.md b/scale-tidb-using-tiup.md index c3f498017f48..e7e3b77fbf85 100644 --- a/scale-tidb-using-tiup.md +++ b/scale-tidb-using-tiup.md @@ -349,7 +349,7 @@ tiup cluster display * 在 [pd-ctl](/pd-control.md) (tidb-ansible 目录下的 `resources/bin` 包含对应的二进制文件) 中输入 store 命令。 - * 若使用 TiUP 部署,可以调用以下命令代替: + * 若使用 TiUP 部署,可以调用以下命令代替 `pd-ctl`: {{< copyable "shell-regular" >}} @@ -361,7 +361,7 @@ tiup cluster display * 在 pd-ctl 中输入 `store delete `,其中 为上一步查到的该 TiFlash 节点对应的 store id。 - * 若通过 TiUP 部署,可以调用以下命令代替: + * 若通过 TiUP 部署,可以调用以下命令代替 `pd-ctl`: {{< copyable "shell-regular" >}} From 592991dd1ac9a6ec1d9fff9d3142b2311f9c836f Mon Sep 17 00:00:00 2001 From: birdstorm Date: Tue, 26 May 2020 18:54:42 +0800 Subject: [PATCH 7/9] Apply suggestions from code review Co-authored-by: Keke Yi <40977455+yikeke@users.noreply.github.com> --- scale-tidb-using-tiup.md | 6 +++--- upgrade-tidb-using-tiup.md | 2 +- 2 files changed, 4 insertions(+), 4 deletions(-) diff --git a/scale-tidb-using-tiup.md b/scale-tidb-using-tiup.md index e7e3b77fbf85..c8e2329398ff 100644 --- a/scale-tidb-using-tiup.md +++ b/scale-tidb-using-tiup.md @@ -305,7 +305,7 @@ tiup cluster display ## 5. 缩容 TiFlash 节点 -如果要缩容 IP 地址为 10.0.1.4 的一个 TiFlash 节点,,可以按照如下步骤进行操作。 +如果要缩容 IP 地址为 10.0.1.4 的一个 TiFlash 节点,可以按照如下步骤进行操作。 ### 5.1 根据 TiFlash 剩余节点数调整数据表的副本数 @@ -333,7 +333,7 @@ tiup cluster display tiup cluster display ``` -2. 调用 scale-in 命令执行下线节点,例如步骤 1 中获得该节点名为 `10.0.1.4:9000` +2. 执行 scale-in 命令来下线节点,假设步骤 1 中获得该节点名为 `10.0.1.4:9000` {{< copyable "shell-regular" >}} @@ -343,7 +343,7 @@ tiup cluster display ### 5.3 手动缩容 TiFlash 节点 -在特殊情况下,比如需要强制下线节点,或者 TiUP 操作失败的情况下,可以使用以下方法手动下线 TiFlash 节点。 +在特殊情况下(比如需要强制下线节点),或者 TiUP 操作失败的情况下,可以使用以下方法手动下线 TiFlash 节点。 1. 使用 pd-ctl 的 store 命令在 PD 中查看该 TiFlash 节点对应的 store id。 diff --git a/upgrade-tidb-using-tiup.md b/upgrade-tidb-using-tiup.md index f902c5dd8fd9..65e2a699a448 100644 --- a/upgrade-tidb-using-tiup.md +++ b/upgrade-tidb-using-tiup.md @@ -200,7 +200,7 @@ https://download.pingcap.org/tidb-{version}-linux-amd64.tar.gz ### 5.4 升级过程中 TiFlash 组件升级失败 -由于 TiFlash 在 `v4.0.0-rc.2` 之前的版本可能有一些不兼容的问题,所以如果将包含 TiFlash 组件的集群由此前版本升级至 `v4.0.0-rc.2` 之后的过程中遇到问题,请访问 [ASK TUG](https://asktug.com/) 提出,会由研发方面人工解决。 +TiFlash 在 `v4.0.0-rc.2` 之前的版本可能有一些不兼容的问题。因此,如果将包含 TiFlash 组件的集群由此前版本升级至 `v4.0.0-rc.2` 之后版本的过程中遇到问题,可在 [ASK TUG](https://asktug.com/) 反馈,寻求研发人员支持。 ## 6. TiDB 4.0 兼容性变化 From a08c749ee7986e3600b3e21e3291180090bed11d Mon Sep 17 00:00:00 2001 From: birdstorm Date: Tue, 26 May 2020 18:58:22 +0800 Subject: [PATCH 8/9] fmt according to suggestions --- scale-tidb-using-tiup.md | 24 ++++++++++++------------ 1 file changed, 12 insertions(+), 12 deletions(-) diff --git a/scale-tidb-using-tiup.md b/scale-tidb-using-tiup.md index c8e2329398ff..a06f47216f13 100644 --- a/scale-tidb-using-tiup.md +++ b/scale-tidb-using-tiup.md @@ -351,11 +351,11 @@ tiup cluster display * 若使用 TiUP 部署,可以调用以下命令代替 `pd-ctl`: - {{< copyable "shell-regular" >}} + {{< copyable "shell-regular" >}} - ```shell - tiup ctl pd -u store - ``` + ```shell + tiup ctl pd -u store + ``` 2. 在 pd-ctl 中下线该 TiFlash 节点。 @@ -363,11 +363,11 @@ tiup cluster display * 若通过 TiUP 部署,可以调用以下命令代替 `pd-ctl`: - {{< copyable "shell-regular" >}} + {{< copyable "shell-regular" >}} - ```shell - tiup ctl pd -u store delete - ``` + ```shell + tiup ctl pd -u store delete + ``` 3. 等待该 TiFlash 节点对应的 store 消失或者 state_name 变成 Tombstone 再关闭 TiFlash 进程。 @@ -375,11 +375,11 @@ tiup cluster display **注意以下命令会直接丢弃该 TiFlash 节点上的副本,有可能导致查询失败** - {{< copyable "shell-regular" >}} + {{< copyable "shell-regular" >}} - ```shell - curl -X POST 'http:///pd/api/v1/store//state?state=Tombstone' - ``` + ```shell + curl -X POST 'http:///pd/api/v1/store//state?state=Tombstone' + ``` 4. 手动删除 TiFlash 的数据文件,具体位置请查看 TiFlash 的配置文件。 From 55410a8791bdc35b11ebea2dd01b33ebb3ae69f7 Mon Sep 17 00:00:00 2001 From: yikeke Date: Tue, 26 May 2020 19:07:35 +0800 Subject: [PATCH 9/9] delete numbers in headings; fix anchor links --- scale-tidb-using-tiup.md | 50 ++++++++++++++++++++------------------- ticdc/deploy-ticdc.md | 2 +- tiflash/deploy-tiflash.md | 2 +- 3 files changed, 28 insertions(+), 26 deletions(-) diff --git a/scale-tidb-using-tiup.md b/scale-tidb-using-tiup.md index a06f47216f13..e5685ca394ee 100644 --- a/scale-tidb-using-tiup.md +++ b/scale-tidb-using-tiup.md @@ -22,7 +22,7 @@ TiDB 集群可以在不中断线上服务的情况下进行扩容和缩容。 | 10.0.1.1 | TiKV | | 10.0.1.2 | TiKV  | -## 1. 扩容 TiDB/PD/TiKV 节点 +## 扩容 TiDB/PD/TiKV 节点 如果要添加一个 TiDB 节点,IP 地址为 10.0.1.5,可以按照如下步骤进行操作。 @@ -30,7 +30,7 @@ TiDB 集群可以在不中断线上服务的情况下进行扩容和缩容。 > > 添加 PD 节点和添加 TiDB 节点的步骤类似。添加 TiKV 节点前,建议预先根据集群的负载情况调整 PD 调度参数。 -### 1.1 编写扩容拓扑配置 +### 1. 编写扩容拓扑配置 > **注意:** > @@ -89,7 +89,7 @@ pd_servers: 可以使用 `tiup cluster edit-config ` 查看当前集群的配置信息,因为其中的 `global` 和 `server_configs` 参数配置,默认会被 `scale-out.yaml` 继承。 -### 1.2 执行扩容命令 +### 2. 执行扩容命令 {{< copyable "shell-regular" >}} @@ -99,7 +99,7 @@ tiup cluster scale-out scale-out.yaml 预期输出 Scaled cluster `` out successfully 信息,表示扩容操作成功。 -### 1.3 检查集群状态 +### 3. 检查集群状态 {{< copyable "shell-regular" >}} @@ -119,7 +119,7 @@ tiup cluster display | 10.0.1.1 | TiKV  | | 10.0.1.2 | TiKV  | -## 2. 扩容 TiFlash 节点 +## 扩容 TiFlash 节点 > **注意:** > @@ -130,7 +130,7 @@ tiup cluster display 如果要添加一个 TiFlash 节点,IP 地址为 10.0.1.4,可以按照如下步骤进行操作。 -### 2.1 添加节点信息到 scale-out.yaml 文件 +### 1. 添加节点信息到 scale-out.yaml 文件 编写 scale-out.yaml 文件,添加该 TiFlash 节点信息(目前只支持 ip,不支持域名): @@ -141,7 +141,7 @@ tiflash_servers: - host: 10.0.1.4 ``` -### 2.2 运行扩容命令 +### 2. 运行扩容命令 {{< copyable "shell-regular" >}} @@ -149,7 +149,7 @@ tiflash_servers: tiup cluster scale-out scale-out.yaml ``` -### 2.3 查看集群状态 +### 3. 查看集群状态 {{< copyable "shell-regular" >}} @@ -169,11 +169,11 @@ tiup cluster display | 10.0.1.1 | TiKV  | | 10.0.1.2 | TiKV  | -## 3. 扩容 TiCDC 节点 +## 扩容 TiCDC 节点 如果要添加 TiCDC 节点,IP 地址为 10.0.1.3、10.0.1.4,可以按照如下步骤进行操作。 -### 3.1 添加节点信息到 scale-out.yaml 文件 +### 1. 添加节点信息到 scale-out.yaml 文件 编写 scale-out.yaml 文件: @@ -185,7 +185,7 @@ cdc_servers: - host: 10.0.1.4 ``` -### 3.2 运行扩容命令 +### 2. 运行扩容命令 {{< copyable "shell-regular" >}} @@ -193,7 +193,7 @@ cdc_servers: tiup cluster scale-out scale-out.yaml ``` -### 3.3 查看集群状态 +### 3. 查看集群状态 {{< copyable "shell-regular" >}} @@ -213,7 +213,7 @@ tiup cluster display | 10.0.1.1 | TiKV  | | 10.0.1.2 | TiKV  | -## 4. 缩容 TiDB/PD/TiKV 节点 +## 缩容 TiDB/PD/TiKV 节点 如果要移除 IP 地址为 10.0.1.5 的一个 TiKV 节点,可以按照如下步骤进行操作。 @@ -221,7 +221,7 @@ tiup cluster display > > 移除 TiDB、PD 节点和移除 TiKV 节点的步骤类似。 -### 4.1 查看节点 ID 信息 +### 1. 查看节点 ID 信息 {{< copyable "shell-regular" >}} @@ -267,7 +267,7 @@ ID              Role Host        Ports 10.0.1.5:9093   alertmanager 10.0.1.5 9093/9094 Up data/alertmanager-9093  deploy/alertmanager-9093 ``` -### 4.2 执行缩容操作 +### 2. 执行缩容操作 {{< copyable "shell-regular" >}} @@ -279,7 +279,7 @@ tiup cluster scale-in --node 10.0.1.5:20160 预期输出 Scaled cluster `` in successfully 信息,表示缩容操作成功。 -### 4.3 检查集群状态 +### 3. 检查集群状态 下线需要一定时间,下线节点的状态变为 Tombstone 就说明下线成功。 @@ -303,11 +303,11 @@ tiup cluster display | 10.0.1.1 | TiKV  | | 10.0.1.2 | TiKV  | -## 5. 缩容 TiFlash 节点 +## 缩容 TiFlash 节点 如果要缩容 IP 地址为 10.0.1.4 的一个 TiFlash 节点,可以按照如下步骤进行操作。 -### 5.1 根据 TiFlash 剩余节点数调整数据表的副本数 +### 1. 根据 TiFlash 剩余节点数调整数据表的副本数 在下线节点之前,确保 TiFlash 集群剩余节点数大于等于所有数据表的最大副本数,否则需要修改相关表的 TiFlash 副本数。 @@ -321,9 +321,11 @@ tiup cluster display 2. 等待相关表的 TiFlash 副本被删除(按照[查看表同步进度](/tiflash/use-tiflash.md#查看表同步进度)一节操作,查不到相关表的同步信息时即为副本被删除)。 +### 2. 执行缩容操作 + 接下来,请任选下列方案其一进行缩容。 -### 5.2 通过 TiUP 缩容节点 +#### 方案一:通过 TiUP 缩容 TiFlash 节点 1. 通过以下命令确定需要下线的节点名称: @@ -341,7 +343,7 @@ tiup cluster display tiup cluster scale-in --node 10.0.1.4:9000 ``` -### 5.3 手动缩容 TiFlash 节点 +#### 方案二:手动缩容 TiFlash 节点 在特殊情况下(比如需要强制下线节点),或者 TiUP 操作失败的情况下,可以使用以下方法手动下线 TiFlash 节点。 @@ -428,7 +430,7 @@ tiup cluster display curl -v -X DELETE http://:/pd/api/v1/config/rule/tiflash/table-45-r ``` -### 5.3 查看集群状态 +### 3. 查看集群状态 {{< copyable "shell-regular" >}} @@ -448,11 +450,11 @@ tiup cluster display | 10.0.1.1 | TiKV  | | 10.0.1.2 | TiKV  | -## 6. 缩容 TiCDC 节点 +## 缩容 TiCDC 节点 如果要缩容 IP 地址为 10.0.1.4 的一个 TiCDC 节点,可以按照如下步骤进行操作。 -### 6.1 下线该 TiCDC 节点 +### 1. 下线该 TiCDC 节点 {{< copyable "shell-regular" >}} @@ -460,7 +462,7 @@ tiup cluster display tiup cluster scale-in --node 10.0.1.4:8300 ``` -### 6.2 查看集群状态 +### 2. 查看集群状态 {{< copyable "shell-regular" >}} diff --git a/ticdc/deploy-ticdc.md b/ticdc/deploy-ticdc.md index b9715d6cb1f6..52d833cc7210 100644 --- a/ticdc/deploy-ticdc.md +++ b/ticdc/deploy-ticdc.md @@ -88,7 +88,7 @@ TiUP cluster 是适用于 TiDB 4.0 及以上版本的部署工具,部署运行 1. 首先确认当前 TiDB 的版本支持 TiCDC,否则需要先升级 TiDB 集群至 4.0.0 rc.1 或更新版本。 -2. 参考 [扩容 TiDB/TiKV/PD/TiCDC 节点](/scale-tidb-using-tiup.md#1-扩容-tidbtikvpdticdc-节点) 章节对 TiCDC 进行部署。 +2. 参考 [扩容 TiDB/TiKV/PD/TiCDC 节点](/scale-tidb-using-tiup.md#扩容-tidbpdtikv-节点) 章节对 TiCDC 进行部署。 示例的扩容配置文件为: diff --git a/tiflash/deploy-tiflash.md b/tiflash/deploy-tiflash.md index 4272da465083..fd5ef85d7e19 100644 --- a/tiflash/deploy-tiflash.md +++ b/tiflash/deploy-tiflash.md @@ -139,4 +139,4 @@ TiUP Cluster 是适用于 TiDB 4.0 及以上版本的部署工具,目前推荐 2. 在 pd-ctl(目前 pd-ctl 还没有接入 TiUP Cluster,需要从 [这里](https://download.pingcap.org/tidb-v4.0.0-rc-linux-amd64.tar.gz) 手动进行下载)中输入 `config set enable-placement-rules true` 命令,以开启 PD 的 Placement Rules 功能。 -3. 参考 [扩容 TiFlash 节点](/scale-tidb-using-tiup.md#2-扩容-tiflash-节点) 章节对 TiFlash 进行部署。 +3. 参考 [扩容 TiFlash 节点](/scale-tidb-using-tiup.md#扩容-tiflash-节点) 章节对 TiFlash 进行部署。