Skip to content

Commit

Permalink
tidb-in-kubernete, reference: update 8 links (#1846)
Browse files Browse the repository at this point in the history
* tidb-in-kubernete, reference: update 8 links

* dev/reference: remove a broken link

* dev: add 3 links

* v2.1: update the binlogctl link

* v3.0: update the binlogctl link and add 2 links

* v3.0: update the binlogctl link

* dev: update the binlogctl link
  • Loading branch information
CaitinChen authored and yikeke committed Sep 12, 2019
1 parent d5be5f0 commit 20844dc
Show file tree
Hide file tree
Showing 8 changed files with 12 additions and 12 deletions.
6 changes: 3 additions & 3 deletions dev/reference/tidb-binlog-overview.md
Original file line number Original file line Diff line number Diff line change
Expand Up @@ -20,15 +20,15 @@ TiDB Binlog 集群主要分为 Pump 和 Drainer 两个组件,以及 binlogctl


### Pump ### Pump


Pump 用于实时记录 TiDB 产生的 Binlog,并将 Binlog 按照事务的提交时间进行排序,再提供给 Drainer 进行消费。 [Pump](https://github.com/pingcap/tidb-binlog/blob/master/pump) 用于实时记录 TiDB 产生的 Binlog,并将 Binlog 按照事务的提交时间进行排序,再提供给 Drainer 进行消费。


### Drainer ### Drainer


Drainer 从各个 Pump 中收集 Binlog 进行归并,再将 Binlog 转化成 SQL 或者指定格式的数据,最终同步到下游。 [Drainer](https://github.com/pingcap/tidb-binlog/tree/master/drainer) 从各个 Pump 中收集 Binlog 进行归并,再将 Binlog 转化成 SQL 或者指定格式的数据,最终同步到下游。


### binlogctl 工具 ### binlogctl 工具


[binlogctl](https://github.com/pingcap/tidb-tools/tree/master/tidb-binlog/binlogctl) 是一个 TiDB Binlog 配套的运维工具,具有如下功能: [`binlogctl`](https://github.com/pingcap/tidb-binlog/tree/master/binlogctl) 是一个 TiDB Binlog 配套的运维工具,具有如下功能:


* 获取 TiDB 集群当前的 TSO * 获取 TiDB 集群当前的 TSO
* 查看 Pump/Drainer 状态 * 查看 Pump/Drainer 状态
Expand Down
2 changes: 1 addition & 1 deletion dev/reference/tools/tidb-binlog/tidb-binlog-kafka.md
Original file line number Original file line Diff line number Diff line change
Expand Up @@ -83,7 +83,7 @@ cd tidb-binlog-kafka-linux-amd64


为了保证数据的完整性,在 Pump 运行 10 分钟左右后按顺序进行如下操作: 为了保证数据的完整性,在 Pump 运行 10 分钟左右后按顺序进行如下操作:


* 使用 [tidb-tools](https://github.com/pingcap/tidb-tools) 项目中的 [binlogctl](https://github.com/pingcap/tidb-tools/tree/master/tidb-binlog/binlogctl) 工具生成 Drainer 初次启动所需的 position * 使用 [tidb-tools](https://github.com/pingcap/tidb-tools) 项目中的 [binlogctl](https://github.com/pingcap/tidb-tools/tree/binlog-kafka/tidb_binlog/binlogctl) 工具生成 Drainer 初次启动所需的 position
* 全量备份,例如 Mydumper 备份 TiDB * 全量备份,例如 Mydumper 备份 TiDB
* 全量导入备份到目标系统 * 全量导入备份到目标系统
* Kafka 版本 Drainer 启动的 savepoint 默认保存在下游 database tidb_binlog 下的 checkpoint 表中,如果 checkpoint 表中没有有效的数据,可以通过设置 `initial-commit-ts` 启动 Drainer 从指定位置开始消费 - `bin/drainer --config=conf/drainer.toml --initial-commit-ts=${position}` * Kafka 版本 Drainer 启动的 savepoint 默认保存在下游 database tidb_binlog 下的 checkpoint 表中,如果 checkpoint 表中没有有效的数据,可以通过设置 `initial-commit-ts` 启动 Drainer 从指定位置开始消费 - `bin/drainer --config=conf/drainer.toml --initial-commit-ts=${position}`
Expand Down
Original file line number Original file line Diff line number Diff line change
Expand Up @@ -120,7 +120,7 @@ kubectl -n kube-system get pods -l app=helm


### 添加 Helm 仓库 ### 添加 Helm 仓库


[Helm 仓库](https://charts.pingcap.org/)存放着 PingCAP 发布的 charts,例如 tidb-operator、tidb-cluster 和 tidb-backup 等等。可使用以下命令添加仓库: Helm 仓库 (`https://charts.pingcap.org/`) 存放着 PingCAP 发布的 charts,例如 tidb-operator、tidb-cluster 和 tidb-backup 等等。可使用以下命令添加仓库:


{{< copyable "shell-regular" >}} {{< copyable "shell-regular" >}}


Expand Down
2 changes: 1 addition & 1 deletion v2.1/reference/tidb-binlog-overview.md
Original file line number Original file line Diff line number Diff line change
Expand Up @@ -28,7 +28,7 @@ Drainer 从各个 Pump 中收集 Binlog 进行归并,再将 Binlog 转化成 S


### binlogctl 工具 ### binlogctl 工具


[binlogctl](https://github.com/pingcap/tidb-tools/tree/master/tidb-binlog/binlogctl) 是一个 TiDB Binlog 配套的运维工具,具有如下功能: binlogctl 是一个 TiDB Binlog 配套的运维工具,具有如下功能:


* 获取 TiDB 集群当前的 TSO * 获取 TiDB 集群当前的 TSO
* 查看 Pump/Drainer 状态 * 查看 Pump/Drainer 状态
Expand Down
2 changes: 1 addition & 1 deletion v2.1/reference/tools/tidb-binlog/tidb-binlog-kafka.md
Original file line number Original file line Diff line number Diff line change
Expand Up @@ -83,7 +83,7 @@ cd tidb-binlog-kafka-linux-amd64


为了保证数据的完整性,在 Pump 运行 10 分钟左右后按顺序进行如下操作: 为了保证数据的完整性,在 Pump 运行 10 分钟左右后按顺序进行如下操作:


* 使用 [tidb-tools](https://github.com/pingcap/tidb-tools) 项目中的 [binlogctl](https://github.com/pingcap/tidb-tools/tree/master/tidb-binlog/binlogctl) 工具生成 Drainer 初次启动所需的 position * 使用 [binlogctl](https://github.com/pingcap/tidb-tools/tree/binlog-kafka/tidb_binlog/binlogctl) 工具生成 Drainer 初次启动所需的 position
* 全量备份,例如 Mydumper 备份 TiDB * 全量备份,例如 Mydumper 备份 TiDB
* 全量导入备份到目标系统 * 全量导入备份到目标系统
* Kafka 版本 Drainer 启动的 savepoint 默认保存在下游 database tidb_binlog 下的 checkpoint 表中,如果 checkpoint 表中没有有效的数据,可以通过设置 `initial-commit-ts` 启动 Drainer 从指定位置开始消费 - `bin/drainer --config=conf/drainer.toml --initial-commit-ts=${position}` * Kafka 版本 Drainer 启动的 savepoint 默认保存在下游 database tidb_binlog 下的 checkpoint 表中,如果 checkpoint 表中没有有效的数据,可以通过设置 `initial-commit-ts` 启动 Drainer 从指定位置开始消费 - `bin/drainer --config=conf/drainer.toml --initial-commit-ts=${position}`
Expand Down
6 changes: 3 additions & 3 deletions v3.0/reference/tidb-binlog-overview.md
Original file line number Original file line Diff line number Diff line change
Expand Up @@ -21,15 +21,15 @@ TiDB Binlog 集群主要分为 Pump 和 Drainer 两个组件,以及 binlogctl


### Pump ### Pump


Pump 用于实时记录 TiDB 产生的 Binlog,并将 Binlog 按照事务的提交时间进行排序,再提供给 Drainer 进行消费。 [Pump](https://github.com/pingcap/tidb-binlog/blob/master/pump) 用于实时记录 TiDB 产生的 Binlog,并将 Binlog 按照事务的提交时间进行排序,再提供给 Drainer 进行消费。


### Drainer ### Drainer


Drainer 从各个 Pump 中收集 Binlog 进行归并,再将 Binlog 转化成 SQL 或者指定格式的数据,最终同步到下游。 [Drainer](https://github.com/pingcap/tidb-binlog/tree/master/drainer) 从各个 Pump 中收集 Binlog 进行归并,再将 Binlog 转化成 SQL 或者指定格式的数据,最终同步到下游。


### binlogctl 工具 ### binlogctl 工具


[binlogctl](https://github.com/pingcap/tidb-tools/tree/master/tidb-binlog/binlogctl) 是一个 TiDB Binlog 配套的运维工具,具有如下功能: [`binlogctl`](https://github.com/pingcap/tidb-binlog/tree/master/binlogctl) 是一个 TiDB Binlog 配套的运维工具,具有如下功能:


* 获取 TiDB 集群当前的 TSO * 获取 TiDB 集群当前的 TSO
* 查看 Pump/Drainer 状态 * 查看 Pump/Drainer 状态
Expand Down
2 changes: 1 addition & 1 deletion v3.0/reference/tools/tidb-binlog/tidb-binlog-kafka.md
Original file line number Original file line Diff line number Diff line change
Expand Up @@ -84,7 +84,7 @@ cd tidb-binlog-kafka-linux-amd64


为了保证数据的完整性,在 Pump 运行 10 分钟左右后按顺序进行如下操作: 为了保证数据的完整性,在 Pump 运行 10 分钟左右后按顺序进行如下操作:


* 使用 [tidb-tools](https://github.com/pingcap/tidb-tools) 项目中的 [binlogctl](https://github.com/pingcap/tidb-tools/tree/master/tidb-binlog/binlogctl) 工具生成 Drainer 初次启动所需的 position * 使用 [binlogctl](https://github.com/pingcap/tidb-tools/tree/binlog-kafka/tidb_binlog/binlogctl) 工具生成 Drainer 初次启动所需的 position
* 全量备份,例如 Mydumper 备份 TiDB * 全量备份,例如 Mydumper 备份 TiDB
* 全量导入备份到目标系统 * 全量导入备份到目标系统
* Kafka 版本 Drainer 启动的 savepoint 默认保存在下游 database tidb_binlog 下的 checkpoint 表中,如果 checkpoint 表中没有有效的数据,可以通过设置 `initial-commit-ts` 启动 Drainer 从指定位置开始消费 - `bin/drainer --config=conf/drainer.toml --initial-commit-ts=${position}` * Kafka 版本 Drainer 启动的 savepoint 默认保存在下游 database tidb_binlog 下的 checkpoint 表中,如果 checkpoint 表中没有有效的数据,可以通过设置 `initial-commit-ts` 启动 Drainer 从指定位置开始消费 - `bin/drainer --config=conf/drainer.toml --initial-commit-ts=${position}`
Expand Down
Original file line number Original file line Diff line number Diff line change
Expand Up @@ -121,7 +121,7 @@ kubectl -n kube-system get pods -l app=helm


### 添加 Helm 仓库 ### 添加 Helm 仓库


[Helm 仓库](https://charts.pingcap.org/)存放着 PingCAP 发布的 charts,例如 tidb-operator、tidb-cluster 和 tidb-backup 等等。可使用以下命令添加仓库: Helm 仓库 (`https://charts.pingcap.org/`) 存放着 PingCAP 发布的 charts,例如 tidb-operator、tidb-cluster 和 tidb-backup 等等。可使用以下命令添加仓库:


{{< copyable "shell-regular" >}} {{< copyable "shell-regular" >}}


Expand Down

0 comments on commit 20844dc

Please sign in to comment.