Skip to content
Permalink
Browse files

tidb-in-kubernete, reference: update 8 links (#1846)

* tidb-in-kubernete, reference: update 8 links

* dev/reference: remove a broken link

* dev: add 3 links

* v2.1: update the binlogctl link

* v3.0: update the binlogctl link and add 2 links

* v3.0: update the binlogctl link

* dev: update the binlogctl link
  • Loading branch information...
CaitinChen authored and yikeke committed Sep 12, 2019
1 parent d5be5f0 commit 20844dccd79b537274032c987403c357711632d0
@@ -20,15 +20,15 @@ TiDB Binlog 集群主要分为 Pump 和 Drainer 两个组件,以及 binlogctl

### Pump

Pump 用于实时记录 TiDB 产生的 Binlog,并将 Binlog 按照事务的提交时间进行排序,再提供给 Drainer 进行消费。
[Pump](https://github.com/pingcap/tidb-binlog/blob/master/pump) 用于实时记录 TiDB 产生的 Binlog,并将 Binlog 按照事务的提交时间进行排序,再提供给 Drainer 进行消费。

### Drainer

Drainer 从各个 Pump 中收集 Binlog 进行归并,再将 Binlog 转化成 SQL 或者指定格式的数据,最终同步到下游。
[Drainer](https://github.com/pingcap/tidb-binlog/tree/master/drainer) 从各个 Pump 中收集 Binlog 进行归并,再将 Binlog 转化成 SQL 或者指定格式的数据,最终同步到下游。

### binlogctl 工具

[binlogctl](https://github.com/pingcap/tidb-tools/tree/master/tidb-binlog/binlogctl) 是一个 TiDB Binlog 配套的运维工具,具有如下功能:
[`binlogctl`](https://github.com/pingcap/tidb-binlog/tree/master/binlogctl) 是一个 TiDB Binlog 配套的运维工具,具有如下功能:

* 获取 TiDB 集群当前的 TSO
* 查看 Pump/Drainer 状态
@@ -83,7 +83,7 @@ cd tidb-binlog-kafka-linux-amd64

为了保证数据的完整性,在 Pump 运行 10 分钟左右后按顺序进行如下操作:

* 使用 [tidb-tools](https://github.com/pingcap/tidb-tools) 项目中的 [binlogctl](https://github.com/pingcap/tidb-tools/tree/master/tidb-binlog/binlogctl) 工具生成 Drainer 初次启动所需的 position
* 使用 [tidb-tools](https://github.com/pingcap/tidb-tools) 项目中的 [binlogctl](https://github.com/pingcap/tidb-tools/tree/binlog-kafka/tidb_binlog/binlogctl) 工具生成 Drainer 初次启动所需的 position
* 全量备份,例如 Mydumper 备份 TiDB
* 全量导入备份到目标系统
* Kafka 版本 Drainer 启动的 savepoint 默认保存在下游 database tidb_binlog 下的 checkpoint 表中,如果 checkpoint 表中没有有效的数据,可以通过设置 `initial-commit-ts` 启动 Drainer 从指定位置开始消费 - `bin/drainer --config=conf/drainer.toml --initial-commit-ts=${position}`
@@ -120,7 +120,7 @@ kubectl -n kube-system get pods -l app=helm

### 添加 Helm 仓库

[Helm 仓库](https://charts.pingcap.org/)存放着 PingCAP 发布的 charts,例如 tidb-operator、tidb-cluster 和 tidb-backup 等等。可使用以下命令添加仓库:
Helm 仓库 (`https://charts.pingcap.org/`) 存放着 PingCAP 发布的 charts,例如 tidb-operator、tidb-cluster 和 tidb-backup 等等。可使用以下命令添加仓库:

{{< copyable "shell-regular" >}}

@@ -28,7 +28,7 @@ Drainer 从各个 Pump 中收集 Binlog 进行归并,再将 Binlog 转化成 S

### binlogctl 工具

[binlogctl](https://github.com/pingcap/tidb-tools/tree/master/tidb-binlog/binlogctl) 是一个 TiDB Binlog 配套的运维工具,具有如下功能:
binlogctl 是一个 TiDB Binlog 配套的运维工具,具有如下功能:

* 获取 TiDB 集群当前的 TSO
* 查看 Pump/Drainer 状态
@@ -83,7 +83,7 @@ cd tidb-binlog-kafka-linux-amd64

为了保证数据的完整性,在 Pump 运行 10 分钟左右后按顺序进行如下操作:

* 使用 [tidb-tools](https://github.com/pingcap/tidb-tools) 项目中的 [binlogctl](https://github.com/pingcap/tidb-tools/tree/master/tidb-binlog/binlogctl) 工具生成 Drainer 初次启动所需的 position
* 使用 [binlogctl](https://github.com/pingcap/tidb-tools/tree/binlog-kafka/tidb_binlog/binlogctl) 工具生成 Drainer 初次启动所需的 position
* 全量备份,例如 Mydumper 备份 TiDB
* 全量导入备份到目标系统
* Kafka 版本 Drainer 启动的 savepoint 默认保存在下游 database tidb_binlog 下的 checkpoint 表中,如果 checkpoint 表中没有有效的数据,可以通过设置 `initial-commit-ts` 启动 Drainer 从指定位置开始消费 - `bin/drainer --config=conf/drainer.toml --initial-commit-ts=${position}`
@@ -21,15 +21,15 @@ TiDB Binlog 集群主要分为 Pump 和 Drainer 两个组件,以及 binlogctl

### Pump

Pump 用于实时记录 TiDB 产生的 Binlog,并将 Binlog 按照事务的提交时间进行排序,再提供给 Drainer 进行消费。
[Pump](https://github.com/pingcap/tidb-binlog/blob/master/pump) 用于实时记录 TiDB 产生的 Binlog,并将 Binlog 按照事务的提交时间进行排序,再提供给 Drainer 进行消费。

### Drainer

Drainer 从各个 Pump 中收集 Binlog 进行归并,再将 Binlog 转化成 SQL 或者指定格式的数据,最终同步到下游。
[Drainer](https://github.com/pingcap/tidb-binlog/tree/master/drainer) 从各个 Pump 中收集 Binlog 进行归并,再将 Binlog 转化成 SQL 或者指定格式的数据,最终同步到下游。

### binlogctl 工具

[binlogctl](https://github.com/pingcap/tidb-tools/tree/master/tidb-binlog/binlogctl) 是一个 TiDB Binlog 配套的运维工具,具有如下功能:
[`binlogctl`](https://github.com/pingcap/tidb-binlog/tree/master/binlogctl) 是一个 TiDB Binlog 配套的运维工具,具有如下功能:

* 获取 TiDB 集群当前的 TSO
* 查看 Pump/Drainer 状态
@@ -84,7 +84,7 @@ cd tidb-binlog-kafka-linux-amd64

为了保证数据的完整性,在 Pump 运行 10 分钟左右后按顺序进行如下操作:

* 使用 [tidb-tools](https://github.com/pingcap/tidb-tools) 项目中的 [binlogctl](https://github.com/pingcap/tidb-tools/tree/master/tidb-binlog/binlogctl) 工具生成 Drainer 初次启动所需的 position
* 使用 [binlogctl](https://github.com/pingcap/tidb-tools/tree/binlog-kafka/tidb_binlog/binlogctl) 工具生成 Drainer 初次启动所需的 position
* 全量备份,例如 Mydumper 备份 TiDB
* 全量导入备份到目标系统
* Kafka 版本 Drainer 启动的 savepoint 默认保存在下游 database tidb_binlog 下的 checkpoint 表中,如果 checkpoint 表中没有有效的数据,可以通过设置 `initial-commit-ts` 启动 Drainer 从指定位置开始消费 - `bin/drainer --config=conf/drainer.toml --initial-commit-ts=${position}`
@@ -121,7 +121,7 @@ kubectl -n kube-system get pods -l app=helm

### 添加 Helm 仓库

[Helm 仓库](https://charts.pingcap.org/)存放着 PingCAP 发布的 charts,例如 tidb-operator、tidb-cluster 和 tidb-backup 等等。可使用以下命令添加仓库:
Helm 仓库 (`https://charts.pingcap.org/`) 存放着 PingCAP 发布的 charts,例如 tidb-operator、tidb-cluster 和 tidb-backup 等等。可使用以下命令添加仓库:

{{< copyable "shell-regular" >}}

0 comments on commit 20844dc

Please sign in to comment.
You can’t perform that action at this time.