diff --git a/content/zh-cn/docs/tasks/administer-cluster/kubeadm/kubeadm-reconfigure.md b/content/zh-cn/docs/tasks/administer-cluster/kubeadm/kubeadm-reconfigure.md index e6f51807be3fa..bb3560efebc5d 100644 --- a/content/zh-cn/docs/tasks/administer-cluster/kubeadm/kubeadm-reconfigure.md +++ b/content/zh-cn/docs/tasks/administer-cluster/kubeadm/kubeadm-reconfigure.md @@ -241,7 +241,7 @@ The configuration is located under the `data.kubelet` key. To reflect the change on kubeadm nodes you must do the following: - Log in to a kubeadm node - Run `kubeadm upgrade node phase kubelet-config` to download the latest `kubelet-config` -ConfigMap contents into the local file `/var/lib/kubelet/config.conf` +ConfigMap contents into the local file `/var/lib/kubelet/config.yaml` - Edit the file `/var/lib/kubelet/kubeadm-flags.env` to apply additional configuration with flags - Restart the kubelet service with `systemctl restart kubelet` @@ -252,7 +252,7 @@ flags - 登录到 kubeadm 节点 - 运行 `kubeadm upgrade node phase kubelet-config` 下载最新的 - `kubelet-config` ConfigMap 内容到本地文件 `/var/lib/kubelet/config.conf` + `kubelet-config` ConfigMap 内容到本地文件 `/var/lib/kubelet/config.yaml` - 编辑文件 `/var/lib/kubelet/kubeadm-flags.env` 以使用标志来应用额外的配置 - 使用 `systemctl restart kubelet` 重启 kubelet 服务 @@ -266,15 +266,16 @@ Do these changes one node at a time to allow workloads to be rescheduled properl {{< note >}} 在 `kubeadm upgrade` 期间,kubeadm 从 `kubelet-config` ConfigMap -下载 `KubeletConfiguration` 并覆盖 `/var/lib/kubelet/config.conf` 的内容。 +下载 `KubeletConfiguration` 并覆盖 `/var/lib/kubelet/config.yaml` 的内容。 这意味着节点本地配置必须通过`/var/lib/kubelet/kubeadm-flags.env`中的标志或在 -kubeadm upgrade` 后手动更新`/var/lib/kubelet/config.conf`的内容来应用,然后重新启动 kubelet。 +kubeadm upgrade` 后手动更新 `/var/lib/kubelet/config.yaml` 的内容来应用, +然后重新启动 kubelet。 {{< /note >}} #### 持久化 kubelet 重新配置 -对存储在 `/var/lib/kubelet/config.conf` 中的 `KubeletConfiguration` +对存储在 `/var/lib/kubelet/config.yaml` 中的 `KubeletConfiguration` 所做的任何更改都将在 `kubeadm upgrade` 时因为下载集群范围内的 `kubelet-config` ConfigMap 的内容而被覆盖。 -要持久保存 kubelet 节点特定的配置,文件`/var/lib/kubelet/config.conf` -必须在升级后手动更新,或者文件`/var/lib/kubelet/kubeadm-flags.env` 可以包含标志。 +要持久保存 kubelet 节点特定的配置,文件 `/var/lib/kubelet/config.yaml` +必须在升级后手动更新,或者文件 `/var/lib/kubelet/kubeadm-flags.env` 可以包含标志。 kubelet 标志会覆盖相关的 `KubeletConfiguration` 选项,但请注意,有些标志已被弃用。 -更改 `/var/lib/kubelet/config.conf` 或 `/var/lib/kubelet/kubeadm-flags.env` +更改 `/var/lib/kubelet/config.yaml` 或 `/var/lib/kubelet/kubeadm-flags.env` 后需要重启 kubelet。 diff --git a/content/zh-cn/docs/tasks/administer-cluster/topology-manager.md b/content/zh-cn/docs/tasks/administer-cluster/topology-manager.md index f25486108eaa4..7f5d083f4a6a0 100644 --- a/content/zh-cn/docs/tasks/administer-cluster/topology-manager.md +++ b/content/zh-cn/docs/tasks/administer-cluster/topology-manager.md @@ -349,10 +349,10 @@ kubelet 将调用每个建议提供者以确定资源可用性。 如果亲和性不是首选,则拓扑管理器将存储该亲和性,并且无论如何都将 Pod 接纳到该节点。 -之后 **建议提供者** 可以在进行资源分配决策时使用这个信息。 +之后**建议提供者**可以在进行资源分配决策时使用这个信息。 -如果 Pod 被允许运行在某节点,则 **建议提供者** 可以在做出资源分配决定时使用此信息。 +如果 Pod 被允许运行在某节点,则**建议提供者**可以在做出资源分配决定时使用此信息。 ### 拓扑管理器策略选项 {#topology-manager-policy-options} 对拓扑管理器策略选项的支持需要启用 `TopologyManagerPolicyOptions` -[特性门控](/zh-cn/docs/reference/command-line-tools-reference/feature-gates/)。 +[特性门控](/zh-cn/docs/reference/command-line-tools-reference/feature-gates/)(默认启用)。 你可以使用以下特性门控根据成熟度级别打开和关闭这些选项组: -* `TopologyManagerPolicyBetaOptions` 默认禁用。启用以显示 Beta 级别选项。目前没有 Beta 级别选项。 -* `TopologyManagerPolicyAlphaOptions` 默认禁用。启用以显示 Alpha 级别选项。你仍然需要使用 - `TopologyManagerPolicyOptions` kubelet 选项来启用每个选项。 +* `TopologyManagerPolicyBetaOptions` 默认启用。启用以显示 Beta 级别选项。 +* `TopologyManagerPolicyAlphaOptions` 默认禁用。启用以显示 Alpha 级别选项。 + + +你仍然需要使用 `TopologyManagerPolicyOptions` kubelet 选项来启用每个选项。 存在以下策略选项: -* `prefer-closest-numa-nodes`(Alpha,默认不可见,`TopologyManagerPolicyOptions` 和 - `TopologyManagerPolicyAlphaOptions` 特性门控必须被启用)(1.26 或更高版本) +* `prefer-closest-numa-nodes`(Beta,默认可见,`TopologyManagerPolicyOptions` 和 + `TopologyManagerPolicyAlphaOptions` 特性门控必须被启用)。 + `prefer-closest-numa-nodes` 策略选项在 Kubernetes {{< skew currentVersion >}} + 中是 Beta 版。 基于此信息,拓扑管理器将为 Pod 计算最佳提示并存储该信息,并且供 提示提供程序在进行资源分配时使用。 @@ -636,4 +644,3 @@ assignments. 1. 拓扑管理器所能处理的最大 NUMA 节点个数是 8。若 NUMA 节点数超过 8, 枚举可能的 NUMA 亲和性并为之生成提示时会发生状态爆炸。 2. 调度器无法感知拓扑,所以有可能一个 Pod 被调度到一个节点之后,会因为拓扑管理器的缘故在该节点上启动失败。 - diff --git a/content/zh-cn/docs/tasks/configure-pod-container/configure-liveness-readiness-startup-probes.md b/content/zh-cn/docs/tasks/configure-pod-container/configure-liveness-readiness-startup-probes.md index ddcec67f6c121..e965f3b50fe71 100644 --- a/content/zh-cn/docs/tasks/configure-pod-container/configure-liveness-readiness-startup-probes.md +++ b/content/zh-cn/docs/tasks/configure-pod-container/configure-liveness-readiness-startup-probes.md @@ -330,7 +330,7 @@ can't it is considered a failure. 如你所见,TCP 检测的配置和 HTTP 检测非常相似。 -下面这个例子同时使用就绪和存活探针。kubelet 会在容器启动 5 秒后发送第一个就绪探针。 +下面这个例子同时使用就绪和存活探针。kubelet 会在容器启动 15 秒后发送第一个就绪探针。 探针会尝试连接 `goproxy` 容器的 8080 端口。 如果探测成功,这个 Pod 会被标记为就绪状态,kubelet 将继续每隔 10 秒运行一次探测。 @@ -635,8 +635,9 @@ liveness and readiness checks: * `initialDelaySeconds`:容器启动后要等待多少秒后才启动启动、存活和就绪探针。 如果定义了启动探针,则存活探针和就绪探针的延迟将在启动探针已成功之后才开始计算。 - 默认是 0 秒,最小值是 0。 + 如果 `periodSeconds` 的值大于 `initialDelaySeconds`,则 `initialDelaySeconds` + 将被忽略。默认是 0 秒,最小值是 0。 * `periodSeconds`:执行探测的时间间隔(单位是秒)。默认是 10 秒。最小值是 1。 * `timeoutSeconds`:探测的超时后等待多少秒。默认值是 1 秒。最小值是 1。 * `successThreshold`:探针在失败后,被视为成功的最小连续成功数。默认值是 1。 diff --git a/content/zh-cn/docs/tasks/extend-kubernetes/configure-multiple-schedulers.md b/content/zh-cn/docs/tasks/extend-kubernetes/configure-multiple-schedulers.md index 19bd491ddba15..22896e2338111 100644 --- a/content/zh-cn/docs/tasks/extend-kubernetes/configure-multiple-schedulers.md +++ b/content/zh-cn/docs/tasks/extend-kubernetes/configure-multiple-schedulers.md @@ -82,13 +82,23 @@ Save the file as `Dockerfile`, build the image and push it to a registry. This e pushes the image to [Google Container Registry (GCR)](https://cloud.google.com/container-registry/). For more details, please read the GCR -[documentation](https://cloud.google.com/container-registry/docs/). +[documentation](https://cloud.google.com/container-registry/docs/). Alternatively +you can also use the [docker hub](https://hub.docker.com/search?q=). For more details +refer to the docker hub [documentation](https://docs.docker.com/docker-hub/repos/create/#create-a-repository). --> 将文件保存为 `Dockerfile`,构建镜像并将其推送到镜像仓库。 此示例将镜像推送到 [Google 容器镜像仓库(GCR)](https://cloud.google.com/container-registry/)。 有关详细信息,请阅读 GCR [文档](https://cloud.google.com/container-registry/docs/)。 +或者,你也可以使用 [Docker Hub](https://hub.docker.com/search?q=)。 +有关更多详细信息,请参阅 Docker Hub +[文档](https://docs.docker.com/docker-hub/repos/create/#create-a-repository)。 + ```shell +# 这里使用的镜像名称和仓库只是一个例子 docker build -t gcr.io/my-gcp-project/my-kube-scheduler:1.0 . gcloud docker -- push gcr.io/my-gcp-project/my-kube-scheduler:1.0 ``` @@ -326,7 +336,7 @@ scheduler in that pod spec. Let's look at three examples. - 确认所有三个 pod 都在运行。 + 确认所有三个 Pod 都在运行。 ```shell kubectl get pods @@ -337,7 +347,7 @@ scheduler in that pod spec. Let's look at three examples. -### 验证是否使用所需的调度器调度了 pod +### 验证是否使用所需的调度器调度了 Pod -或者,可以查看事件日志中的 “Scheduled” 条目,以验证是否由所需的调度器调度了 Pod。 +或者,可以查看事件日志中的 `Scheduled` 条目,以验证是否由所需的调度器调度了 Pod。 ```shell kubectl get events @@ -372,5 +382,4 @@ or a custom container image for the cluster's main scheduler by modifying its st on the relevant control plane nodes. --> 你也可以使用[自定义调度器配置](/zh-cn/docs/reference/scheduling/config/#multiple-profiles) -或自定义容器镜像,用于集群的主调度器,方法是在相关控制平面节点上修改其静态 pod 清单。 - +或自定义容器镜像,用于集群的主调度器,方法是在相关控制平面节点上修改其静态 Pod 清单。