From a965a1141ab4362fbfab29812974cca527ae92e7 Mon Sep 17 00:00:00 2001 From: Abby <78209557+abby-cyber@users.noreply.github.com> Date: Fri, 12 Nov 2021 20:05:04 +0800 Subject: [PATCH 1/9] upgrade Helm --- .../2.deploy-nebula-operator.md | 54 +++++++++++++------ .../3.2create-cluster-with-helm.md | 36 ++++++++++--- 2 files changed, 69 insertions(+), 21 deletions(-) diff --git a/docs-2.0/nebula-operator/2.deploy-nebula-operator.md b/docs-2.0/nebula-operator/2.deploy-nebula-operator.md index c18e68daa31..61c23629216 100644 --- a/docs-2.0/nebula-operator/2.deploy-nebula-operator.md +++ b/docs-2.0/nebula-operator/2.deploy-nebula-operator.md @@ -69,12 +69,20 @@ 3. 安装Nebula Operator。 ```bash - helm install nebula-operator nebula-operator/nebula-operator --namespace= --version=${chart_version} + helm install nebula-operator nebula-operator/nebula-operator --namespace= --version=${chart_version} ``` - - 上述命令中的``为用户创建的命名空间。如果用户未创建该命名空间,可以执行`kubectl create namespace nebula-operator-system`进行创建。用户也可创建其他命名空间。 + 例如,安装{{operator.release}}版的Operator命令如下。 + + ```bash + helm install nebula-operator nebula-operator/nebula-operator --namespace=nebula-operator-system --version={{operator.release}} + ``` + + - 上述命令中的`nebula-operator-system`为用户创建的命名空间。如果用户未创建该命名空间,可以执行`kubectl create namespace nebula-operator-system`进行创建。用户也可创建其他命名空间。 - - `${chart_version}`为Nebula Operator chart的版本。当Chart中只有一个默认版本时,可不指定。执行`helm search repo -l nebula-operator`查看Chart版本。 + - `{{operator.release}}`为Nebula Operator chart的版本。当Chart中只有一个默认版本时,可不指定。执行`helm search repo -l nebula-operator`查看Chart版本。 + + 用户可在执行安装Nebula Operator chart命令时自定义其配置。更多信息,查看下文**自定义配置Chart**。 @@ -106,11 +114,11 @@ controllerManager: env: [] resources: limits: - cpu: 100m - memory: 30Mi + cpu: 200m + memory: 200Mi requests: cpu: 100m - memory: 20Mi + memory: 100Mi admissionWebhook: create: true @@ -122,18 +130,19 @@ scheduler: env: [] resources: limits: - cpu: 100m - memory: 30Mi + cpu: 200m + memory: 200Mi requests: cpu: 100m - memory: 20Mi + memory: 100Mi +... ``` 部分参数描述如下: | 参数 | 默认值 | 描述 | | :------------------------------------- | :------------------------------ | :----------------------------------------- | -| `image.nebulaOperator.image` | `vesoft/nebula-operator:latest` | Nebula Operator的镜像,版本为{{operator.branch}}。 | +| `image.nebulaOperator.image` | `vesoft/nebula-operator:latest` | Nebula Operator的镜像,版本为{{operator.release}}。 | | `image.nebulaOperator.imagePullPolicy` | `IfNotPresent` | 镜像拉取策略。 | | `imagePullSecrets` | - | 镜像拉取密钥。 | | `kubernetesClusterDomain` | `cluster.local`。 | 集群域名。 | @@ -169,16 +178,31 @@ helm install nebula-operator nebula-operator/nebula-operator --namespace= -f ${HOME}/nebula-operator/charts/nebula-operator/values.yaml + helm upgrade nebula-operator nebula-operator/nebula-operator --namespace= -f ${HOME}/nebula-operator/charts/nebula-operator/values.yaml ``` - ``为用户创建的命名空间,nebula-operator相关Pods在此命名空间下。 + ``为用户创建的命名空间,nebula-operator相关Pods在此命名空间下。 + + +### 升级Nebula Operator - + 由于0.9.0版本的Nebula Operator的日志盘和数据盘分开存储,因此用升级后的Operator管理2.5.x版本的Nebula Graph集群会导致兼容性问题。用户可以备份2.5.x版本的Nebula Graph集群,然后使用升级版本的Operator创建2.6.x版本集群。 + +1. 拉取最新的Helm仓库。 + + ```bash + helm repo update + ``` + +2. 升级Operator。 + + ```bash + helm upgrade nebula-operator nebula-operator/nebula-operator --namespace= --version={{operator.release}} + ``` + ### 卸载Nebula Operator 1. 卸载Nebula Operator chart。 diff --git a/docs-2.0/nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md b/docs-2.0/nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md index c01ae0e9fd2..93be34771a4 100644 --- a/docs-2.0/nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md +++ b/docs-2.0/nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md @@ -99,26 +99,50 @@ helm uninstall "${NEBULA_CLUSTER_NAME}" --namespace="${NEBULA_CLUSTER_NAMESPACE} | 参数 | 默认值 | 描述 | | :-------------------------- | :----------------------------------------------------------- | ------------------------------------------------------------ | | `nameOverride` | `nil` | 覆盖集群Chart的名称。 | -| `nebula.version` | `{{nebula.branch}}` | Nebula Graph的版本。 | +| `nebula.version` | `{{nebula.branch}}` | Nebula Graph的版本。 | | `nebula.imagePullPolicy` | `IfNotPresent` | Nebula Graph镜像的拉取策略。关于拉取策略详情,请参考[Image pull policy](https://kubernetes.io/docs/concepts/containers/images/#image-pull-policy)。 | | `nebula.storageClassName` | `nil` | 持久存储卷的类型,默认使用StorageClass的名字。 | | `nebula.schedulerName` | `default-scheduler` | Nebula Graph集群的调度器。 | | `nebula.reference` | `{"name": "statefulsets.apps", "version": "v1"}` | 为Nebula Graph引用的工作负载。 | -| `nebula.podLabels` | `{}` | Nebula Graph服务Pod的标签。 | -| `nebula.podAnnotations` | `{}` | Nebula Graph服务的注解。 | | `nebula.graphd.image` | `vesoft/nebula-graphd` | Graphd容器镜像名称。使用 `nebula.version`中的值作为版本。 | | `nebula.graphd.replicas` | `2` | Graphd服务的副本数。 | | `nebula.graphd.env` | `[]` | Graphd服务的环境变量。 | | `nebula.graphd.resources` | `{"resources":{"requests":{"cpu":"500m","memory":"500Mi"},"limits":{"cpu":"1","memory":"1Gi"}}}` | Graphd资源配置。 | -| `nebula.graphd.storage` | `1Gi` | Graphd服务的存储大小值。 | +| `nebula.graphd.logStorage` | `500Mi` | Graphd服务的日志盘存储值。 | +| `nebula.graphd.podLabels` | `{}` | Graphd服务Pod的标签。 | +| `nebula.graphd.podAnnotations` | `{}` | Graphd服务Pod的注解。 | +| `nebula.graphd.nodeSelector` | `{}` |为Graphd pod设置节点标签以分配至指定的节点中。 | +| `nebula.graphd.tolerations` | `{}` |为Graphd pod设置Toleration以运行在标注了Taint的节点上。 | +| `nebula.graphd.affinity` | `{}` |为Graphd Pod设置节点亲和性。 | +| `nebula.graphd.readinessProbe` | `{}` |为Graphd Pod设置就绪探针以检测容器的状态。 | +| `nebula.graphd.sidecarContainers` | `{}` |为Graphd Pod设置Sidecar Container。 | +| `nebula.graphd.sidecarVolumes` | `{}` |为Graphd Pod设置Sidecar Volume。 | | `nebula.metad.image` | `vesoft/nebula-metad` | Metad容器镜像名称。使用 `nebula.version`中的值作为版本。 | | `nebula.metad.replicas` | `3` | Metad服务的副本数。 | | `nebula.metad.env` | `[]` | Metad服务的环境变量。 | | `nebula.metad.resources` | `{"resources":{"requests":{"cpu":"500m","memory":"500Mi"},"limits":{"cpu":"1","memory":"1Gi"}}}` | Metad服务的资源配置。 | -| `nebula.metad.storage` | `1Gi` | Graphd服务的存储大小值。 | +| `nebula.metad.logStorage` | `500Mi` | Metad服务的日志盘存储值。 | +| `nebula.metad.dataStorage` | `1Gi` | Metad服务的数据盘存储值。 | +| `nebula.metad.podLabels` | `{}` | Metad服务Pod的标签。 | +| `nebula.metad.podAnnotations` | `{}` | Metad服务Pod的注解。 | +| `nebula.metad.nodeSelector` | `{}` | 为Metad pod设置节点标签以分配至指定的节点中。 | +| `nebula.metad.tolerations` | `{}` | 为Metad pod设置Toleration以运行在标注了Taint的节点上。 | +| `nebula.metad.affinity` | `{}` | 为Metad Pod设置节点亲和性。 | +| `nebula.metad.readinessProbe` | `{}` | 为Metad Pod设置就绪探针以检测容器的状态。 | +| `nebula.metad.sidecarContainers` | `{}` | 为Metad Pod设置Sidecar Container。 | +| `nebula.metad.sidecarVolumes` | `{}` | 为Metad Pod设置Sidecar Volume。 | | `nebula.storaged.image` | `vesoft/nebula-storaged` | Storaged容器镜像名称。使用 `nebula.version`中的值作为版本。 | | `nebula.storaged.replicas` | `3` | Storaged服务的副本数。 | | `nebula.storaged.env` | `[]` | Storaged服务的环境变量。 | | `nebula.storaged.resources` | `{"resources":{"requests":{"cpu":"500m","memory":"500Mi"},"limits":{"cpu":"1","memory":"1Gi"}}}` | Storaged服务的资源配置。 | -| `nebula.storaged.storage` | `1Gi` | Storaged服务的存储空间值。 | +| `nebula.storaged.logStorage` | Storaged log volume size | `500Mi` | Storaged服务的日志盘存储值。 | +| `nebula.storaged.dataStorage` | Storaged data volume size | `1Gi` | Storaged服务的数据盘存储值。 | +| `nebula.storaged.podLabels` | Storaged pod labels | `{}` | Storaged服务Pod的标签。 | +| `nebula.storaged.podAnnotations` | Storaged pod annotations | `{}` | Storaged服务Pod的注解。 | +| `nebula.storaged.nodeSelector` | Storaged nodeSelector | `{}` | 为Storaged pod设置节点标签以分配至指定的节点中。 | +| `nebula.storaged.tolerations` | Storaged pod tolerations | `{}` | 为Storaged pod设置Toleration以运行在标注了Taint的节点上。 | +| `nebula.storaged.affinity` | Storaged affinity | `{}` | 为Storaged Pod设置节点亲和性。 | +| `nebula.storaged.readinessProbe` | Storaged pod readinessProbe | `{}` | 为Storaged Pod设置就绪探针以检测容器的状态。 | +| `nebula.storaged.sidecarContainers` | Storaged pod sidecarContainers | `{}` | 为Storaged Pod设置Sidecar Container。 | +| `nebula.storaged.sidecarVolumes` | Storaged pod sidecarVolumes | `{}` | 为Storaged Pod设置Sidecar Volume。 | | `imagePullSecrets` | `[]` | 拉取镜像的Secret。 | From 4eb140c8f3cc0885ed3ed7bc973d5dd614aa31a5 Mon Sep 17 00:00:00 2001 From: Abby <78209557+abby-cyber@users.noreply.github.com> Date: Fri, 12 Nov 2021 20:31:47 +0800 Subject: [PATCH 2/9] Update 3.2create-cluster-with-helm.md --- .../3.2create-cluster-with-helm.md | 20 +++++++++---------- 1 file changed, 10 insertions(+), 10 deletions(-) diff --git a/docs-2.0/nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md b/docs-2.0/nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md index 93be34771a4..4f7b5035679 100644 --- a/docs-2.0/nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md +++ b/docs-2.0/nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md @@ -135,14 +135,14 @@ helm uninstall "${NEBULA_CLUSTER_NAME}" --namespace="${NEBULA_CLUSTER_NAMESPACE} | `nebula.storaged.replicas` | `3` | Storaged服务的副本数。 | | `nebula.storaged.env` | `[]` | Storaged服务的环境变量。 | | `nebula.storaged.resources` | `{"resources":{"requests":{"cpu":"500m","memory":"500Mi"},"limits":{"cpu":"1","memory":"1Gi"}}}` | Storaged服务的资源配置。 | -| `nebula.storaged.logStorage` | Storaged log volume size | `500Mi` | Storaged服务的日志盘存储值。 | -| `nebula.storaged.dataStorage` | Storaged data volume size | `1Gi` | Storaged服务的数据盘存储值。 | -| `nebula.storaged.podLabels` | Storaged pod labels | `{}` | Storaged服务Pod的标签。 | -| `nebula.storaged.podAnnotations` | Storaged pod annotations | `{}` | Storaged服务Pod的注解。 | -| `nebula.storaged.nodeSelector` | Storaged nodeSelector | `{}` | 为Storaged pod设置节点标签以分配至指定的节点中。 | -| `nebula.storaged.tolerations` | Storaged pod tolerations | `{}` | 为Storaged pod设置Toleration以运行在标注了Taint的节点上。 | -| `nebula.storaged.affinity` | Storaged affinity | `{}` | 为Storaged Pod设置节点亲和性。 | -| `nebula.storaged.readinessProbe` | Storaged pod readinessProbe | `{}` | 为Storaged Pod设置就绪探针以检测容器的状态。 | -| `nebula.storaged.sidecarContainers` | Storaged pod sidecarContainers | `{}` | 为Storaged Pod设置Sidecar Container。 | -| `nebula.storaged.sidecarVolumes` | Storaged pod sidecarVolumes | `{}` | 为Storaged Pod设置Sidecar Volume。 | +| `nebula.storaged.logStorage` | `500Mi` | Storaged服务的日志盘存储值。 | +| `nebula.storaged.dataStorage` | `1Gi` | Storaged服务的数据盘存储值。 | +| `nebula.storaged.podLabels` | `{}` | Storaged服务Pod的标签。 | +| `nebula.storaged.podAnnotations` |`{}` | Storaged服务Pod的注解。 | +| `nebula.storaged.nodeSelector` | `{}` | 为Storaged pod设置节点标签以分配至指定的节点中。 | +| `nebula.storaged.tolerations` | `{}` | 为Storaged pod设置Toleration以运行在标注了Taint的节点上。 | +| `nebula.storaged.affinity` | `{}` | 为Storaged Pod设置节点亲和性。 | +| `nebula.storaged.readinessProbe` | `{}` | 为Storaged Pod设置就绪探针以检测容器的状态。 | +| `nebula.storaged.sidecarContainers` | `{}` | 为Storaged Pod设置Sidecar Container。 | +| `nebula.storaged.sidecarVolumes` | `{}` | 为Storaged Pod设置Sidecar Volume。 | | `imagePullSecrets` | `[]` | 拉取镜像的Secret。 | From 04a8b59895e27972b1419e95470c9c7686c7f9f6 Mon Sep 17 00:00:00 2001 From: Abby <78209557+abby-cyber@users.noreply.github.com> Date: Fri, 12 Nov 2021 21:17:19 +0800 Subject: [PATCH 3/9] describe optimization --- .../3.2create-cluster-with-helm.md | 40 +++++++++---------- .../4.connect-to-nebula-graph-service.md | 26 ------------ 2 files changed, 20 insertions(+), 46 deletions(-) diff --git a/docs-2.0/nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md b/docs-2.0/nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md index 4f7b5035679..e48be4691fc 100644 --- a/docs-2.0/nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md +++ b/docs-2.0/nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md @@ -108,41 +108,41 @@ helm uninstall "${NEBULA_CLUSTER_NAME}" --namespace="${NEBULA_CLUSTER_NAMESPACE} | `nebula.graphd.replicas` | `2` | Graphd服务的副本数。 | | `nebula.graphd.env` | `[]` | Graphd服务的环境变量。 | | `nebula.graphd.resources` | `{"resources":{"requests":{"cpu":"500m","memory":"500Mi"},"limits":{"cpu":"1","memory":"1Gi"}}}` | Graphd资源配置。 | -| `nebula.graphd.logStorage` | `500Mi` | Graphd服务的日志盘存储值。 | +| `nebula.graphd.logStorage` | `500Mi` | Graphd服务的日志盘大小。 | | `nebula.graphd.podLabels` | `{}` | Graphd服务Pod的标签。 | | `nebula.graphd.podAnnotations` | `{}` | Graphd服务Pod的注解。 | | `nebula.graphd.nodeSelector` | `{}` |为Graphd pod设置节点标签以分配至指定的节点中。 | -| `nebula.graphd.tolerations` | `{}` |为Graphd pod设置Toleration以运行在标注了Taint的节点上。 | -| `nebula.graphd.affinity` | `{}` |为Graphd Pod设置节点亲和性。 | -| `nebula.graphd.readinessProbe` | `{}` |为Graphd Pod设置就绪探针以检测容器的状态。 | -| `nebula.graphd.sidecarContainers` | `{}` |为Graphd Pod设置Sidecar Container。 | -| `nebula.graphd.sidecarVolumes` | `{}` |为Graphd Pod设置Sidecar Volume。 | +| `nebula.graphd.tolerations` | `{}` |为Graphd pod设置容忍度。 | +| `nebula.graphd.affinity` | `{}` |为Graphd pod设置亲和性。 | +| `nebula.graphd.readinessProbe` | `{}` |为Graphd pod设置就绪探针以检测容器的状态。 | +| `nebula.graphd.sidecarContainers` | `{}` |为Graphd pod设置Sidecar Containers。 | +| `nebula.graphd.sidecarVolumes` | `{}` |为Graphd pod设置Sidecar Volumes。 | | `nebula.metad.image` | `vesoft/nebula-metad` | Metad容器镜像名称。使用 `nebula.version`中的值作为版本。 | | `nebula.metad.replicas` | `3` | Metad服务的副本数。 | | `nebula.metad.env` | `[]` | Metad服务的环境变量。 | | `nebula.metad.resources` | `{"resources":{"requests":{"cpu":"500m","memory":"500Mi"},"limits":{"cpu":"1","memory":"1Gi"}}}` | Metad服务的资源配置。 | -| `nebula.metad.logStorage` | `500Mi` | Metad服务的日志盘存储值。 | -| `nebula.metad.dataStorage` | `1Gi` | Metad服务的数据盘存储值。 | +| `nebula.metad.logStorage` | `500Mi` | Metad服务的日志盘大小。 | +| `nebula.metad.dataStorage` | `1Gi` | Metad服务的数据盘大小。 | | `nebula.metad.podLabels` | `{}` | Metad服务Pod的标签。 | | `nebula.metad.podAnnotations` | `{}` | Metad服务Pod的注解。 | | `nebula.metad.nodeSelector` | `{}` | 为Metad pod设置节点标签以分配至指定的节点中。 | -| `nebula.metad.tolerations` | `{}` | 为Metad pod设置Toleration以运行在标注了Taint的节点上。 | -| `nebula.metad.affinity` | `{}` | 为Metad Pod设置节点亲和性。 | -| `nebula.metad.readinessProbe` | `{}` | 为Metad Pod设置就绪探针以检测容器的状态。 | -| `nebula.metad.sidecarContainers` | `{}` | 为Metad Pod设置Sidecar Container。 | -| `nebula.metad.sidecarVolumes` | `{}` | 为Metad Pod设置Sidecar Volume。 | +| `nebula.metad.tolerations` | `{}` | 为Metad pod设置容忍度。 | +| `nebula.metad.affinity` | `{}` | 为Metad pod设置亲和性。 | +| `nebula.metad.readinessProbe` | `{}` | 为Metad pod设置就绪探针以检测容器的状态。 | +| `nebula.metad.sidecarContainers` | `{}` | 为Metad pod设置Sidecar Containers。 | +| `nebula.metad.sidecarVolumes` | `{}` | 为Metad pod设置Sidecar Volumes。 | | `nebula.storaged.image` | `vesoft/nebula-storaged` | Storaged容器镜像名称。使用 `nebula.version`中的值作为版本。 | | `nebula.storaged.replicas` | `3` | Storaged服务的副本数。 | | `nebula.storaged.env` | `[]` | Storaged服务的环境变量。 | | `nebula.storaged.resources` | `{"resources":{"requests":{"cpu":"500m","memory":"500Mi"},"limits":{"cpu":"1","memory":"1Gi"}}}` | Storaged服务的资源配置。 | -| `nebula.storaged.logStorage` | `500Mi` | Storaged服务的日志盘存储值。 | -| `nebula.storaged.dataStorage` | `1Gi` | Storaged服务的数据盘存储值。 | +| `nebula.storaged.logStorage` | `500Mi` | Storaged服务的日志盘大小。 | +| `nebula.storaged.dataStorage` | `1Gi` | Storaged服务的数据盘大小。 | | `nebula.storaged.podLabels` | `{}` | Storaged服务Pod的标签。 | | `nebula.storaged.podAnnotations` |`{}` | Storaged服务Pod的注解。 | | `nebula.storaged.nodeSelector` | `{}` | 为Storaged pod设置节点标签以分配至指定的节点中。 | -| `nebula.storaged.tolerations` | `{}` | 为Storaged pod设置Toleration以运行在标注了Taint的节点上。 | -| `nebula.storaged.affinity` | `{}` | 为Storaged Pod设置节点亲和性。 | -| `nebula.storaged.readinessProbe` | `{}` | 为Storaged Pod设置就绪探针以检测容器的状态。 | -| `nebula.storaged.sidecarContainers` | `{}` | 为Storaged Pod设置Sidecar Container。 | -| `nebula.storaged.sidecarVolumes` | `{}` | 为Storaged Pod设置Sidecar Volume。 | +| `nebula.storaged.tolerations` | `{}` | 为Storaged pod设置容忍度。 | +| `nebula.storaged.affinity` | `{}` | 为Storaged pod设置亲和性。 | +| `nebula.storaged.readinessProbe` | `{}` | 为Storaged pod设置就绪探针以检测容器的状态。 | +| `nebula.storaged.sidecarContainers` | `{}` | 为Storaged pod设置Sidecar Containers。 | +| `nebula.storaged.sidecarVolumes` | `{}` | 为Storaged Pod设置Sidecar Volumes。 | | `imagePullSecrets` | `[]` | 拉取镜像的Secret。 | diff --git a/docs-2.0/nebula-operator/4.connect-to-nebula-graph-service.md b/docs-2.0/nebula-operator/4.connect-to-nebula-graph-service.md index f0744e8db75..2eeb48e4999 100644 --- a/docs-2.0/nebula-operator/4.connect-to-nebula-graph-service.md +++ b/docs-2.0/nebula-operator/4.connect-to-nebula-graph-service.md @@ -169,32 +169,6 @@ data: 9769: "default/nebula-graphd-svc:9669" ``` -在配置了名为`tcp-services`的ConfigMap后,其配置中的端口需要在定义了Nginx Ingress的服务中公开。 - -```yaml -apiVersion: v1 -kind: Service -metadata: - labels: - app: nginx-ingress - component: default-backend - name: nginx-ingress-proxy-tcp - namespace: nginx-ingress -spec: - ports: - - name: proxied-tcp - port: 9769 - protocol: TCP - targetPort: 9669 - selector: - app: nginx-ingress - component: default-backend - type: "ClusterIP" -``` - -- `port`的值`9769`指外部端口,用户可自行设置。 -- `targetPort`的值`9669`指要连接的graphd服务的端口。 - 操作步骤如下: 1. 创建名为`nginx-ingress-daemonset-hostnetwork.yaml`的文件。 From 9e9f4dd607e01a146082b13ff8d5373d7e78f7a8 Mon Sep 17 00:00:00 2001 From: Abby <78209557+abby-cyber@users.noreply.github.com> Date: Fri, 12 Nov 2021 22:01:19 +0800 Subject: [PATCH 4/9] Update 9.upgrade-nebula-cluster.md --- docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md | 2 ++ 1 file changed, 2 insertions(+) diff --git a/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md b/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md index 2d3eac22360..6f842dab7cc 100644 --- a/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md +++ b/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md @@ -13,6 +13,8 @@ - 只支持使用Nebula Operator创建的Nebula Graph集群。 - 只支持升级Nebula Graph 2.5.x至2.6.x版本。 + +- 不支持升级通过0.8.0版Operator创建的集群。 ## 操作步骤 From 1352efb43871a55fe7e029c4240c3c29162c98b5 Mon Sep 17 00:00:00 2001 From: Abby <78209557+abby-cyber@users.noreply.github.com> Date: Mon, 15 Nov 2021 10:46:53 +0800 Subject: [PATCH 5/9] Update 9.upgrade-nebula-cluster.md --- .../9.upgrade-nebula-cluster.md | 78 +++++++++++++++++-- 1 file changed, 70 insertions(+), 8 deletions(-) diff --git a/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md b/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md index 6f842dab7cc..afff4542b18 100644 --- a/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md +++ b/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md @@ -2,12 +2,6 @@ 本文介绍如何升级通过Nebula Operator创建的Nebula Graph集群。 -## 前提条件 - -已创建Nebula Graph集群。具体步骤,参见[使用Kubectl创建Nebula Graph集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 - -本文示例中待升级的Nebula Graph版本为2.5.1,其YAML文件名为`apps_v1alpha1_nebulacluster.yaml`。 - ## 使用限制 - 只支持使用Nebula Operator创建的Nebula Graph集群。 @@ -16,7 +10,15 @@ - 不支持升级通过0.8.0版Operator创建的集群。 -## 操作步骤 +## 使用Kubectl升级Nebula Graph集群。 + +### 前提条件 + +已创建Nebula Graph集群。具体步骤,参见[使用Kubectl创建Nebula Graph集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 + +本文示例中待升级的Nebula Graph版本为2.5.1,其YAML文件名为`apps_v1alpha1_nebulacluster.yaml`。 + +### 操作步骤 1. 查看集群中服务的镜像版本。 @@ -128,4 +130,64 @@ 1 vesoft/nebula-graphd:{{nebula.branch}} 1 vesoft/nebula-metad:{{nebula.branch}} 3 vesoft/nebula-storaged:{{nebula.branch}} - ``` \ No newline at end of file + ``` + +## 使用Helm升级Nebula Graph集群 + +### 前提条件 + +已创建Nebula Graph集群。具体步骤,参见[使用Helm创建Nebula Graph集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 + +### 操作步骤 + +1. 更新Helm仓库,拉取最新的仓库资源。 + + ```bash + helm repo update + ``` + +2. 配置Helm的环境变量。 + + ```bash + export NEBULA_CLUSTER_NAME=nebula # Nebula Graph集群的名字。 + export NEBULA_CLUSTER_NAMESPACE=nebula # Nebula Graph集群所处的命名空间的名字。 + ``` + +3. 升级Nebula Graph集群。 + + 例如升级至{{nebula.branch}}Nebula Graph集群的命令如下。 + + ```bash + helm upgrade "${NEBULA_CLUSTER_NAME}" nebula-operator/nebula-cluster \ + --namespace="${NEBULA_CLUSTER_NAMESPACE}" \ + --set nameOverride=${NEBULA_CLUSTER_NAME} \ + --set nebula.version={{nebula.branch}} + ``` + + `--set nebula.version`的值指需要升级集群的目标版本号。 + +4. 等待一会后,执行以下命令查看集群状态及集群版本。 + + 查看集群状态: + + ```bash + $ kubectl -n "${NEBULA_CLUSTER_NAMESPACE}" get pod -l "app.kubernetes.io/cluster=${NEBULA_CLUSTER_NAME}" + NAME READY STATUS RESTARTS AGE + nebula-graphd-0 1/1 Running 0 2m + nebula-graphd-1 1/1 Running 0 2m + nebula-metad-0 1/1 Running 0 2m + nebula-metad-1 1/1 Running 0 2m + nebula-metad-2 1/1 Running 0 2m + nebula-storaged-0 1/1 Running 0 2m + nebula-storaged-1 1/1 Running 0 2m + nebula-storaged-2 1/1 Running 0 2m + ``` + + 查看集群版本: + + ```bash + $ kubectl get pods -l app.kubernetes.io/cluster=nebula -o jsonpath="{.items[*].spec.containers[*].image}" |tr -s '[[:space:]]' '\n' |sort |uniq -c + 1 vesoft/nebula-graphd:{{nebula.branch}} + 1 vesoft/nebula-metad:{{nebula.branch}} + 3 vesoft/nebula-storaged:{{nebula.branch}} + ``` From b905c6312de45613ea826868a0dbac9798f8bc33 Mon Sep 17 00:00:00 2001 From: Abby <78209557+abby-cyber@users.noreply.github.com> Date: Mon, 15 Nov 2021 20:19:07 +0800 Subject: [PATCH 6/9] Update 2.deploy-nebula-operator.md --- docs-2.0/nebula-operator/2.deploy-nebula-operator.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs-2.0/nebula-operator/2.deploy-nebula-operator.md b/docs-2.0/nebula-operator/2.deploy-nebula-operator.md index 61c23629216..8a18554505c 100644 --- a/docs-2.0/nebula-operator/2.deploy-nebula-operator.md +++ b/docs-2.0/nebula-operator/2.deploy-nebula-operator.md @@ -186,7 +186,7 @@ helm install nebula-operator nebula-operator/nebula-operator --namespace= Date: Tue, 16 Nov 2021 10:17:37 +0800 Subject: [PATCH 7/9] Update 2.deploy-nebula-operator.md --- docs-2.0/nebula-operator/2.deploy-nebula-operator.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs-2.0/nebula-operator/2.deploy-nebula-operator.md b/docs-2.0/nebula-operator/2.deploy-nebula-operator.md index 8a18554505c..992d15c4bfc 100644 --- a/docs-2.0/nebula-operator/2.deploy-nebula-operator.md +++ b/docs-2.0/nebula-operator/2.deploy-nebula-operator.md @@ -145,7 +145,7 @@ scheduler: | `image.nebulaOperator.image` | `vesoft/nebula-operator:latest` | Nebula Operator的镜像,版本为{{operator.release}}。 | | `image.nebulaOperator.imagePullPolicy` | `IfNotPresent` | 镜像拉取策略。 | | `imagePullSecrets` | - | 镜像拉取密钥。 | -| `kubernetesClusterDomain` | `cluster.local`。 | 集群域名。 | +| `kubernetesClusterDomain` | `cluster.local` | 集群域名。 | | `controllerManager.create` | `true` | 是否启用controller-manager。 | | `controllerManager.replicas` | `2` | controller-manager副本数。 | | `admissionWebhook.create` | `true` | 是否启用Admission Webhook。 | From 0eb79764069ccf2379226a384227a337eec079c7 Mon Sep 17 00:00:00 2001 From: Abby <78209557+abby-cyber@users.noreply.github.com> Date: Tue, 16 Nov 2021 12:15:13 +0800 Subject: [PATCH 8/9] crd upgrading --- docs-2.0/20.appendix/6.eco-tool-version.md | 2 +- .../2.deploy-nebula-operator.md | 48 ++++++++++++++++++- .../9.upgrade-nebula-cluster.md | 4 +- 3 files changed, 50 insertions(+), 4 deletions(-) diff --git a/docs-2.0/20.appendix/6.eco-tool-version.md b/docs-2.0/20.appendix/6.eco-tool-version.md index af0aba2ed8d..190c1da7185 100644 --- a/docs-2.0/20.appendix/6.eco-tool-version.md +++ b/docs-2.0/20.appendix/6.eco-tool-version.md @@ -76,7 +76,7 @@ Nebula Operator(简称Operator)是用于在Kubernetes系统上自动化部 |Nebula Graph版本|Operator版本(commit id)| |:---|:---| -| {{ nebula.release }} | {{operator.release}}(6d1104e) | +| {{ nebula.release }} | {{operator.release}}(ba88e28) | ## Nebula Importer diff --git a/docs-2.0/nebula-operator/2.deploy-nebula-operator.md b/docs-2.0/nebula-operator/2.deploy-nebula-operator.md index 992d15c4bfc..50a0de38dd3 100644 --- a/docs-2.0/nebula-operator/2.deploy-nebula-operator.md +++ b/docs-2.0/nebula-operator/2.deploy-nebula-operator.md @@ -96,7 +96,7 @@ [abby@master ~]$ helm show values nebula-operator/nebula-operator image: nebulaOperator: - image: vesoft/nebula-operator:latest + image: vesoft/nebula-operator:v0.9.0 imagePullPolicy: Always kubeRBACProxy: image: gcr.io/kubebuilder/kube-rbac-proxy:v0.8.0 @@ -201,7 +201,53 @@ helm install nebula-operator nebula-operator/nebula-operator --namespace= --version={{operator.release}} ``` + + 示例: + + ```bash + helm upgrade nebula-operator nebula-operator/nebula-operator --namespace=nebula-operator-system --version={{operator.release}} + ``` + + 输出: + + ```bash + Release "nebula-operator" has been upgraded. Happy Helming! + NAME: nebula-operator + LAST DEPLOYED: Tue Nov 16 02:21:08 2021 + NAMESPACE: nebula-operator-system + STATUS: deployed + REVISION: 3 + TEST SUITE: None + NOTES: + Nebula Operator installed! + ``` + +3. 拉取最新的CRD配置文件。 + + !!! note + 升级Operator后,需要同时升级相应的CRD配置,否则Nebula Graph集群创建会失败。有关CRD的配置,参见[apps.nebula-graph.io_nebulaclusters.yaml](https://github.com/vesoft-inc/nebula-operator/blob/{{operator.branch}}/config/crd/bases/apps.nebula-graph.io_nebulaclusters.yaml)。 + + ```bash + helm pull nebula-operator/nebula-operator + ``` + +4. 升级CRD配置文件。 + + ```bash + kubectl apply -f .yaml + ``` + + 示例: + + ```bash + kubectl apply -f config/crd/bases/apps.nebula-graph.io_nebulaclusters.yaml + ``` + 输出: + + ```bash + customresourcedefinition.apiextensions.k8s.io/nebulaclusters.apps.nebula-graph.io created + ``` ### 卸载Nebula Operator diff --git a/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md b/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md index afff4542b18..2ed0f24a392 100644 --- a/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md +++ b/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md @@ -10,7 +10,7 @@ - 不支持升级通过0.8.0版Operator创建的集群。 -## 使用Kubectl升级Nebula Graph集群。 +## 使用Kubectl升级Nebula Graph集群 ### 前提条件 @@ -166,7 +166,7 @@ `--set nebula.version`的值指需要升级集群的目标版本号。 -4. 等待一会后,执行以下命令查看集群状态及集群版本。 +4. 执行以下命令查看集群状态及集群版本。 查看集群状态: From 24e85ede3def68f9d075a0b2ae67ebf9e6efbeea Mon Sep 17 00:00:00 2001 From: Abby <78209557+abby-cyber@users.noreply.github.com> Date: Tue, 16 Nov 2021 13:35:42 +0800 Subject: [PATCH 9/9] Update 2.deploy-nebula-operator.md --- docs-2.0/nebula-operator/2.deploy-nebula-operator.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs-2.0/nebula-operator/2.deploy-nebula-operator.md b/docs-2.0/nebula-operator/2.deploy-nebula-operator.md index 50a0de38dd3..aab597fd51b 100644 --- a/docs-2.0/nebula-operator/2.deploy-nebula-operator.md +++ b/docs-2.0/nebula-operator/2.deploy-nebula-operator.md @@ -96,7 +96,7 @@ [abby@master ~]$ helm show values nebula-operator/nebula-operator image: nebulaOperator: - image: vesoft/nebula-operator:v0.9.0 + image: vesoft/nebula-operator:{{operator.branch}} imagePullPolicy: Always kubeRBACProxy: image: gcr.io/kubebuilder/kube-rbac-proxy:v0.8.0