diff --git a/.github/workflows/deploy.yaml b/.github/workflows/deploy.yaml index b964cce2730..cc5c4b1df70 100644 --- a/.github/workflows/deploy.yaml +++ b/.github/workflows/deploy.yaml @@ -10,7 +10,7 @@ jobs: steps: - uses: actions/checkout@v2 with: - fetch-depth: 0 # fetch all commits/branches + fetch-depth: 1 # fetch all commits/branches - name: Setup Python uses: actions/setup-python@v1 diff --git a/README.md b/README.md index 73300bbcdb7..82b3f366a4f 100644 --- a/README.md +++ b/README.md @@ -1,10 +1,17 @@ [![Publish docs via GitHub Pages](https://github.com/vesoft-inc/nebula-docs-cn/actions/workflows/deploy.yaml/badge.svg?branch=master)](https://github.com/vesoft-inc/nebula-docs-cn/actions/workflows/deploy.yaml) -# NebulaGraph 文档 +# {{nebula.name}} 文档 +{{ ent.ent_begin }} - [中文](https://docs.nebula-graph.com.cn/) - [English](https://docs.nebula-graph.io) +{{ ent.ent_end }} + +{{ comm.comm_begin }} +- [中文](https://docs.nebula-graph.com.cn/) +- [English](https://docs.nebula-graph.io) +{{ comm.comm_end }} ## 贡献文档 -如果发现文档问题,请随时创建一个 [Issue](https://github.com/vesoft-inc/nebula-docs-cn/issues) 告知我们或直接创建一个 [PR](https://github.com/vesoft-inc/nebula-docs-cn/pulls) 修复或更新。请参阅 NebulaGraph [中文文档贡献指南](CONTRIBUTING.md)开始贡献。 +如果发现文档问题,请随时创建一个 [Issue](https://github.com/vesoft-inc/nebula-docs-cn/issues) 告知我们或直接创建一个 [PR](https://github.com/vesoft-inc/nebula-docs-cn/pulls) 修复或更新。请参阅{{nebula.name}} [中文文档贡献指南](CONTRIBUTING.md)开始贡献。 diff --git a/docs-2.0/1.introduction/0-0-graph.md b/docs-2.0/1.introduction/0-0-graph.md index 56ccfdf45b9..49fc2c8b9dc 100644 --- a/docs-2.0/1.introduction/0-0-graph.md +++ b/docs-2.0/1.introduction/0-0-graph.md @@ -14,7 +14,7 @@ ## 图、图片与图论 -图无处不在。当听到图这个词时,很多人都会想到条形图或折线图,因为有时候我们确实会把它们称作图。从传统意义上来说,图是用来展示两个或多个数据系统之间的联系的。最简单的例子如下图,下图展示了 NebulaGraph GitHub 仓库星星数量随时间推移的变化。 +图无处不在。当听到图这个词时,很多人都会想到条形图或折线图,因为有时候我们确实会把它们称作图。从传统意义上来说,图是用来展示两个或多个数据系统之间的联系的。最简单的例子如下图,下图展示了{{nebula.name}} GitHub 仓库星星数量随时间推移的变化。 ![image](https://user-images.githubusercontent.com/42762957/91426247-d3861000-e88e-11ea-8e17-e3d7d7069bd1.png "这不是本书所说的图") diff --git a/docs-2.0/1.introduction/0-1-graph-database.md b/docs-2.0/1.introduction/0-1-graph-database.md index 3cff5aaa2c1..589f7bbb60c 100644 --- a/docs-2.0/1.introduction/0-1-graph-database.md +++ b/docs-2.0/1.introduction/0-1-graph-database.md @@ -153,7 +153,7 @@ Cypher 启发了一系列后续的图查询语言,包括 [^GSQL]: https://docs.tigergraph.com/dev/gsql-ref -2019 年,NebulaGraph 以 openCypher 为基础发布其扩展的图语言 NebulaGraph Query Language, nGQL。 +2019 年,{{nebula.name}}以 openCypher 为基础发布其扩展的图语言 NebulaGraph Query Language, nGQL。 ![Image](https://docs-cdn.nebula-graph.com.cn/books/images/langhis.jpg "图语言的历史") @@ -240,6 +240,6 @@ Oracle graph[^Oracle] 是关系型数据库巨头 Oracle 在图技术与图数 [^Oracle]: https://www.oracle.com/database/graph/ -#### 新一代开源分布式图数据库 NebulaGraph +#### 新一代开源分布式图数据库{{nebula.name}} -在下一章,我们将正式介绍新一代开源分布式图数据库 NebulaGraph。 +在下一章,我们将正式介绍新一代开源分布式图数据库{{nebula.name}}。 diff --git a/docs-2.0/1.introduction/0-2.relates.md b/docs-2.0/1.introduction/0-2.relates.md index d00a0c60e51..5e32d96434a 100644 --- a/docs-2.0/1.introduction/0-2.relates.md +++ b/docs-2.0/1.introduction/0-2.relates.md @@ -55,7 +55,7 @@ NoSQL 数据库的列式存储与 NoSQL 数据库的键值存储有许多相似 #### 图存储 -最后一类 NoSQL 数据库是图数据库。本书重点讨论的 NebulaGraph 也是一种图数据库。虽然同为 NoSQL 型数据库,但是图数据库与上述 NoSQL 数据库有本质上的差异。图数据库以点、边、属性的形式存储数据。其优点在于灵活性高,支持复杂的图形算法,可用于构建复杂的关系图谱。我们将在随后的章节中详细讨论图数据库。不过在本章中,你只要知道图数据库是一种 NoSQL 类型的数据库就可以了。常见的图数据库有:NebulaGraph、Neo4j、OrientDB 等。 +最后一类 NoSQL 数据库是图数据库。本书重点讨论的{{nebula.name}}也是一种图数据库。虽然同为 NoSQL 型数据库,但是图数据库与上述 NoSQL 数据库有本质上的差异。图数据库以点、边、属性的形式存储数据。其优点在于灵活性高,支持复杂的图形算法,可用于构建复杂的关系图谱。我们将在随后的章节中详细讨论图数据库。不过在本章中,你只要知道图数据库是一种 NoSQL 类型的数据库就可以了。常见的图数据库有:{{nebula.name}}、Neo4j、OrientDB 等。 ## 图技术方面 diff --git a/docs-2.0/1.introduction/1.what-is-nebula-graph.md b/docs-2.0/1.introduction/1.what-is-nebula-graph.md index f8848dcb1e4..f544d1d932b 100644 --- a/docs-2.0/1.introduction/1.what-is-nebula-graph.md +++ b/docs-2.0/1.introduction/1.what-is-nebula-graph.md @@ -1,8 +1,8 @@ -# 什么是 NebulaGraph +# 什么是{{nebula.name}} -NebulaGraph 是一款开源的、分布式的、易扩展的原生图数据库,能够承载包含数千亿个点和数万亿条边的超大规模数据集,并且提供毫秒级查询。 +{{nebula.name}}是一款开源的、分布式的、易扩展的原生图数据库,能够承载包含数千亿个点和数万亿条边的超大规模数据集,并且提供毫秒级查询。 -![NebulaGraph 鸟瞰图](https://docs-cdn.nebula-graph.com.cn/figures/architecture_map_2022-08-08_17-37-15.png) +![{{nebula.name}}鸟瞰图](https://docs-cdn.nebula-graph.com.cn/figures/architecture_map_2022-08-08_17-37-15.png) ## 什么是图数据库 @@ -12,78 +12,79 @@ NebulaGraph 是一款开源的、分布式的、易扩展的原生图数据库 图数据库适合存储大多数从现实抽象出的数据类型。世界上几乎所有领域的事物都有内在联系,像关系型数据库这样的建模系统会提取实体之间的关系,并将关系单独存储到表和列中,而实体的类型和属性存储在其他列甚至其他表中,这使得数据管理费时费力。 -NebulaGraph 作为一个典型的图数据库,可以将丰富的关系通过边及其类型和属性自然地呈现。 +{{nebula.name}}作为一个典型的图数据库,可以将丰富的关系通过边及其类型和属性自然地呈现。 -## NebulaGraph 的优势 +## {{nebula.name}}的优势 +{{ comm.comm_begin }} ### 开源 -NebulaGraph 是在 Apache 2.0 条款下开发的。越来越多的人,如数据库开发人员、数据科学家、安全专家、算法工程师,都参与到 NebulaGraph 的设计和开发中来,欢迎访问 [NebulaGraph GitHub 主页](https://github.com/vesoft-inc/nebula)参与开源项目。 +{{nebula.name}}是在 Apache 2.0 条款下开发的。越来越多的人,如数据库开发人员、数据科学家、安全专家、算法工程师,都参与到{{nebula.name}}的设计和开发中来,欢迎访问 [{{nebula.name}} GitHub 主页](https://github.com/vesoft-inc/nebula)参与开源项目。 +{{ comm.comm_end }} ### 高性能 -基于图数据库的特性使用 C++ 编写的 NebulaGraph,可以提供毫秒级查询。众多数据库中,NebulaGraph 在图数据服务领域展现了卓越的性能,数据规模越大,NebulaGraph 优势就越大。详情请参见 [NebulaGraph benchmarking 页面](https://discuss.nebula-graph.com.cn/t/topic/11727)。 +基于图数据库的特性使用 C++ 编写的{{nebula.name}},可以提供毫秒级查询。众多数据库中,{{nebula.name}}在图数据服务领域展现了卓越的性能,数据规模越大,{{nebula.name}}优势就越大。详情请参见 [{{nebula.name}} benchmarking 页面](https://discuss.nebula-graph.com.cn/t/topic/11727)。 ### 易扩展 -NebulaGraph 采用 shared-nothing 架构,支持在不停止数据库服务的情况下扩缩容。 +{{nebula.name}}采用 shared-nothing 架构,支持在不停止数据库服务的情况下扩缩容。 ### 易开发 -NebulaGraph 提供 Java、Python、C++ 和 Go 等流行编程语言的客户端,更多客户端仍在开发中。详情请参见 [NebulaGraph clients](../14.client/1.nebula-client.md)。 +{{nebula.name}}提供 Java、Python、C++ 和 Go 等流行编程语言的客户端,更多客户端仍在开发中。详情请参见 [{{nebula.name}} clients](../14.client/1.nebula-client.md)。 ### 高可靠访问控制 -NebulaGraph 支持严格的角色访问控制和 LDAP(Lightweight Directory Access Protocol)等外部认证服务,能够有效提高数据安全性。详情请参见[验证和授权](../7.data-security/1.authentication/1.authentication.md)。 +{{nebula.name}}支持严格的角色访问控制和 LDAP(Lightweight Directory Access Protocol)等外部认证服务,能够有效提高数据安全性。详情请参见[验证和授权](../7.data-security/1.authentication/1.authentication.md)。 ### 生态多样化 -NebulaGraph 开放了越来越多的原生工具,例如 [NebulaGraph Studio](https://github.com/vesoft-inc/nebula-studio)、[NebulaGraph Console](https://github.com/vesoft-inc/nebula-console)、[NebulaGraph Exchange](https://github.com/vesoft-inc/nebula-exchange) 等,更多工具可以查看[生态工具概览](../20.appendix/6.eco-tool-version.md)。 +{{nebula.name}}开放了越来越多的原生工具,例如 [NebulaGraph Studio](https://github.com/vesoft-inc/nebula-studio)、[NebulaGraph Console](https://github.com/vesoft-inc/nebula-console)、[NebulaGraph Exchange](https://github.com/vesoft-inc/nebula-exchange) 等,更多工具可以查看[生态工具概览](../20.appendix/6.eco-tool-version.md)。 -此外,NebulaGraph 还具备与 Spark、Flink、HBase 等产品整合的能力,在这个充满挑战与机遇的时代,大大增强了自身的竞争力。 +此外,{{nebula.name}}还具备与 Spark、Flink、HBase 等产品整合的能力,在这个充满挑战与机遇的时代,大大增强了自身的竞争力。 ### 兼容 openCypher 查询语言 -NebulaGraph 查询语言,简称为 nGQL,是一种声明性的、部分兼容 openCypher 的文本查询语言,易于理解和使用。详细语法请参见 [nGQL 指南](../3.ngql-guide/1.nGQL-overview/1.overview.md)。 +{{nebula.name}}查询语言,简称为 nGQL,是一种声明性的、部分兼容 openCypher 的文本查询语言,易于理解和使用。详细语法请参见 [nGQL 指南](../3.ngql-guide/1.nGQL-overview/1.overview.md)。 ### 面向未来硬件,读写平衡 -闪存型设备有着极高的性能,并且[价格快速下降](https://blocksandfiles.com/wp-content/uploads/2021/01/Wikibon-SSD-less-than-HDD-in-2026.jpg), - NebulaGraph 是一个面向 SSD 设计的产品,相比于基于 HDD + 大内存的产品,更适合面向未来的硬件趋势,也更容易做到读写平衡。 +闪存型设备有着极高的性能,并且[价格快速下降](https://blocksandfiles.com/wp-content/uploads/2021/01/Wikibon-SSD-less-than-HDD-in-2026.jpg),{{nebula.name}}是一个面向 SSD 设计的产品,相比于基于 HDD + 大内存的产品,更适合面向未来的硬件趋势,也更容易做到读写平衡。 ### 灵活数据建模 -用户可以轻松地在 NebulaGraph 中建立数据模型,不必将数据强制转换为关系表。而且可以自由增加、更新和删除属性。详情请参见[数据模型](2.data-model.md)。 +用户可以轻松地在{{nebula.name}}中建立数据模型,不必将数据强制转换为关系表。而且可以自由增加、更新和删除属性。详情请参见[数据模型](2.data-model.md)。 ### 广受欢迎 -腾讯、美团、京东、快手、360 等科技巨头都在使用 NebulaGraph。详情请参见 [NebulaGraph 官网](https://nebula-graph.com.cn/)。 +腾讯、美团、京东、快手、360 等科技巨头都在使用{{nebula.name}}。详情请参见 [{{nebula.name}}官网](https://nebula-graph.com.cn/)。 ## 适用场景 -NebulaGraph 可用于各种基于图的业务场景。为节约转换各类数据到关系型数据库的时间,以及避免复杂查询,建议使用 NebulaGraph。 +{{nebula.name}}可用于各种基于图的业务场景。为节约转换各类数据到关系型数据库的时间,以及避免复杂查询,建议使用{{nebula.name}}。 ### 欺诈检测 -金融机构必须仔细研究大量的交易信息,才能检测出潜在的金融欺诈行为,并了解某个欺诈行为和设备的内在关联。这种场景可以通过图来建模,然后借助 NebulaGraph,可以很容易地检测出诈骗团伙或其他复杂诈骗行为。 +金融机构必须仔细研究大量的交易信息,才能检测出潜在的金融欺诈行为,并了解某个欺诈行为和设备的内在关联。这种场景可以通过图来建模,然后借助{{nebula.name}},可以很容易地检测出诈骗团伙或其他复杂诈骗行为。 ### 实时推荐 -NebulaGraph 能够及时处理访问者产生的实时信息,并且精准推送文章、视频、产品和服务。 +{{nebula.name}}能够及时处理访问者产生的实时信息,并且精准推送文章、视频、产品和服务。 ### 知识图谱 -自然语言可以转化为知识图谱,存储在 NebulaGraph 中。用自然语言组织的问题可以通过智能问答系统中的语义解析器进行解析并重新组织,然后从知识图谱中检索出问题的可能答案,提供给提问人。 +自然语言可以转化为知识图谱,存储在{{nebula.name}}中。用自然语言组织的问题可以通过智能问答系统中的语义解析器进行解析并重新组织,然后从知识图谱中检索出问题的可能答案,提供给提问人。 ### 社交网络 -人际关系信息是典型的图数据,NebulaGraph 可以轻松处理数十亿人和数万亿人际关系的社交网络信息,并在海量并发的情况下,提供快速的好友推荐和工作岗位查询。 +人际关系信息是典型的图数据,{{nebula.name}}可以轻松处理数十亿人和数万亿人际关系的社交网络信息,并在海量并发的情况下,提供快速的好友推荐和工作岗位查询。 ## 视频 用户也可以通过视频了解什么是图数据。 -- [图数据库 NebulaGraph 介绍视频](https://www.bilibili.com/video/BV1kf4y1v7LM)(01 分 39 秒) +- [{{nebula.name}}介绍视频](https://www.bilibili.com/video/BV1kf4y1v7LM)(01 分 39 秒) diff --git a/docs-2.0/1.introduction/2.data-model.md b/docs-2.0/1.introduction/2.data-model.md index 85bffbb14db..64709a41aa4 100644 --- a/docs-2.0/1.introduction/2.data-model.md +++ b/docs-2.0/1.introduction/2.data-model.md @@ -1,10 +1,10 @@ # 数据模型 -本文介绍 NebulaGraph 的数据模型。数据模型是一种组织数据并说明它们如何相互关联的模型。 +本文介绍{{nebula.name}}的数据模型。数据模型是一种组织数据并说明它们如何相互关联的模型。 ## 数据模型 -NebulaGraph 数据模型使用 6 种基本的数据模型: +{{nebula.name}}数据模型使用 6 种基本的数据模型: - 图空间(Space) @@ -19,7 +19,7 @@ NebulaGraph 数据模型使用 6 种基本的数据模型: !!! Compatibility - NebulaGraph 2.x 及以下版本中的点必须包含至少一个 Tag。 + {{nebula.name}} 2.x 及以下版本中的点必须包含至少一个 Tag。 - 边(Edge) @@ -55,7 +55,7 @@ NebulaGraph 数据模型使用 6 种基本的数据模型: ## 有向属性图 -NebulaGraph 使用有向属性图模型,指点和边构成的图,这些边是有方向的,点和边都可以有属性。 +{{nebula.name}}使用有向属性图模型,指点和边构成的图,这些边是有方向的,点和边都可以有属性。 下表为篮球运动员数据集的结构示例,包括两种类型的点(**player**、**team**)和两种类型的边(**serve**、**follow**)。 @@ -68,10 +68,10 @@ NebulaGraph 使用有向属性图模型,指点和边构成的图,这些边 !!! Note - NebulaGraph 中没有无向边,只支持有向边。 + {{nebula.name}}中没有无向边,只支持有向边。 !!! compatibility - 由于 NebulaGraph {{ nebula.release }} 的数据模型中,允许存在"悬挂边",因此在增删时,用户需自行保证“一条边所对应的起点和终点”的存在性。详见 [INSERT VERTEX](../3.ngql-guide/12.vertex-statements/1.insert-vertex.md)、[DELETE VERTEX](../3.ngql-guide/12.vertex-statements/4.delete-vertex.md)、[INSERT EDGE](../3.ngql-guide/13.edge-statements/1.insert-edge.md)、[DELETE EDGE](../3.ngql-guide/13.edge-statements/4.delete-edge.md)。 + 由于{{nebula.name}} {{ nebula.release }} 的数据模型中,允许存在"悬挂边",因此在增删时,用户需自行保证“一条边所对应的起点和终点”的存在性。详见 [INSERT VERTEX](../3.ngql-guide/12.vertex-statements/1.insert-vertex.md)、[DELETE VERTEX](../3.ngql-guide/12.vertex-statements/4.delete-vertex.md)、[INSERT EDGE](../3.ngql-guide/13.edge-statements/1.insert-edge.md)、[DELETE EDGE](../3.ngql-guide/13.edge-statements/4.delete-edge.md)。 不支持 openCypher 中的 MERGE 语句。 diff --git a/docs-2.0/1.introduction/3.nebula-graph-architecture/1.architecture-overview.md b/docs-2.0/1.introduction/3.nebula-graph-architecture/1.architecture-overview.md index 08715e7d343..8d6a456020e 100644 --- a/docs-2.0/1.introduction/3.nebula-graph-architecture/1.architecture-overview.md +++ b/docs-2.0/1.introduction/3.nebula-graph-architecture/1.architecture-overview.md @@ -1,22 +1,22 @@ -# NebulaGraph 架构总览 +# {{nebula.name}}架构总览 -NebulaGraph 由三种服务构成:Graph 服务、Meta 服务和 Storage 服务,是一种存储与计算分离的架构。 +{{nebula.name}}由三种服务构成:Graph 服务、Meta 服务和 Storage 服务,是一种存储与计算分离的架构。 -每个服务都有可执行的二进制文件和对应进程,用户可以使用这些二进制文件在一个或多个计算机上部署 NebulaGraph 集群。 +每个服务都有可执行的二进制文件和对应进程,用户可以使用这些二进制文件在一个或多个计算机上部署{{nebula.name}}集群。 -下图展示了 NebulaGraph 集群的经典架构。 +下图展示了{{nebula.name}}集群的经典架构。 -![NebulaGraph architecture](https://docs-cdn.nebula-graph.com.cn/figures/nebula-graph-architecture_3.png "NebulaGraph architecture") +![{{nebula.name}} architecture](https://docs-cdn.nebula-graph.com.cn/figures/nebula-graph-architecture_3.png "{{nebula.name}} architecture") ## Meta 服务 -在 NebulaGraph 架构中,Meta 服务是由 nebula-metad 进程提供的,负责数据管理,例如 Schema 操作、集群管理和用户权限管理等。 +在{{nebula.name}}架构中,Meta 服务是由 nebula-metad 进程提供的,负责数据管理,例如 Schema 操作、集群管理和用户权限管理等。 Meta 服务的详细说明,请参见 [Meta 服务](2.meta-service.md)。 ## Graph 服务和 Storage 服务 -NebulaGraph 采用计算存储分离架构。Graph 服务负责处理计算请求,Storage 服务负责存储数据。它们由不同的进程提供,Graph 服务是由 nebula-graphd 进程提供,Storage 服务是由 nebula-storaged 进程提供。计算存储分离架构的优势如下: +{{nebula.name}}采用计算存储分离架构。Graph 服务负责处理计算请求,Storage 服务负责存储数据。它们由不同的进程提供,Graph 服务是由 nebula-graphd 进程提供,Storage 服务是由 nebula-storaged 进程提供。计算存储分离架构的优势如下: - 易扩展 diff --git a/docs-2.0/1.introduction/3.nebula-graph-architecture/2.meta-service.md b/docs-2.0/1.introduction/3.nebula-graph-architecture/2.meta-service.md index 654fda6ad45..43537cfde32 100644 --- a/docs-2.0/1.introduction/3.nebula-graph-architecture/2.meta-service.md +++ b/docs-2.0/1.introduction/3.nebula-graph-architecture/2.meta-service.md @@ -8,8 +8,8 @@ Meta 服务是由 nebula-metad 进程提供的,用户可以根据场景配置 nebula-metad 进程数量: -- 测试环境中,用户可以在 NebulaGraph 集群中部署 1 个或 3 个 nebula-metad 进程。如果要部署 3 个,用户可以将它们部署在 1 台机器上,或者分别部署在不同的机器上。 -- 生产环境中,建议在 NebulaGraph 集群中部署 3 个 nebula-metad 进程。请将这些进程部署在不同的机器上以保证高可用。 +- 测试环境中,用户可以在{{nebula.name}}集群中部署 1 个或 3 个 nebula-metad 进程。如果要部署 3 个,用户可以将它们部署在 1 台机器上,或者分别部署在不同的机器上。 +- 生产环境中,建议在{{nebula.name}}集群中部署 3 个 nebula-metad 进程。请将这些进程部署在不同的机器上以保证高可用。 所有 nebula-metad 进程构成了基于 Raft 协议的集群,其中一个进程是 leader,其他进程都是 follower。 @@ -25,7 +25,7 @@ leader 是由多数派选举出来,只有 leader 能够对客户端或其他 Meta 服务中存储了用户的账号和权限信息,当客户端通过账号发送请求给 Meta 服务,Meta 服务会检查账号信息,以及该账号是否有对应的请求权限。 -更多 NebulaGraph 的访问控制说明,请参见[身份验证](../../7.data-security/1.authentication/1.authentication.md)。 +更多{{nebula.name}}的访问控制说明,请参见[身份验证](../../7.data-security/1.authentication/1.authentication.md)。 ### 管理分片 @@ -33,15 +33,15 @@ Meta 服务负责存储和管理分片的位置信息,并且保证分片的负 ### 管理图空间 -NebulaGraph 支持多个图空间,不同图空间内的数据是安全隔离的。Meta 服务存储所有图空间的元数据(非完整数据),并跟踪数据的变更,例如增加或删除图空间。 +{{nebula.name}}支持多个图空间,不同图空间内的数据是安全隔离的。Meta 服务存储所有图空间的元数据(非完整数据),并跟踪数据的变更,例如增加或删除图空间。 ### 管理 Schema 信息 -NebulaGraph 是强类型图数据库,它的 Schema 包括 Tag、Edge type、Tag 属性和 Edge type 属性。 +{{nebula.name}}是强类型图数据库,它的 Schema 包括 Tag、Edge type、Tag 属性和 Edge type 属性。 Meta 服务中存储了 Schema 信息,同时还负责 Schema 的添加、修改和删除,并记录它们的版本。 -更多 NebulaGraph 的 Schema 信息,请参见[数据模型](../2.data-model.md)。 +更多{{nebula.name}}的 Schema 信息,请参见[数据模型](../2.data-model.md)。 ### 管理 TTL 信息 diff --git a/docs-2.0/1.introduction/3.nebula-graph-architecture/3.graph-service.md b/docs-2.0/1.introduction/3.nebula-graph-architecture/3.graph-service.md index 99faa4ddde5..9ed312c24c8 100644 --- a/docs-2.0/1.introduction/3.nebula-graph-architecture/3.graph-service.md +++ b/docs-2.0/1.introduction/3.nebula-graph-architecture/3.graph-service.md @@ -94,7 +94,7 @@ Executor 模块包含调度器(Scheduler)和执行器(Executor),通过 ## 代码结构 -NebulaGraph 的代码层次结构如下: +{{nebula.name}}的代码层次结构如下: ```bash |--src @@ -115,7 +115,7 @@ NebulaGraph 的代码层次结构如下: ## 视频 -用户也可以通过视频全方位了解 NebulaGraph 的查询引擎。 +用户也可以通过视频全方位了解{{nebula.name}}的查询引擎。 - [nMeetup·上海 |全面解析 Query Engine](https://www.bilibili.com/video/BV1xV411n7DD)(33 分 30 秒) diff --git a/docs-2.0/1.introduction/3.nebula-graph-architecture/4.storage-service.md b/docs-2.0/1.introduction/3.nebula-graph-architecture/4.storage-service.md index a0ae138f629..a9d13eb60b3 100644 --- a/docs-2.0/1.introduction/3.nebula-graph-architecture/4.storage-service.md +++ b/docs-2.0/1.introduction/3.nebula-graph-architecture/4.storage-service.md @@ -1,6 +1,6 @@ # Storage 服务 -NebulaGraph 的存储包含两个部分,一个是 Meta 相关的存储,称为 Meta 服务,在前文已有介绍。 +{{nebula.name}}的存储包含两个部分,一个是 Meta 相关的存储,称为 Meta 服务,在前文已有介绍。 另一个是具体数据相关的存储,称为 Storage 服务。其运行在 nebula-storaged 进程中。本文仅介绍 Storage 服务的架构设计。 @@ -52,17 +52,17 @@ Storage 服务是由 nebula-storaged 进程提供的,用户可以根据场景 ## KVStore -NebulaGraph 使用自行开发的 KVStore,而不是其他开源 KVStore,原因如下: +{{nebula.name}}使用自行开发的 KVStore,而不是其他开源 KVStore,原因如下: - 需要高性能 KVStore。 -- 需要以库的形式提供,实现高效计算下推。对于强 Schema 的 NebulaGraph 来说,计算下推时如何提供 Schema 信息,是高效的关键。 +- 需要以库的形式提供,实现高效计算下推。对于强 Schema 的{{nebula.name}}来说,计算下推时如何提供 Schema 信息,是高效的关键。 - 需要数据强一致性。 -基于上述原因,NebulaGraph 使用 RocksDB 作为本地存储引擎,实现了自己的 KVStore,有如下优势: +基于上述原因,{{nebula.name}}使用 RocksDB 作为本地存储引擎,实现了自己的 KVStore,有如下优势: -- 对于多硬盘机器,NebulaGraph 只需配置多个不同的数据目录即可充分利用多硬盘的并发能力。 +- 对于多硬盘机器,{{nebula.name}}只需配置多个不同的数据目录即可充分利用多硬盘的并发能力。 - 由 Meta 服务统一管理所有 Storage 服务,可以根据所有分片的分布情况和状态,手动进行负载均衡。 @@ -76,11 +76,11 @@ NebulaGraph 使用自行开发的 KVStore,而不是其他开源 KVStore,原 ## 数据存储格式 -图存储的主要数据是点和边,NebulaGraph 将点和边的信息存储为 key,同时将点和边的属性信息存储在 value 中,以便更高效地使用属性过滤。 +图存储的主要数据是点和边,{{nebula.name}}将点和边的信息存储为 key,同时将点和边的属性信息存储在 value 中,以便更高效地使用属性过滤。 - 点数据存储格式 - 相比 NebulaGraph 2.x 版本,3.x 版本在开启**无 Tag** 的点配置后,每个点多了一个不含 TagID 字段并且无 value 的 key。 + 相比{{nebula.name}} 2.x 版本,3.x 版本在开启**无 Tag** 的点配置后,每个点多了一个不含 TagID 字段并且无 value 的 key。 ![The vertex format of storage service](https://docs-cdn.nebula-graph.com.cn/figures/3.0-vertex-key.png) @@ -108,19 +108,19 @@ NebulaGraph 使用自行开发的 KVStore,而不是其他开源 KVStore,原 ### 属性说明 -NebulaGraph 使用强类型 Schema。 +{{nebula.name}}使用强类型 Schema。 -对于点或边的属性信息,NebulaGraph 会将属性信息编码后按顺序存储。由于属性的长度是固定的,查询时可以根据偏移量快速查询。在解码之前,需要先从 Meta 服务中查询具体的 Schema 信息(并缓存)。同时为了支持在线变更 Schema,在编码属性时,会加入对应的 Schema 版本信息。 +对于点或边的属性信息,{{nebula.name}}会将属性信息编码后按顺序存储。由于属性的长度是固定的,查询时可以根据偏移量快速查询。在解码之前,需要先从 Meta 服务中查询具体的 Schema 信息(并缓存)。同时为了支持在线变更 Schema,在编码属性时,会加入对应的 Schema 版本信息。 ## 数据分片 -由于超大规模关系网络的节点数量高达百亿到千亿,而边的数量更会高达万亿,即使仅存储点和边两者也远大于一般服务器的容量。因此需要有方法将图元素切割,并存储在不同逻辑分片(Partition)上。NebulaGraph 采用边分割的方式。 +由于超大规模关系网络的节点数量高达百亿到千亿,而边的数量更会高达万亿,即使仅存储点和边两者也远大于一般服务器的容量。因此需要有方法将图元素切割,并存储在不同逻辑分片(Partition)上。{{nebula.name}}采用边分割的方式。 ![data partitioning](https://www-cdn.nebula-graph.com.cn/nebula-blog/DataModel02.png) ### 切边与存储放大 -NebulaGraph 中逻辑上的一条边对应着硬盘上的两个键值对(key-value pair),在边的数量和属性较多时,存储放大现象较明显。边的存储方式如下图所示。 +{{nebula.name}}中逻辑上的一条边对应着硬盘上的两个键值对(key-value pair),在边的数量和属性较多时,存储放大现象较明显。边的存储方式如下图所示。 ![edge storage](https://docs-cdn.nebula-graph.com.cn/figures/edge-division.png) @@ -136,7 +136,7 @@ NebulaGraph 中逻辑上的一条边对应着硬盘上的两个键值对(key-v EdgeA_Out 和 EdgeA_In 以方向相反的两条边的形式存在于存储层,二者组合成了逻辑上的一条边 EdgeA。EdgeA_Out 用于从起点开始的遍历请求,例如`(a)-[]->()`;EdgeA_In 用于指向目的点的遍历请求,或者说从目的点开始,沿着边的方向逆序进行的遍历请求,例如例如`()-[]->(a)`。 -如 EdgeA_Out 和 EdgeA_In 一样,NebulaGraph 冗余了存储每条边的信息,导致存储边所需的实际空间翻倍。因为边对应的 key 占用的硬盘空间较小,但 value 占用的空间与属性值的长度和数量成正比,所以,当边的属性值较大或数量较多时候,硬盘空间占用量会比较大。 +如 EdgeA_Out 和 EdgeA_In 一样,{{nebula.name}}冗余了存储每条边的信息,导致存储边所需的实际空间翻倍。因为边对应的 key 占用的硬盘空间较小,但 value 占用的空间与属性值的长度和数量成正比,所以,当边的属性值较大或数量较多时候,硬盘空间占用量会比较大。 ### 分片算法 @@ -202,14 +202,14 @@ pId = vid % numParts + 1; Raft 多副本的方式与 HDFS 多副本的方式是不同的,Raft 基于“多数派”投票,因此副本数量不能是偶数。 ### Multi Group Raft 由于 Storage 服务需要支持集群分布式架构,所以基于 Raft 协议实现了 Multi Group Raft,即每个分片的所有副本共同组成一个 Raft group,其中一个副本是 leader,其他副本是 follower,从而实现强一致性和高可用性。Raft 的部分实现如下。 -由于 Raft 日志不允许空洞,NebulaGraph 使用 Multi Group Raft 缓解此问题,分片数量较多时,可以有效提高 NebulaGraph 的性能。但是分片数量太多会增加开销,例如 Raft group 内部存储的状态信息、WAL 文件,或者负载过低时的批量操作。 +由于 Raft 日志不允许空洞,{{nebula.name}}使用 Multi Group Raft 缓解此问题,分片数量较多时,可以有效提高{{nebula.name}}的性能。但是分片数量太多会增加开销,例如 Raft group 内部存储的状态信息、WAL 文件,或者负载过低时的批量操作。 实现 Multi Group Raft 有 2 个关键点: @@ -223,7 +223,7 @@ Listener:这是一种特殊的 Raft 角色,并不参与投票,也不能用 ### 批量(Batch)操作 -NebulaGraph 中,每个分片都是串行写日志,为了提高吞吐,写日志时需要做批量操作,但是由于 NebulaGraph 利用 WAL 实现一些特殊功能,需要对批量操作进行分组,这是 NebulaGraph 的特色。 +{{nebula.name}}中,每个分片都是串行写日志,为了提高吞吐,写日志时需要做批量操作,但是由于{{nebula.name}}利用 WAL 实现一些特殊功能,需要对批量操作进行分组,这是{{nebula.name}}的特色。 例如无锁 CAS 操作需要之前的 WAL 全部提交后才能执行,如果一个批量写入的 WAL 里包含了 CAS 类型的 WAL,就需要拆分成粒度更小的几个组,还要保证这几组 WAL 串行提交。 @@ -245,14 +245,14 @@ leader 切换对于负载均衡至关重要,当把某个分片从一台机器 ### 成员变更 -为了避免脑裂,当一个 Raft group 的成员发生变化时,需要有一个中间状态,该状态下新旧 group 的多数派需要有重叠的部分,这样就防止了新的 group 或旧的 group 单方面做出决定。为了更加简化,Diego Ongaro 在自己的博士论文中提出每次只增减一个 peer 的方式,以保证新旧 group 的多数派总是有重叠。NebulaGraph 也采用了这个方式,只不过增加成员和移除成员的实现有所区别。具体实现方式请参见 Raft Part class 里 addPeer/removePeer 的实现。 +为了避免脑裂,当一个 Raft group 的成员发生变化时,需要有一个中间状态,该状态下新旧 group 的多数派需要有重叠的部分,这样就防止了新的 group 或旧的 group 单方面做出决定。为了更加简化,Diego Ongaro 在自己的博士论文中提出每次只增减一个 peer 的方式,以保证新旧 group 的多数派总是有重叠。{{nebula.name}}也采用了这个方式,只不过增加成员和移除成员的实现有所区别。具体实现方式请参见 Raft Part class 里 addPeer/removePeer 的实现。 diff --git a/docs-2.0/1.introduction/3.vid.md b/docs-2.0/1.introduction/3.vid.md index 958ba8a8d7a..0003838dd33 100644 --- a/docs-2.0/1.introduction/3.vid.md +++ b/docs-2.0/1.introduction/3.vid.md @@ -22,7 +22,7 @@ ## VID 使用建议 -- NebulaGraph 1.x 只支持 VID 类型为`INT64`,从 2.x 开始支持`INT64`和`FIXED_STRING()`。在`CREATE SPACE`中通过参数`vid_type`可以指定 VID 类型。 +- {{nebula.name}} 1.x 只支持 VID 类型为`INT64`,从 2.x 开始支持`INT64`和`FIXED_STRING()`。在`CREATE SPACE`中通过参数`vid_type`可以指定 VID 类型。 - 可以使用`id()`函数,指定或引用该点的 VID。 @@ -52,7 +52,7 @@ VID 必须在[插入点](../3.ngql-guide/12.vertex-statements/1.insert-vertex.md ## "查询起始点"(`start vid`) 与全局扫描 -绝大多数情况下,NebulaGraph 的查询语句(`MATCH`、`GO`、`LOOKUP`)的执行计划,必须要通过一定方式找到查询起始点的 VID(`start vid`)。 +绝大多数情况下,{{nebula.name}}的查询语句(`MATCH`、`GO`、`LOOKUP`)的执行计划,必须要通过一定方式找到查询起始点的 VID(`start vid`)。 定位 `start vid` 只有两种方式: diff --git a/docs-2.0/14.client/1.nebula-client.md b/docs-2.0/14.client/1.nebula-client.md index 95eccf02993..20e59f10cad 100644 --- a/docs-2.0/14.client/1.nebula-client.md +++ b/docs-2.0/14.client/1.nebula-client.md @@ -1,6 +1,6 @@ # 客户端介绍 -NebulaGraph 提供多种类型客户端,便于用户连接、管理 NebulaGraph 图数据库。 +{{nebula.name}}提供多种类型客户端,便于用户连接、管理{{nebula.name}}图数据库。 - [NebulaGraph Console](../nebula-console.md):原生 CLI 客户端 @@ -18,7 +18,7 @@ NebulaGraph 提供多种类型客户端,便于用户连接、管理 NebulaGrap !!! caution - 以下客户端工具也可用于连接和管理 NebulaGraph。他们由非常酷的社区用户提供和维护,欢迎大家参与测试和贡献。 + 以下客户端工具也可用于连接和管理{{nebula.name}}。他们由非常酷的社区用户提供和维护,欢迎大家参与测试和贡献。 - [NebulaGraph PHP](https://github.com/nebula-contrib/nebula-php) - [NebulaGraph Node](https://github.com/nebula-contrib/nebula-node) diff --git a/docs-2.0/14.client/3.nebula-cpp-client.md b/docs-2.0/14.client/3.nebula-cpp-client.md index d9d5b8414de..a36a6769733 100644 --- a/docs-2.0/14.client/3.nebula-cpp-client.md +++ b/docs-2.0/14.client/3.nebula-cpp-client.md @@ -1,6 +1,6 @@ # NebulaGraph CPP -[NebulaGraph CPP](https://github.com/vesoft-inc/nebula-cpp/tree/{{cpp.branch}}) 是一款 C++ 语言的客户端,可以连接、管理 NebulaGraph 图数据库。 +[NebulaGraph CPP](https://github.com/vesoft-inc/nebula-cpp/tree/{{cpp.branch}}) 是一款 C++ 语言的客户端,可以连接、管理{{nebula.name}}图数据库。 ## 使用限制 @@ -8,7 +8,7 @@ ## 版本对照表 -|NebulaGraph 版本|NebulaGraph CPP 版本| +|{{nebula.name}}版本|NebulaGraph CPP 版本| |:---|:---| |3.3.0|3.3.0| |3.1.0 ~ 3.2.x|3.0.2| @@ -100,9 +100,9 @@ $ LIBRARY_PATH=:$LIBRARY_PATH g++ -std=c++11 SessionExample.cpp -I -lnebula_graph_client -o session_example ``` - - `library_folder_path`:NebulaGraph 动态库文件存储路径,默认为`/usr/local/nebula/lib64`。 + - `library_folder_path`:{{nebula.name}}动态库文件存储路径,默认为`/usr/local/nebula/lib64`。 - - `include_folder_path`:NebulaGraph 头文件存储路径,默认为`/usr/local/nebula/include`。 + - `include_folder_path`:{{nebula.name}}头文件存储路径,默认为`/usr/local/nebula/include`。 示例: @@ -112,7 +112,7 @@ ## 核心代码 -NebulaGraph CPP 客户端提供 Session Pool 和 Connection Pool 两种方式连接 NebulaGraph。使用 Connection Pool 需要用户自行管理 Session 实例。 +NebulaGraph CPP 客户端提供 Session Pool 和 Connection Pool 两种方式连接{{nebula.name}}。使用 Connection Pool 需要用户自行管理 Session 实例。 - Session Pool diff --git a/docs-2.0/14.client/4.nebula-java-client.md b/docs-2.0/14.client/4.nebula-java-client.md index 4349c775e77..e7152ae8bd0 100644 --- a/docs-2.0/14.client/4.nebula-java-client.md +++ b/docs-2.0/14.client/4.nebula-java-client.md @@ -1,6 +1,6 @@ # NebulaGraph Java -[NebulaGraph Java](https://github.com/vesoft-inc/nebula-java/tree/{{ java.branch }}) 是一款 Java 语言的客户端,可以连接、管理 NebulaGraph 图数据库。 +[NebulaGraph Java](https://github.com/vesoft-inc/nebula-java/tree/{{ java.branch }}) 是一款 Java 语言的客户端,可以连接、管理{{nebula.name}}图数据库。 ## 前提条件 @@ -8,7 +8,7 @@ ## 版本对照表 -|NebulaGraph 版本|NebulaGraph Java 版本| +|{{nebula.name}}版本|NebulaGraph Java 版本| |:---|:---| |3.3.0|3.3.0| |3.0.0 ~ 3.2.0|3.0.0| diff --git a/docs-2.0/14.client/5.nebula-python-client.md b/docs-2.0/14.client/5.nebula-python-client.md index ae3dd4e6bac..918d2dcfa87 100644 --- a/docs-2.0/14.client/5.nebula-python-client.md +++ b/docs-2.0/14.client/5.nebula-python-client.md @@ -1,6 +1,6 @@ # NebulaGraph Python -[NebulaGraph Python](https://github.com/vesoft-inc/nebula-python) 是一款 Python 语言的客户端,可以连接、管理 NebulaGraph 图数据库。 +[NebulaGraph Python](https://github.com/vesoft-inc/nebula-python) 是一款 Python 语言的客户端,可以连接、管理{{nebula.name}}图数据库。 ## 前提条件 @@ -8,7 +8,7 @@ ## 版本对照表 -|NebulaGraph 版本|NebulaGraph Python 版本| +|{{nebula.name}}版本|NebulaGraph Python 版本| |:---|:---| |3.3.0|3.3.0| |3.1.0 ~ 3.2.x|3.1.0| diff --git a/docs-2.0/14.client/6.nebula-go-client.md b/docs-2.0/14.client/6.nebula-go-client.md index 5f3553f3915..26dfac69e36 100644 --- a/docs-2.0/14.client/6.nebula-go-client.md +++ b/docs-2.0/14.client/6.nebula-go-client.md @@ -1,6 +1,6 @@ # NebulaGraph Go -[NebulaGraph Go](https://github.com/vesoft-inc/nebula-go/tree/{{go.branch}}) 是一款 Go 语言的客户端,可以连接、管理 NebulaGraph 图数据库。 +[NebulaGraph Go](https://github.com/vesoft-inc/nebula-go/tree/{{go.branch}}) 是一款 Go 语言的客户端,可以连接、管理{{nebula.name}}图数据库。 ## 前提条件 @@ -8,7 +8,7 @@ ## 版本对照表 -|NebulaGraph 版本|NebulaGraph Go 版本| +|{{nebula.name}}版本|NebulaGraph Go 版本| |:---|:---| |3.3.0|3.3.0| |3.2.x|3.2.0| diff --git a/docs-2.0/15.contribution/how-to-contribute.md b/docs-2.0/15.contribution/how-to-contribute.md index 419eb448ffc..caaae179ddd 100644 --- a/docs-2.0/15.contribution/how-to-contribute.md +++ b/docs-2.0/15.contribution/how-to-contribute.md @@ -18,7 +18,7 @@ ## 修改单篇文档 -NebulaGraph 文档以 Markdown 语言编写。单击文档标题右侧的铅笔图标即可提交修改建议。 +{{nebula.name}}文档以 Markdown 语言编写。单击文档标题右侧的铅笔图标即可提交修改建议。 该方法仅适用于修改单篇文档。 @@ -28,11 +28,11 @@ NebulaGraph 文档以 Markdown 语言编写。单击文档标题右侧的铅笔 ### Step 1:通过 GitHub fork 仓库 -NebulaGraph 项目有很多[仓库](https://github.com/vesoft-inc),以 [NebulaGraph 仓库](https://github.com/vesoft-inc/nebula)为例: +{{nebula.name}}项目有很多[仓库](https://github.com/vesoft-inc),以 [{{nebula.name}}仓库](https://github.com/vesoft-inc/nebula)为例: 1. 访问 [github.com/vesoft-inc/nebula](https://github.com/vesoft-inc/nebula)。 -2. 在右上角单击按钮`Fork`,然后单击用户名,即可 fork 出 NebulaGraph 仓库。 +2. 在右上角单击按钮`Fork`,然后单击用户名,即可 fork 出{{nebula.name}}仓库。 ### Step 2:将分支克隆到本地 @@ -75,7 +75,7 @@ NebulaGraph 项目有很多[仓库](https://github.com/vesoft-inc),以 [Nebula 4. (可选)定义 pre-commit hook。 - 请将 NebulaGraph 的 pre-commit hook 连接到`.git`目录。 + 请将{{nebula.name}}的 pre-commit hook 连接到`.git`目录。 hook 将检查 commit,包括格式、构建、文档生成等。 @@ -124,7 +124,7 @@ NebulaGraph 项目有很多[仓库](https://github.com/vesoft-inc),以 [Nebula - 代码风格 - **NebulaGraph** 采用`cpplint`来确保代码符合 Google 的代码风格指南。检查器将在提交代码之前执行。 + {{nebula.name}}采用`cpplint`来确保代码符合 Google 的代码风格指南。检查器将在提交代码之前执行。 - 单元测试要求 @@ -132,7 +132,7 @@ NebulaGraph 项目有很多[仓库](https://github.com/vesoft-inc),以 [Nebula - 构建代码时开启单元测试 - 详情请参见[使用源码安装 NebulaGraph](../4.deployment-and-installation/2.compile-and-install-nebula-graph/1.install-nebula-graph-by-compiling-the-source-code.md)。 + 详情请参见[使用源码安装{{nebula.name}}](../4.deployment-and-installation/2.compile-and-install-nebula-graph/1.install-nebula-graph-by-compiling-the-source-code.md)。 !!! Note @@ -193,7 +193,7 @@ pull request 创建后,至少需要两人审查。审查人员将进行彻底 ### Step 1:确认项目捐赠 -通过邮件、微信、Slack 等方式联络 NebulaGraph 官方人员,确认捐赠项目一事。项目将被捐赠至 [NebulaGraph Contrib](https://github.com/nebula-contrib) 组织下。 +通过邮件、微信、Slack 等方式联络{{nebula.name}}官方人员,确认捐赠项目一事。项目将被捐赠至 [{{nebula.name}} Contrib](https://github.com/nebula-contrib) 组织下。 * 邮件地址:info@vesoft.com @@ -203,10 +203,10 @@ pull request 创建后,至少需要两人审查。审查人员将进行彻底 ### Step 2:获取项目接收人信息 -由 NebulaGraph 官方人员给出 NebulaGraph Contrib 的项目接收者 ID。 +由{{nebula.name}}官方人员给出{{nebula.name}} Contrib 的项目接收者 ID。 ### Step 3:捐赠项目 -由您将项目转移至本次捐赠的项目接受人,并由项目接收者将该项目转移至 [NebulaGraph Contrib](https://github.com/nebula-contrib) 组织下。捐赠后,您将以 Maintain 角色继续主导社区项目的发展。 +由您将项目转移至本次捐赠的项目接受人,并由项目接收者将该项目转移至 [{{nebula.name}} Contrib](https://github.com/nebula-contrib) 组织下。捐赠后,您将以 Maintain 角色继续主导社区项目的发展。 GitHub 上转移仓库的操作,请参见 [Transferring a repository owned by your user account](https://docs.github.com/en/enterprise-server@3.0/github/administering-a-repository/managing-repository-settings/transferring-a-repository#transferring-a-repository-owned-by-your-user-account)。 diff --git a/docs-2.0/2.quick-start/1.quick-start-overview.md b/docs-2.0/2.quick-start/1.quick-start-overview.md index 0df2ae90f49..47fbd101e6b 100644 --- a/docs-2.0/2.quick-start/1.quick-start-overview.md +++ b/docs-2.0/2.quick-start/1.quick-start-overview.md @@ -1,24 +1,24 @@ # 快速入门概览 -用户可通过 Docker Desktop、云、本地三种部署方式快速入门 NebulaGraph。快速入门将介绍如何通过 Docker Desktop、云、本地三种部署方式简单地使用 NebulaGraph,包括部署、连接 NebulaGraph,以及基础的增删改查操作。 +用户可通过 Docker Desktop、云、本地三种部署方式快速入门{{nebula.name}}。快速入门将介绍如何通过 Docker Desktop、云、本地三种部署方式简单地使用{{nebula.name}},包括部署、连接{{nebula.name}},以及基础的增删改查操作。 ## 使用 Docker Desktop 一键部署 -按照以下步骤可以快速在 Docker Desktop 中部署 NebulaGraph。 +按照以下步骤可以快速在 Docker Desktop 中部署{{nebula.name}}。 1. 安装 [Docker Desktop](https://www.docker.com/products/docker-desktop/)。 !!! caution 如果在 Windows 端安装 Docker Desktop 需[安装 WSL 2](https://docs.docker.com/desktop/install/windows-install/)。 - -2. 在仪表盘中单击`Extensions`或`Add Extensions`打开Extensions Marketplace 搜索 NebulaGraph ,也可以点击 [NebulaGraph](https://hub.docker.com/extensions/weygu/nebulagraph-dd-ext) 在 Docker Desktop 打开。 -3. 导航到 NebulaGraph 的扩展市场。 -4. 点击`Install`下载 NebulaGraph。 + +2. 在仪表盘中单击`Extensions`或`Add Extensions`打开Extensions Marketplace 搜索{{nebula.name}} ,也可以点击 [{{nebula.name}}](https://hub.docker.com/extensions/weygu/nebulagraph-dd-ext) 在 Docker Desktop 打开。 +3. 导航到{{nebula.name}}的扩展市场。 +4. 点击`Install`下载{{nebula.name}}。 ![docker](https://docs-cdn.nebula-graph.com.cn/figures/docker.png) -5. 在有 NebulaGraph 更新的时候,可以点击`Update`更新到最新版本。 +5. 在有更新的时候,可以点击`Update`更新到最新版本。 ![docker-update](https://docs-cdn.nebula-graph.com.cn/figures/docker-update.png) @@ -35,13 +35,13 @@ ### 操作步骤 -按照以下步骤可以快速在云上部署并且使用 NebulaGraph。 +按照以下步骤可以快速在云上部署并且使用{{nebula.name}}。 1. [创建云服务实例](https://docs.nebula-graph.com.cn/{{cloud.aliyunLatestRelease}}/nebula-cloud/nebula-cloud-on-alibabacloud/1.create-service-instance/) -2. [连接 NebulaGraph](2.quick-start-on-cloud/2.connect-to-nebulagraph-on-cloud.md) +2. [连接{{nebula.name}}](2.quick-start-on-cloud/2.connect-to-nebulagraph-on-cloud.md) -3. [管理 NebulaGraph 数据](2.quick-start-on-cloud/3.how-to-query-on-cloud.md) +3. [管理{{nebula.name}}数据](2.quick-start-on-cloud/3.how-to-query-on-cloud.md) ### 更多方式 @@ -55,15 +55,15 @@ ### 操作步骤 -按照以下步骤可以快速在本地部署并且使用 NebulaGraph。 +按照以下步骤可以快速在本地部署并且使用{{nebula.name}}。 -1. [安装 NebulaGraph](../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) +1. [安装{{nebula.name}}](../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) -2. [启动 NebulaGraph](3.quick-start-on-premise/5.start-stop-service.md) +2. [启动{{nebula.name}}](3.quick-start-on-premise/5.start-stop-service.md) -3. [连接 NebulaGraph](3.quick-start-on-premise/3.connect-to-nebula-graph.md) +3. [连接{{nebula.name}}](3.quick-start-on-premise/3.connect-to-nebula-graph.md) 4. [注册 Storage 服务](3.quick-start-on-premise/3.1add-storage-hosts.md) @@ -73,13 +73,13 @@ ### 更多方式 -快速入门使用 RPM 或 DEB 文件安装 NebulaGraph,您还可以使用其他本地部署方式安装 NebulaGraph。关于其它部署方式及相应的准备工作,参见文档目录**安装部署**。 +快速入门使用 RPM 或 DEB 文件安装{{nebula.name}},您还可以使用其他本地部署方式安装{{nebula.name}}。关于其它部署方式及相应的准备工作,参见文档目录**安装部署**。 ## 视频 -用户也可以观看视频快速了解 NebulaGraph 的相关概念和操作。 +用户也可以观看视频快速了解{{nebula.name}}的相关概念和操作。 -### NebulaGraph Academy 系列课程 +### {{nebula.name}} Academy 系列课程 * [第一课:图的概念](https://www.bilibili.com/video/BV1CK411f7Fw)(03 分 45 秒) @@ -100,7 +100,7 @@ --> -* [Foesa 小学姐课堂——NebulaGraph 那些磨人的概念](https://www.bilibili.com/video/BV1Q5411K7Gg)(04 分 20 秒) +* [Foesa 小学姐课堂——{{nebula.name}}那些磨人的概念](https://www.bilibili.com/video/BV1Q5411K7Gg)(04 分 20 秒) diff --git a/docs-2.0/2.quick-start/2.quick-start-on-cloud/1.create-instance-on-cloud.md b/docs-2.0/2.quick-start/2.quick-start-on-cloud/1.create-instance-on-cloud.md index 4b328c385f6..2fd34f52431 100644 --- a/docs-2.0/2.quick-start/2.quick-start-on-cloud/1.create-instance-on-cloud.md +++ b/docs-2.0/2.quick-start/2.quick-start-on-cloud/1.create-instance-on-cloud.md @@ -1,14 +1,14 @@ # 创建云服务实例 -用户可以在云服务上创建 NebulaGraph 实例,本文介绍如何在阿里云上快速创建 NebulaGraph 实例。 +用户可以在云服务上创建{{nebula.name}}实例,本文介绍如何在阿里云上快速创建{{nebula.name}}实例。 ## 背景信息 -NebulaGraph 支持在多个云平台上部署 NebulaGraph,本文只介绍如何在 NebulaGraph Cloud 阿里云版创建 NebulaGraph 实例。更多云服务平台的支持情况,参见 [NebulaGraph Cloud](https://docs.nebula-graph.com.cn/{{cloud.aliyunLatestRelease}}/nebula-cloud/1.what-is-cloud/)。 +{{nebula.name}}支持在多个云平台上部署{{nebula.name}},本文只介绍如何在 NebulaGraph Cloud 阿里云版创建{{nebula.name}}实例。更多云服务平台的支持情况,参见 [NebulaGraph Cloud](https://docs.nebula-graph.com.cn/{{cloud.aliyunLatestRelease}}/nebula-cloud/1.what-is-cloud/)。 !!! caution - 使用 NebulaGraph Cloud 阿里云版创建的实例对应`{{cloud.aliyunLatestRelease}}`版本的 NebulaGraph。 + 使用 NebulaGraph Cloud 阿里云版创建的实例对应`{{cloud.aliyunLatestRelease}}`版本的{{nebula.name}}。 {% include "/source_create_instance_aliyun.md" %} diff --git a/docs-2.0/2.quick-start/2.quick-start-on-cloud/2.connect-to-nebulagraph-on-cloud.md b/docs-2.0/2.quick-start/2.quick-start-on-cloud/2.connect-to-nebulagraph-on-cloud.md index 5f1803f323c..f9e34fbeced 100644 --- a/docs-2.0/2.quick-start/2.quick-start-on-cloud/2.connect-to-nebulagraph-on-cloud.md +++ b/docs-2.0/2.quick-start/2.quick-start-on-cloud/2.connect-to-nebulagraph-on-cloud.md @@ -1,6 +1,6 @@ -# 连接 NebulaGraph +# 连接{{nebula.name}} -创建好云服务实例后,可以连接 NebulaGraph。本文介绍如何使用 NebulaGraph Explorer 快速连接 NebulaGraph。 +创建好云服务实例后,可以连接{{nebula.name}}。本文介绍如何使用{{explorer.name}}快速连接{{nebula.name}}。 ## 前提条件 @@ -8,7 +8,7 @@ ## 操作步骤 -本文使用 [NebulaGraph Explorer](../../nebula-explorer/about-explorer/ex-ug-what-is-explorer.md) 快速连接 NebulaGraph。操作步骤如下: +本文使用 [{{explorer.name}}](../../nebula-explorer/about-explorer/ex-ug-what-is-explorer.md) 快速连接{{nebula.name}}。操作步骤如下: 1. 登录[服务实例管理](https://computenest.console.aliyun.com/user/cn-hangzhou/serviceInstance/private)页面。 @@ -21,7 +21,7 @@ 4. 在**概览**页签的**基本信息**区域,查看**nebula_private_ip**及**explorer_portal**信息。 -5. 单击**explorer_portal**对应链接,进入 NebulaGraph Explorer 登录页面。 +5. 单击**explorer_portal**对应链接,进入{{explorer.name}}登录页面。 6. 填写登录信息,单击**登录**。 - **Host**:`nebula_private_ip地址:9669`,例如`192.168.98.160:9669`。 @@ -35,9 +35,9 @@ ## 更多连接方式 -用户可根据自己的需求选择其他连接方式。关于更多连接方式,参见[连接 NebulaGraph](https://docs.nebula-graph.com.cn/{{cloud.aliyunLatestRelease}}/nebula-cloud/nebula-cloud-on-alibabacloud/2.use-cloud-services/#_4)。 +用户可根据自己的需求选择其他连接方式。关于更多连接方式,参见[连接{{nebula.name}}](https://docs.nebula-graph.com.cn/{{cloud.aliyunLatestRelease}}/nebula-cloud/nebula-cloud-on-alibabacloud/2.use-cloud-services/#_4)。 ## 下一步 -[管理 NebulaGraph 数据](3.how-to-query-on-cloud.md) \ No newline at end of file +[管理{{nebula.name}}数据](3.how-to-query-on-cloud.md) \ No newline at end of file diff --git a/docs-2.0/2.quick-start/2.quick-start-on-cloud/3.how-to-query-on-cloud.md b/docs-2.0/2.quick-start/2.quick-start-on-cloud/3.how-to-query-on-cloud.md index 546594feb1f..d46aefbad5e 100644 --- a/docs-2.0/2.quick-start/2.quick-start-on-cloud/3.how-to-query-on-cloud.md +++ b/docs-2.0/2.quick-start/2.quick-start-on-cloud/3.how-to-query-on-cloud.md @@ -1,16 +1,16 @@ -# 管理 NebulaGraph 数据 +# 管理{{nebula.name}}数据 -nGQL 是 NebulaGraph 创建的声明式图查询语言。用户可以使用 nGQL 语句对 NebulaGraph 数据库进行增删改查。本文介绍如何通过 NebulaGraph Cloud 中 Explorer 的控制台功能快速使用 Nebula Graph 基本语句。 +nGQL 是{{nebula.name}}创建的声明式图查询语言。用户可以使用 nGQL 语句对{{nebula.name}}数据库进行增删改查。本文介绍如何通过 NebulaGraph Cloud 中{{explorer.name}}的控制台功能快速使用 Nebula Graph 基本语句。 !!! note - 用户可以在 Explorer 中通过可视化查询 NebulaGraph 数据。本文介绍通过控制台功能使用 nGQL 语句增删改查 NebulaGraph 数据。关于如何可视化使用 Explorer 查询数据,参见[开始探索](../../nebula-explorer/graph-explorer/ex-ug-query-exploration.md)和[探索拓展](../../nebula-explorer/graph-explorer/ex-ug-graph-exploration.md),或者观看视频。 + 用户可以在{{explorer.name}}中通过可视化查询{{nebula.name}}数据。本文介绍通过控制台功能使用 nGQL 语句增删改查{{nebula.name}}数据。关于如何可视化使用{{explorer.name}}查询数据,参见[开始探索](../../nebula-explorer/graph-explorer/ex-ug-query-exploration.md)和[探索拓展](../../nebula-explorer/graph-explorer/ex-ug-graph-exploration.md),或者观看视频。 ## 前提条件 -[连接 NebulaGraph](2.connect-to-nebulagraph-on-cloud.md) +[连接{{nebula.name}}](2.connect-to-nebulagraph-on-cloud.md) ## 基本流程 @@ -18,7 +18,7 @@ nGQL 是 NebulaGraph 创建的声明式图查询语言。用户可以使用 nGQL ## 操作入口 -在 Explorer 页面的右上方,单击![console](https://docs-cdn.nebula-graph.com.cn/figures/nav-console2.png)进入控制台页面。在控制台命令行中执行 nGQL 语句。 +在{{explorer.name}}页面的右上方,单击![console](https://docs-cdn.nebula-graph.com.cn/figures/nav-console2.png)进入控制台页面。在控制台命令行中执行 nGQL 语句。 {% include "/source_ngql_for_quick_start.md" %} diff --git a/docs-2.0/2.quick-start/3.quick-start-on-premise/2.install-nebula-graph.md b/docs-2.0/2.quick-start/3.quick-start-on-premise/2.install-nebula-graph.md index 076caba1d63..4f87fcbbc46 100644 --- a/docs-2.0/2.quick-start/3.quick-start-on-premise/2.install-nebula-graph.md +++ b/docs-2.0/2.quick-start/3.quick-start-on-premise/2.install-nebula-graph.md @@ -1,4 +1,4 @@ -# 步骤 1:安装 NebulaGraph +# 步骤 1:安装{{nebula.name}} {% include "/source_install-nebula-graph-by-rpm-or-deb.md" %} diff --git a/docs-2.0/2.quick-start/3.quick-start-on-premise/3.1add-storage-hosts.md b/docs-2.0/2.quick-start/3.quick-start-on-premise/3.1add-storage-hosts.md index d211c7fdf94..f4029d65439 100644 --- a/docs-2.0/2.quick-start/3.quick-start-on-premise/3.1add-storage-hosts.md +++ b/docs-2.0/2.quick-start/3.quick-start-on-premise/3.1add-storage-hosts.md @@ -1,21 +1,21 @@ # 注册 Storage 服务 -首次连接到 NebulaGraph 后,需要先添加 Storage 主机,并确认主机都处于在线状态。 +首次连接到{{nebula.name}}后,需要先添加 Storage 主机,并确认主机都处于在线状态。 !!! compatibility "历史版本兼容性" - 从 NebulaGraph 3.0.0 版本开始,必须先使用`ADD HOSTS`添加主机,才能正常通过 Storage 服务读写数据。 + 从{{nebula.name}} 3.0.0 版本开始,必须先使用`ADD HOSTS`添加主机,才能正常通过 Storage 服务读写数据。 ## 前提条件 -已[连接 NebulaGraph 服务](3.connect-to-nebula-graph.md)。 +已[连接{{nebula.name}}服务](3.connect-to-nebula-graph.md)。 ## 操作步骤 diff --git a/docs-2.0/2.quick-start/3.quick-start-on-premise/3.connect-to-nebula-graph.md b/docs-2.0/2.quick-start/3.quick-start-on-premise/3.connect-to-nebula-graph.md index ddc4a173963..f53edeb6ef7 100644 --- a/docs-2.0/2.quick-start/3.quick-start-on-premise/3.connect-to-nebula-graph.md +++ b/docs-2.0/2.quick-start/3.quick-start-on-premise/3.connect-to-nebula-graph.md @@ -1,4 +1,4 @@ -# 步骤 3:连接 NebulaGraph +# 步骤 3:连接{{nebula.name}} {% include "/source_connect-to-nebula-graph.md" %} diff --git a/docs-2.0/2.quick-start/3.quick-start-on-premise/4.nebula-graph-crud.md b/docs-2.0/2.quick-start/3.quick-start-on-premise/4.nebula-graph-crud.md index 518f37f70fd..e431514762b 100644 --- a/docs-2.0/2.quick-start/3.quick-start-on-premise/4.nebula-graph-crud.md +++ b/docs-2.0/2.quick-start/3.quick-start-on-premise/4.nebula-graph-crud.md @@ -1,6 +1,6 @@ # 步骤 4:使用常用 nGQL(CRUD 命令) -本文介绍 NebulaGraph 查询语言的基础语法,包括用于 Schema 创建和常用增删改查操作的语句。 +本文介绍{{nebula.name}}查询语言的基础语法,包括用于 Schema 创建和常用增删改查操作的语句。 如需了解更多语句的用法,参见 [nGQL 指南](../../3.ngql-guide/1.nGQL-overview/1.overview.md)。 diff --git a/docs-2.0/2.quick-start/3.quick-start-on-premise/5.start-stop-service.md b/docs-2.0/2.quick-start/3.quick-start-on-premise/5.start-stop-service.md index c245195926f..374c024ef1c 100644 --- a/docs-2.0/2.quick-start/3.quick-start-on-premise/5.start-stop-service.md +++ b/docs-2.0/2.quick-start/3.quick-start-on-premise/5.start-stop-service.md @@ -1,4 +1,4 @@ -# 步骤 2:启动 NebulaGraph 服务 +# 步骤 2:启动{{nebula.name}}服务 {% include "/source_manage-service.md" %} diff --git a/docs-2.0/2.quick-start/6.cheatsheet-for-ngql-command.md b/docs-2.0/2.quick-start/6.cheatsheet-for-ngql-command.md index 3905c90654a..c8749a0cfdf 100644 --- a/docs-2.0/2.quick-start/6.cheatsheet-for-ngql-command.md +++ b/docs-2.0/2.quick-start/6.cheatsheet-for-ngql-command.md @@ -341,7 +341,7 @@ | [CREATE SPACE](../3.ngql-guide/9.space-statements/1.create-space.md) | `CREATE SPACE [IF NOT EXISTS] ( [partition_num = ,] [replica_factor = ,] vid_type = {FIXED_STRING() | INT[64]} ) [COMMENT = '']` | `CREATE SPACE my_space_1 (vid_type=FIXED_STRING(30))` | 创建一个新的图空间。 | | [CREATE SPACE](../3.ngql-guide/9.space-statements/1.create-space.md) | `CREATE SPACE AS ` | `CREATE SPACE my_space_4 as my_space_3` | 克隆现有图空间的 Schema。 | | [USE](../3.ngql-guide/9.space-statements/2.use-space.md) | `USE ` | `USE space1` | 指定一个图空间,或切换到另一个图空间,将其作为后续查询的工作空间。 | -| [SHOW SPACES](../3.ngql-guide/9.space-statements/3.show-spaces.md) | `SHOW SPACES` | `SHOW SPACES` | 列出 NebulaGraph 示例中的所有图空间。 | +| [SHOW SPACES](../3.ngql-guide/9.space-statements/3.show-spaces.md) | `SHOW SPACES` | `SHOW SPACES` | 列出{{nebula.name}}示例中的所有图空间。 | | [DESCRIBE SPACE](../3.ngql-guide/9.space-statements/4.describe-space.md) | `DESC[RIBE] SPACE ` | `DESCRIBE SPACE basketballplayer` | 显示指定图空间的信息。 | | [CLEAR SPACE](../3.ngql-guide/9.space-statements/6.clear-space.md) | `CLEAR SPACE [IF EXISTS] ` | 清空图空间中的点和边,但不会删除图空间本身以及其中的 Schema 信息。 | | [DROP SPACE](../3.ngql-guide/9.space-statements/5.drop-space.md) | `DROP SPACE [IF EXISTS] ` | `DROP SPACE basketballplayer` | 删除指定图空间的所有内容。 | @@ -371,7 +371,7 @@ | 语句 | 语法 | 示例 | 说明 | | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | -| [INSERT VERTEX](../3.ngql-guide/12.vertex-statements/1.insert-vertex.md) | `INSERT VERTEX [IF NOT EXISTS] [tag_props, [tag_props] ...] VALUES : ([prop_value_list])` | `INSERT VERTEX t2 (name, age) VALUES "13":("n3", 12), "14":("n4", 8)` | 在 NebulaGraph 实例的指定图空间中插入一个或多个点。 | +| [INSERT VERTEX](../3.ngql-guide/12.vertex-statements/1.insert-vertex.md) | `INSERT VERTEX [IF NOT EXISTS] [tag_props, [tag_props] ...] VALUES : ([prop_value_list])` | `INSERT VERTEX t2 (name, age) VALUES "13":("n3", 12), "14":("n4", 8)` | 在{{nebula.name}}实例的指定图空间中插入一个或多个点。 | | [DELETE VERTEX](../3.ngql-guide/12.vertex-statements/4.delete-vertex.md) | `DELETE VERTEX [, ...]` | `DELETE VERTEX "team1"` | 删除点,以及点关联的出边和入边。 | | [UPDATE VERTEX](../3.ngql-guide/12.vertex-statements/2.update-vertex.md) | `UPDATE VERTEX ON SET [WHEN ] [YIELD ]` | `UPDATE VERTEX ON player "player101" SET age = age + 2 ` | 修改点上 Tag 的属性值。 | | [UPSERT VERTEX](../3.ngql-guide/12.vertex-statements/3.upsert-vertex.md) | `UPSERT VERTEX ON SET [WHEN ] [YIELD ]` | `UPSERT VERTEX ON player "player667" SET age = 31` | 结合`UPDATE`和`INSERT`,如果点存在,会修改点的属性值;如果点不存在,会插入新的点。 | @@ -380,7 +380,7 @@ | 语句 | 语法 | 示例 | 说明 | | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | -| [INSERT EDGE](../3.ngql-guide/13.edge-statements/1.insert-edge.md) | `INSERT EDGE [IF NOT EXISTS] ( ) VALUES -> [@] : ( ) [, -> [@] : ( ), ...]` | `INSERT EDGE e2 (name, age) VALUES "11"->"13":("n1", 1)` | 在 NebulaGraph 实例的指定图空间中插入一条或多条边。 | +| [INSERT EDGE](../3.ngql-guide/13.edge-statements/1.insert-edge.md) | `INSERT EDGE [IF NOT EXISTS] ( ) VALUES -> [@] : ( ) [, -> [@] : ( ), ...]` | `INSERT EDGE e2 (name, age) VALUES "11"->"13":("n1", 1)` | 在{{nebula.name}}实例的指定图空间中插入一条或多条边。 | | [DELETE EDGE](../3.ngql-guide/12.vertex-statements/3.upsert-vertex.md) | `DELETE EDGE -> [@] [, -> [@] ...]` | `DELETE EDGE serve "player100" -> "team204"@0` | 删除边。一次可以删除一条或多条边。 | | [UPDATE EDGE](../3.ngql-guide/13.edge-statements/2.update-edge.md) | `UPDATE EDGE ON -> [@] SET [WHEN ] [YIELD ]` | `UPDATE EDGE ON serve "player100" -> "team204"@0 SET start_year = start_year + 1` | 修改边上 Edge type 的属性。 | | [UPSERT EDGE](../3.ngql-guide/12.vertex-statements/3.upsert-vertex.md) | `UPSERT EDGE ON -> [@rank] SET [WHEN ] [YIELD ]` | `UPSERT EDGE on serve "player666" -> "team200"@0 SET end_year = 2021` | 结合`UPDATE`和`INSERT`,如果边存在,会更新边的属性;如果边不存在,会插入新的边。 | @@ -407,7 +407,7 @@ | 语法 | 示例 | 说明 | | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | - | `SIGN IN TEXT SERVICE [( [,, ]), (), ...]` | `SIGN IN TEXT SERVICE (127.0.0.1:9200)` | NebulaGraph 的全文索引是基于 [Elasticsearch](https://en.wikipedia.org/wiki/Elasticsearch) 实现,部署 Elasticsearch 集群之后,可以使用`SIGN IN`语句登录 Elasticsearch 客户端。 | + | `SIGN IN TEXT SERVICE [( [,, ]), (), ...]` | `SIGN IN TEXT SERVICE (127.0.0.1:9200)` | {{nebula.name}}的全文索引是基于 [Elasticsearch](https://en.wikipedia.org/wiki/Elasticsearch) 实现,部署 Elasticsearch 集群之后,可以使用`SIGN IN`语句登录 Elasticsearch 客户端。 | | `SHOW TEXT SEARCH CLIENTS` | `SHOW TEXT SEARCH CLIENTS` | 列出文本搜索客户端。 | | `SIGN OUT TEXT SERVICE` | `SIGN OUT TEXT SERVICE` | 退出所有文本搜索客户端。 | | `CREATE FULLTEXT {TAG | EDGE} INDEX ON { | } ([])` | `CREATE FULLTEXT TAG INDEX nebula_index_1 ON player(name)` | 创建全文索引。 | diff --git a/docs-2.0/20.appendix/0.FAQ.md b/docs-2.0/20.appendix/0.FAQ.md index c6ac58fcf33..ada07df5bb0 100644 --- a/docs-2.0/20.appendix/0.FAQ.md +++ b/docs-2.0/20.appendix/0.FAQ.md @@ -1,14 +1,14 @@ # 常见问题 FAQ -本文列出了使用 NebulaGraph {{ nebula.release }} 时可能遇到的常见问题,用户可以使用文档中心或者浏览器的搜索功能查找相应问题。 +本文列出了使用{{nebula.name}} {{ nebula.release }} 时可能遇到的常见问题,用户可以使用文档中心或者浏览器的搜索功能查找相应问题。 -如果按照文中的建议无法解决问题,请到 [NebulaGraph 论坛](https://discuss.nebula-graph.com.cn/) 提问或提交 [GitHub issue](https://github.com/vesoft-inc/nebula/issues)。 +如果按照文中的建议无法解决问题,请到[{{nebula.name}} 论坛](https://discuss.nebula-graph.com.cn/) 提问或提交 [GitHub issue](https://github.com/vesoft-inc/nebula/issues)。 ## 关于本手册 ### 为什么手册示例和系统行为不一致? -NebulaGraph 一直在持续开发,功能或操作的行为可能会有变化,如果发现不一致,请提交 [issue](https://github.com/vesoft-inc/nebula/issues/new) 通知 NebulaGraph 团队。 +{{nebula.name}}一直在持续开发,功能或操作的行为可能会有变化,如果发现不一致,请提交 [issue](https://github.com/vesoft-inc/nebula/issues/new) 通知{{nebula.name}}团队。 !!! note @@ -22,22 +22,22 @@ NebulaGraph 一直在持续开发,功能或操作的行为可能会有变化 !!! compatibility "`X`版本兼容性" - NebulaGraph {{ nebula.release }} 与 历史版本 (包括 NebulaGraph 1.x 和 2.x) 的数据格式、客户端通信协议均**双向不兼容**。 + {{nebula.name}} {{ nebula.release }} 与 历史版本 (包括{{nebula.name}} 1.x 和 2.x) 的数据格式、客户端通信协议均**双向不兼容**。 使用**老版本**客户端连接**新版本**服务端,会导致服务进程**退出**。 - 数据格式升级参见[升级 NebulaGraph 历史版本至当前版本](../4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-graph-to-latest.md)。 + 数据格式升级参见[升级{{nebula.name}}历史版本至当前版本](../4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-graph-to-latest.md)。 客户端与工具均需要[下载对应版本](../20.appendix/6.eco-tool-version.md)。 ## 关于执行报错 ### 如何处理错误信息 `SemanticError: Missing yield clause.` -从 NebulaGraph 3.0.0 开始,查询语句`LOOKUP`、`GO`、`FETCH`必须用`YIELD`子句指定输出结果。详情请参见[YIELD](../3.ngql-guide/8.clauses-and-options/yield.md)。 +从{{nebula.name}} 3.0.0 开始,查询语句`LOOKUP`、`GO`、`FETCH`必须用`YIELD`子句指定输出结果。详情请参见[YIELD](../3.ngql-guide/8.clauses-and-options/yield.md)。 ### 如何处理错误信息 `Host not enough!` @@ -50,7 +50,7 @@ NebulaGraph 一直在持续开发,功能或操作的行为可能会有变化 diff --git a/docs-2.0/3.ngql-guide/10.tag-statements/1.create-tag.md b/docs-2.0/3.ngql-guide/10.tag-statements/1.create-tag.md index 2c82375186b..698843515d3 100644 --- a/docs-2.0/3.ngql-guide/10.tag-statements/1.create-tag.md +++ b/docs-2.0/3.ngql-guide/10.tag-statements/1.create-tag.md @@ -35,7 +35,7 @@ CREATE TAG [IF NOT EXISTS] |``|属性名称。每个 Tag 中的属性名称必须唯一。属性的命名规则与 Tag 相同。| |``|属性的数据类型,目前支持[数值](../3.data-types/1.numeric.md)、[布尔](../3.data-types/2.boolean.md)、[字符串](../3.data-types/3.string.md)以及[日期与时间](../3.data-types/4.date-and-time.md)。| |`NULL \| NOT NULL`|指定属性值是否支持为`NULL`。默认值为`NULL`。当指定属性值为`NOT NULL`时,必需指定属性的默认值,也就是`DEFAULT`的值。| -|`DEFAULT`|指定属性的默认值。默认值可以是一个文字值或 NebulaGraph 支持的表达式。如果插入点时没有指定某个属性的值,则使用默认值。| +|`DEFAULT`|指定属性的默认值。默认值可以是一个文字值或{{nebula.name}}支持的表达式。如果插入点时没有指定某个属性的值,则使用默认值。| |`COMMENT`|对单个属性或 Tag 的描述。最大为 256 字节。默认无描述。| |`TTL_DURATION`|指定时间戳差值,单位:秒。时间戳差值必须为 64 位非负整数。属性值和时间戳差值之和如果小于当前时间戳,属性就会过期。默认值为`0`,表示属性永不过期。| |`TTL_COL`|指定要设置存活时间的属性。属性的数据类型必须是`int`或者`timestamp`。一个 Tag 只能指定一个字段为`TTL_COL`。更多 TTL 的信息请参见 [TTL](../8.clauses-and-options/ttl-options.md)。| diff --git a/docs-2.0/3.ngql-guide/10.tag-statements/2.drop-tag.md b/docs-2.0/3.ngql-guide/10.tag-statements/2.drop-tag.md index a49df6306f6..2fb4cc36705 100644 --- a/docs-2.0/3.ngql-guide/10.tag-statements/2.drop-tag.md +++ b/docs-2.0/3.ngql-guide/10.tag-statements/2.drop-tag.md @@ -12,7 +12,7 @@ !!! Compatibility - NebulaGraph {{nebula.release}} 中默认不支持插入无 Tag 的点。如需使用无 Tag 的点,在集群内所有 Graph 服务的配置文件(`nebula-graphd.conf`)中新增`--graph_use_vertex_key=true`;在所有 Storage 服务的配置文件(`nebula-storaged.conf`)中新增`--use_vertex_key=true`。 + {{nebula.name}} {{nebula.release}} 中默认不支持插入无 Tag 的点。如需使用无 Tag 的点,在集群内所有 Graph 服务的配置文件(`nebula-graphd.conf`)中新增`--graph_use_vertex_key=true`;在所有 Storage 服务的配置文件(`nebula-storaged.conf`)中新增`--use_vertex_key=true`。 ## 前提条件 diff --git a/docs-2.0/3.ngql-guide/10.tag-statements/improve-query-by-tag-index.md b/docs-2.0/3.ngql-guide/10.tag-statements/improve-query-by-tag-index.md index a7ba3adb440..4bbd6777d02 100644 --- a/docs-2.0/3.ngql-guide/10.tag-statements/improve-query-by-tag-index.md +++ b/docs-2.0/3.ngql-guide/10.tag-statements/improve-query-by-tag-index.md @@ -2,7 +2,7 @@ 在 openCypher 中,有增加标签(`SET label`)和移除标签(`REMOVE label`)的功能,可以用于加速查询或者标记过程。 -在 NebulaGraph 中,可以通过 Tag 变相实现相同操作,创建 Tag 并将 Tag 插入到已有的点上,就可以根据 Tag 名称快速查找点,也可以通过`DELETE TAG`删除某些点上不再需要的 Tag。 +在{{nebula.name}}中,可以通过 Tag 变相实现相同操作,创建 Tag 并将 Tag 插入到已有的点上,就可以根据 Tag 名称快速查找点,也可以通过`DELETE TAG`删除某些点上不再需要的 Tag。 ## 示例 diff --git a/docs-2.0/3.ngql-guide/11.edge-type-statements/1.create-edge.md b/docs-2.0/3.ngql-guide/11.edge-type-statements/1.create-edge.md index c0e9c16b57b..3c3e85c7a94 100644 --- a/docs-2.0/3.ngql-guide/11.edge-type-statements/1.create-edge.md +++ b/docs-2.0/3.ngql-guide/11.edge-type-statements/1.create-edge.md @@ -35,7 +35,7 @@ CREATE EDGE [IF NOT EXISTS] |``|属性名称。每个 Edge type 中的属性名称必须唯一。属性的命名规则与 Edge type 相同。| |``|属性的数据类型,目前支持[数值](../3.data-types/1.numeric.md)、[布尔](../3.data-types/2.boolean.md)、[字符串](../3.data-types/3.string.md)以及[日期与时间](../3.data-types/4.date-and-time.md)。| |`NULL \| NOT NULL`|指定属性值是否支持为`NULL`。默认值为`NULL`。当指定属性值为`NOT NULL`时,必需指定属性的默认值,也就是`DEFAULT`的值。| -|`DEFAULT`|指定属性的默认值。默认值可以是一个文字值或 NebulaGraph 支持的表达式。如果插入边时没有指定某个属性的值,则使用默认值。| +|`DEFAULT`|指定属性的默认值。默认值可以是一个文字值或{{nebula.name}}支持的表达式。如果插入边时没有指定某个属性的值,则使用默认值。| |`COMMENT`|对单个属性或 Edge type 的描述。最大为 256 字节。默认无描述。| |`TTL_DURATION`|指定时间戳差值,单位:秒。时间戳差值必须为 64 位非负整数。属性值和时间戳差值之和如果小于当前时间戳,属性就会过期。默认值为`0`,表示属性永不过期。| |`TTL_COL`|指定要设置存活时间的属性。属性的数据类型必须是`int`或者`timestamp`。一个 Edge type 只能指定一个字段为`TTL_COL`。更多 TTL 的信息请参见 [TTL](../8.clauses-and-options/ttl-options.md)。| diff --git a/docs-2.0/3.ngql-guide/12.vertex-statements/1.insert-vertex.md b/docs-2.0/3.ngql-guide/12.vertex-statements/1.insert-vertex.md index 21b2fefafea..38ce4a2967b 100644 --- a/docs-2.0/3.ngql-guide/12.vertex-statements/1.insert-vertex.md +++ b/docs-2.0/3.ngql-guide/12.vertex-statements/1.insert-vertex.md @@ -1,6 +1,6 @@ # INSERT VERTEX -`INSERT VERTEX`语句可以在 NebulaGraph 实例的指定图空间中插入一个或多个点。 +`INSERT VERTEX`语句可以在{{nebula.name}}实例的指定图空间中插入一个或多个点。 ## 前提条件 @@ -57,11 +57,11 @@ prop_value_list: !!! caution - NebulaGraph {{nebula.release}} 中默认不支持插入无 Tag 的点。如需使用无 Tag 的点,在集群内所有 Graph 服务的配置文件(`nebula-graphd.conf`)中新增`--graph_use_vertex_key=true`;在所有 Storage 服务的配置文件(`nebula-storaged.conf`)中新增`--use_vertex_key=true`。插入无 Tag 点的命令示例如`INSERT VERTEX VALUES "1":();`。 + {{nebula.name}} {{nebula.release}} 中默认不支持插入无 Tag 的点。如需使用无 Tag 的点,在集群内所有 Graph 服务的配置文件(`nebula-graphd.conf`)中新增`--graph_use_vertex_key=true`;在所有 Storage 服务的配置文件(`nebula-storaged.conf`)中新增`--use_vertex_key=true`。插入无 Tag 点的命令示例如`INSERT VERTEX VALUES "1":();`。 - `property_name`:需要设置的属性名称。 -- `vid`:点 ID。在 NebulaGraph {{ nebula.release }} 中支持字符串和整数,需要在创建图空间时设置,详情请参见 [CREATE SPACE](../9.space-statements/1.create-space.md)。 +- `vid`:点 ID。在{{nebula.name}} {{ nebula.release }} 中支持字符串和整数,需要在创建图空间时设置,详情请参见 [CREATE SPACE](../9.space-statements/1.create-space.md)。 - `property_value`:根据`prop_name_list`填写属性值。如果没有填写属性值,而 Tag 中对应的属性设置为`NOT NULL`,会返回错误。详情请参见 [CREATE TAG](../10.tag-statements/1.create-tag.md)。 diff --git a/docs-2.0/3.ngql-guide/12.vertex-statements/2.update-vertex.md b/docs-2.0/3.ngql-guide/12.vertex-statements/2.update-vertex.md index 75ae28c4a5b..3e8b2315c1d 100644 --- a/docs-2.0/3.ngql-guide/12.vertex-statements/2.update-vertex.md +++ b/docs-2.0/3.ngql-guide/12.vertex-statements/2.update-vertex.md @@ -2,7 +2,7 @@ `UPDATE VERTEX`语句可以修改点上 Tag 的属性值。 -NebulaGraph 支持 CAS(compare and set)操作。 +{{nebula.name}}支持 CAS(compare and set)操作。 !!! note diff --git a/docs-2.0/3.ngql-guide/12.vertex-statements/4.delete-vertex.md b/docs-2.0/3.ngql-guide/12.vertex-statements/4.delete-vertex.md index aa540230e58..8616689b49b 100644 --- a/docs-2.0/3.ngql-guide/12.vertex-statements/4.delete-vertex.md +++ b/docs-2.0/3.ngql-guide/12.vertex-statements/4.delete-vertex.md @@ -4,7 +4,7 @@ !!! Compatibility - NebulaGraph 2.x 默认删除点及关联该点的出边和入,NebulaGraph {{nebula.release}} 默认只删除点,不删除该点关联的出边和入边,此时将默认存在悬挂边。 + {{nebula.name}} 2.x 默认删除点及关联该点的出边和入,{{nebula.name}} {{nebula.release}} 默认只删除点,不删除该点关联的出边和入边,此时将默认存在悬挂边。 `DELETE VERTEX`语句一次可以删除一个或多个点。用户可以结合管道符一起使用,详情请参见[管道符](../5.operators/4.pipe.md)。 @@ -41,7 +41,7 @@ nebula> GO FROM "player100" OVER serve WHERE properties(edge).start_year == "202 ## 删除过程 -NebulaGraph 找到目标点并删除,该目标点的所有邻边(出边和入边)将成为悬挂边。 +{{nebula.name}}找到目标点并删除,该目标点的所有邻边(出边和入边)将成为悬挂边。 !!! caution @@ -50,5 +50,5 @@ NebulaGraph 找到目标点并删除,该目标点的所有邻边(出边和 ## 悬挂边视频 -* [NebulaGraph 的悬挂边小科普](https://www.bilibili.com/video/BV1GR4y1F7ko)(2 分 28 秒) +* [{{nebula.name}} 的悬挂边小科普](https://www.bilibili.com/video/BV1GR4y1F7ko)(2 分 28 秒) diff --git a/docs-2.0/3.ngql-guide/13.edge-statements/1.insert-edge.md b/docs-2.0/3.ngql-guide/13.edge-statements/1.insert-edge.md index 19c5a240311..ecafeb50a3d 100644 --- a/docs-2.0/3.ngql-guide/13.edge-statements/1.insert-edge.md +++ b/docs-2.0/3.ngql-guide/13.edge-statements/1.insert-edge.md @@ -1,6 +1,6 @@ # INSERT EDGE -`INSERT EDGE`语句可以在 NebulaGraph 实例的指定图空间中插入一条或多条边。边是有方向的,从起始点(src_vid)到目的点(dst_vid)。 +`INSERT EDGE`语句可以在{{nebula.name}}实例的指定图空间中插入一条或多条边。边是有方向的,从起始点(src_vid)到目的点(dst_vid)。 `INSERT EDGE`的执行方式为覆盖式插入。如果已有 Edge type、起点、终点、rank 都相同的边,则**覆盖**原边。 @@ -96,7 +96,7 @@ nebula> FETCH PROP ON e2 "14"->"15"@1 YIELD edge AS e; !!! Note - * NebulaGraph {{ nebula.release }} 允许存在悬挂边(Dangling edge)。因此可以在起点或者终点存在前,先写边;此时就可以通过 `._src`或`._dst`获取到(尚未写入的)点 VID(不建议这样使用)。 + * {{nebula.name}} {{ nebula.release }} 允许存在悬挂边(Dangling edge)。因此可以在起点或者终点存在前,先写边;此时就可以通过 `._src`或`._dst`获取到(尚未写入的)点 VID(不建议这样使用)。 * 目前还不能保证操作的原子性,如果失败请重试,否则会发生部分写入。此时读取该数据的行为是未定义的。例如写入操作涉及到多个机器时,可能会出现插入单个边的正反向边只写入成功一个,或者插入多个边时只写入成功一部分,此时会返回报错,请重新执行命令。 * 并发写入同一条边会报`edge conflict`错误,可稍后重试。 * `边的 INSERT 速度`大约是点的 INSERT 速度一半。原因是 INSERT 边会对应 storaged 的两个 INSERT,`INSERT 点`对应 storaged 的一个 INSERT。 diff --git a/docs-2.0/3.ngql-guide/13.edge-statements/2.update-edge.md b/docs-2.0/3.ngql-guide/13.edge-statements/2.update-edge.md index bca1739c98b..4d7224de0de 100644 --- a/docs-2.0/3.ngql-guide/13.edge-statements/2.update-edge.md +++ b/docs-2.0/3.ngql-guide/13.edge-statements/2.update-edge.md @@ -2,7 +2,7 @@ `UPDATE EDGE`语句可以修改边上 Edge type 的属性。 -NebulaGraph 支持 CAS(compare and swap)操作。 +{{nebula.name}}支持 CAS(compare and swap)操作。 ## 语法 diff --git a/docs-2.0/3.ngql-guide/14.native-index-statements/1.create-native-index.md b/docs-2.0/3.ngql-guide/14.native-index-statements/1.create-native-index.md index d866e843e72..b937ee25c8e 100644 --- a/docs-2.0/3.ngql-guide/14.native-index-statements/1.create-native-index.md +++ b/docs-2.0/3.ngql-guide/14.native-index-statements/1.create-native-index.md @@ -38,13 +38,13 @@ 如果必须使用索引,通常按照如下步骤: -1. 初次导入数据至 NebulaGraph。 +1. 初次导入数据至{{nebula.name}}。 2. 创建索引。 3. [重建索引](4.rebuild-native-index.md)。 -4. 使用 [LOOKUP](../7.general-query-statements/5.lookup.md) 或 [MATCH](../7.general-query-statements/2.match.md) 语句查询数据。不需要(也无法)指定使用哪个索引,NebulaGraph 会自动计算。 +4. 使用 [LOOKUP](../7.general-query-statements/5.lookup.md) 或 [MATCH](../7.general-query-statements/2.match.md) 语句查询数据。不需要(也无法)指定使用哪个索引,{{nebula.name}}会自动计算。 !!! Note @@ -52,7 +52,7 @@ 日常增量写入时保持 `--disable_auto_compaction = false`。 - 新创建的索引并不会立刻生效。创建新的索引并尝试立刻使用(例如`LOOKUP`或者`REBUILD INDEX`) 通常会失败(报错`can't find xxx in the space`)。因为创建步骤是异步实现的,NebulaGraph 要在下一个心跳周期才能完成索引的创建。为确保数据同步,后续操作能顺利进行,请等待 2 个心跳周期(20 秒)。如果需要修改心跳间隔,请为[所有配置文件](../../5.configurations-and-logs/1.configurations/1.configurations.md)修改参数`heartbeat_interval_secs`。 + 新创建的索引并不会立刻生效。创建新的索引并尝试立刻使用(例如`LOOKUP`或者`REBUILD INDEX`) 通常会失败(报错`can't find xxx in the space`)。因为创建步骤是异步实现的,{{nebula.name}}要在下一个心跳周期才能完成索引的创建。为确保数据同步,后续操作能顺利进行,请等待 2 个心跳周期(20 秒)。如果需要修改心跳间隔,请为[所有配置文件](../../5.configurations-and-logs/1.configurations/1.configurations.md)修改参数`heartbeat_interval_secs`。 !!! danger diff --git a/docs-2.0/3.ngql-guide/14.native-index-statements/4.rebuild-native-index.md b/docs-2.0/3.ngql-guide/14.native-index-statements/4.rebuild-native-index.md index 5ce23a6cbe1..f147e6b82d4 100644 --- a/docs-2.0/3.ngql-guide/14.native-index-statements/4.rebuild-native-index.md +++ b/docs-2.0/3.ngql-guide/14.native-index-statements/4.rebuild-native-index.md @@ -60,5 +60,5 @@ nebula> SHOW JOB 31; +----------------+---------------------+------------+-------------------------+-------------------------+-------------+ ``` -NebulaGraph 创建一个任务去重建索引,因此可以根据返回的任务 ID,通过`SHOW JOB `语句查看任务状态。详情请参见 [SHOW JOB](../4.job-statements.md#show_job)。 +{{nebula.name}}创建一个任务去重建索引,因此可以根据返回的任务 ID,通过`SHOW JOB `语句查看任务状态。详情请参见 [SHOW JOB](../4.job-statements.md#show_job)。 diff --git a/docs-2.0/3.ngql-guide/14.native-index-statements/README.md b/docs-2.0/3.ngql-guide/14.native-index-statements/README.md index 55756b377ca..0a8e3808b14 100644 --- a/docs-2.0/3.ngql-guide/14.native-index-statements/README.md +++ b/docs-2.0/3.ngql-guide/14.native-index-statements/README.md @@ -1,14 +1,14 @@ # 索引介绍 -为了提高查询性能,NebulaGraph 支持为点的 Tag 或 Tag 的某个属性,边的 Edge type 或 Edge type 的某个属性创建索引。索引可以基于指定的 Tag、Edge type、属性查询数据,但是索引本身不存储数据,而是存储数据的位置。 +为了提高查询性能,{{nebula.name}}支持为点的 Tag 或 Tag 的某个属性,边的 Edge type 或 Edge type 的某个属性创建索引。索引可以基于指定的 Tag、Edge type、属性查询数据,但是索引本身不存储数据,而是存储数据的位置。 -NebulaGraph 支持两种类型索引:原生索引和全文索引。 +{{nebula.name}}支持两种类型索引:原生索引和全文索引。 ## 使用说明 - 索引可以提高查询性能,但是会降低写入性能。 - 索引是执行`LOOKUP`语句时用于定位到数据的前置条件,如果没有索引,执行`LOOKUP`语句会报错。 -- 使用索引时,NebulaGraph 会自动选择最优的索引。 +- 使用索引时,{{nebula.name}}会自动选择最优的索引。 - 具有高选择度的索引,即索引列中不同值的记录数与总记录数的比值较高(例如身份证号的比值为 1)可显著提升查询性能;而对于低选择度的索引(例如国家),查询性能可能不会带来显著提升。 ## 原生索引 diff --git a/docs-2.0/3.ngql-guide/15.full-text-index-statements/1.search-with-text-based-index.md b/docs-2.0/3.ngql-guide/15.full-text-index-statements/1.search-with-text-based-index.md index d5120423162..b96ade8ce86 100644 --- a/docs-2.0/3.ngql-guide/15.full-text-index-statements/1.search-with-text-based-index.md +++ b/docs-2.0/3.ngql-guide/15.full-text-index-statements/1.search-with-text-based-index.md @@ -89,7 +89,7 @@ nebula> SHOW TEXT SEARCH CLIENTS; //切换图空间。 nebula> USE basketballplayer; -//添加 listener 到 NebulaGraph 集群。 +//添加 listener 到{{nebula.name}}集群。 nebula> ADD LISTENER ELASTICSEARCH 192.168.8.5:9789; //检查是否成功添加 listener,当状态为 Online 时表示成功添加。 diff --git a/docs-2.0/3.ngql-guide/17.query-tuning-statements/1.explain-and-profile.md b/docs-2.0/3.ngql-guide/17.query-tuning-statements/1.explain-and-profile.md index 4b6750c760d..144b6a8707c 100644 --- a/docs-2.0/3.ngql-guide/17.query-tuning-statements/1.explain-and-profile.md +++ b/docs-2.0/3.ngql-guide/17.query-tuning-statements/1.explain-and-profile.md @@ -6,7 +6,7 @@ ## 执行计划 -执行计划由 NebulaGraph 查询引擎中的执行计划器决定。 +执行计划由{{nebula.name}}查询引擎中的执行计划器决定。 执行计划器将解析后的 nGQL 语句处理为`action`。`action`是最小的执行单元。典型的`action`包括获取指定点的所有邻居、获取边的属性、根据条件过滤点或边等。每个`action`都被分配给一个`operator`。 diff --git a/docs-2.0/3.ngql-guide/18.operation-and-maintenance-statements/.1.configs-syntax.md b/docs-2.0/3.ngql-guide/18.operation-and-maintenance-statements/.1.configs-syntax.md index 64d2de432a8..851b7f9da5b 100644 --- a/docs-2.0/3.ngql-guide/18.operation-and-maintenance-statements/.1.configs-syntax.md +++ b/docs-2.0/3.ngql-guide/18.operation-and-maintenance-statements/.1.configs-syntax.md @@ -1,10 +1,10 @@ # CONFIG -第一次启动 NebulaGraph 集群时,系统会从本地配置文件中读取配置,然后保存在 Meta 服务中,后续重启集群,也会从 Meta 服务中读取配置。`CONFIG`语句可以修改 Meta 服务中保存的 NebulaGraph 配置,不会修改本地配置文件。 +第一次启动{{nebula.name}}集群时,系统会从本地配置文件中读取配置,然后保存在 Meta 服务中,后续重启集群,也会从 Meta 服务中读取配置。`CONFIG`语句可以修改 Meta 服务中保存的{{nebula.name}}配置,不会修改本地配置文件。 !!! Note - 根据过往实践,建议让 NebulaGraph 从本地文件获取配置。详情请参见[配置简介](../../5.configurations-and-logs/1.configurations/1.configurations.md#修改配置)。 + 根据过往实践,建议让{{nebula.name}}从本地文件获取配置。详情请参见[配置简介](../../5.configurations-and-logs/1.configurations/1.configurations.md#修改配置)。 ## SHOW CONFIGS diff --git a/docs-2.0/3.ngql-guide/3.data-types/1.numeric.md b/docs-2.0/3.ngql-guide/3.data-types/1.numeric.md index 6f9276cb306..3647b8ef83c 100644 --- a/docs-2.0/3.ngql-guide/3.data-types/1.numeric.md +++ b/docs-2.0/3.ngql-guide/3.data-types/1.numeric.md @@ -43,13 +43,13 @@ nGQL 支持科学计数法,例如`1e2`、`1.1e2`、`.3e4`、`1.e4`、`-1234E-1 例如,nGQL 不支持设置 INT8 类型的 [VID](../../1.introduction/3.vid.md),但支持将 [TAG](../10.tag-statements/1.create-tag.md) 或 [Edge type](../11.edge-type-statements/1.create-edge.md) 的某个属性类型设置为 INT8。当使用 nGQL 语句读取 INT8 类型的属性时,获取到的值的类型为 INT64。 -- NebulaGraph 支持写入多种进制的数值: +- {{nebula.name}}支持写入多种进制的数值: - 十进制,例如`123456`。 - 十六进制,例如`0x1e240`。 - 八进制,例如`0361100`。 - 但 NebulaGraph 会将写入的非十进制数值解析为十进制的值保存。读取到的值为十进制。 + 但{{nebula.name}}会将写入的非十进制数值解析为十进制的值保存。读取到的值为十进制。 例如,属性`score`的类型为`INT`,通过 INSERT 语句为其赋值`0xb`,使用 FETCH 等语句查询该属性值获取到的结果是`11`,即将十六进制的`0xb`转换为十进制后的值。 diff --git a/docs-2.0/3.ngql-guide/3.data-types/10.geography.md b/docs-2.0/3.ngql-guide/3.data-types/10.geography.md index 17235d89fac..c22cbfb6731 100644 --- a/docs-2.0/3.ngql-guide/3.data-types/10.geography.md +++ b/docs-2.0/3.ngql-guide/3.data-types/10.geography.md @@ -1,6 +1,6 @@ # 地理位置 -地理位置(GEOGRAPHY)是由经纬度构成的表示地理空间信息的数据类型。NebulaGraph 当前支持[简单地理要素](https://en.wikipedia.org/wiki/Simple_Features)中的 Point、LineString 和 Polygon 三种地理形状。支持 [SQL-MM 3](https://www.techrepublic.com/index.php/resource-library/whitepapers/sql-mm-spatial-the-standard-to-manage-spatial-data-in-relational-database-systems/) 中的部分核心 geo 解析、构造、格式设置、转换、谓词和度量等函数。 +地理位置(GEOGRAPHY)是由经纬度构成的表示地理空间信息的数据类型。{{nebula.name}}当前支持[简单地理要素](https://en.wikipedia.org/wiki/Simple_Features)中的 Point、LineString 和 Polygon 三种地理形状。支持 [SQL-MM 3](https://www.techrepublic.com/index.php/resource-library/whitepapers/sql-mm-spatial-the-standard-to-manage-spatial-data-in-relational-database-systems/) 中的部分核心 geo 解析、构造、格式设置、转换、谓词和度量等函数。 ## GEOGRAPHY diff --git a/docs-2.0/3.ngql-guide/3.data-types/2.boolean.md b/docs-2.0/3.ngql-guide/3.data-types/2.boolean.md index c166df7e043..2824f4b8849 100644 --- a/docs-2.0/3.ngql-guide/3.data-types/2.boolean.md +++ b/docs-2.0/3.ngql-guide/3.data-types/2.boolean.md @@ -1,6 +1,6 @@ # 布尔 -NebulaGraph 使用关键字`BOOL`声明布尔数据类型,可选值为`true`或`false`。 +{{nebula.name}}使用关键字`BOOL`声明布尔数据类型,可选值为`true`或`false`。 nGQL 支持以如下方式使用布尔值: diff --git a/docs-2.0/3.ngql-guide/3.data-types/3.string.md b/docs-2.0/3.ngql-guide/3.data-types/3.string.md index 24b18d85555..387194f2dc2 100644 --- a/docs-2.0/3.ngql-guide/3.data-types/3.string.md +++ b/docs-2.0/3.ngql-guide/3.data-types/3.string.md @@ -1,6 +1,6 @@ # 字符串 -NebulaGraph 支持定长字符串和变长字符串。 +{{nebula.name}}支持定长字符串和变长字符串。 ## 声明与表示方式 @@ -35,8 +35,8 @@ nGQL 支持以如下方式使用字符串: 如果尝试写入的定长字符串超出长度限制: -- 当该定长字符串为属性值时,写入会成功,NebulaGraph 将截断字符串,仅存入符合长度限制的部分。 -- 当该定长字符串为 VID 时,写入会失败,NebulaGraph 将报错。 +- 当该定长字符串为属性值时,写入会成功,{{nebula.name}}将截断字符串,仅存入符合长度限制的部分。 +- 当该定长字符串为 VID 时,写入会失败,{{nebula.name}}将报错。 ## 转义字符 diff --git a/docs-2.0/3.ngql-guide/3.data-types/4.date-and-time.md b/docs-2.0/3.ngql-guide/3.data-types/4.date-and-time.md index 3f3aff60fa9..2156b7e3499 100644 --- a/docs-2.0/3.ngql-guide/3.data-types/4.date-and-time.md +++ b/docs-2.0/3.ngql-guide/3.data-types/4.date-and-time.md @@ -4,7 +4,7 @@ ## 注意事项 -- 在插入时间类型的属性值时,NebulaGraph 会根据[配置文件](../../5.configurations-and-logs/1.configurations/1.configurations.md)中`timezone_name`参数指定的时区,将该`DATE`、`TIME`、`DATETIME`转换成相应的世界协调时间(UTC)时间。 +- 在插入时间类型的属性值时,{{nebula.name}}会根据[配置文件](../../5.configurations-and-logs/1.configurations/1.configurations.md)中`timezone_name`参数指定的时区,将该`DATE`、`TIME`、`DATETIME`转换成相应的世界协调时间(UTC)时间。 !!! Note @@ -33,7 +33,7 @@ ## DATE -`DATE`包含日期,但是不包含时间。NebulaGraph 检索和显示`DATE`的格式为`YYYY-MM-DD`。支持的范围是`-32768-01-01`到`32767-12-31`。 +`DATE`包含日期,但是不包含时间。{{nebula.name}}检索和显示`DATE`的格式为`YYYY-MM-DD`。支持的范围是`-32768-01-01`到`32767-12-31`。 `date()`支持的属性名称包括`year`、`month`和`day`。`date()`支持输入`YYYY`、`YYYY-MM`或`YYYY-MM-DD`,未输入的月份或日期默认为`01`。 @@ -54,13 +54,13 @@ nebula> RETURN DATE("23333"); ## TIME -`TIME`包含时间,但是不包含日期。NebulaGraph 检索和显示`TIME`的格式为`hh:mm:ss.msmsmsususus`。支持的范围是`00:00:00.000000`到`23:59:59.999999`。 +`TIME`包含时间,但是不包含日期。{{nebula.name}}检索和显示`TIME`的格式为`hh:mm:ss.msmsmsususus`。支持的范围是`00:00:00.000000`到`23:59:59.999999`。 `time()`支持的属性名称包括`hour`、`minute`和`second`。 ## DATETIME -`DATETIME`包含日期和时间。NebulaGraph 检索和显示`DATETIME`的格式为`YYYY-MM-DDThh:mm:ss.msmsmsususus`。支持的范围是`-32768-01-01T00:00:00.000000`到`32767-12-31T23:59:59.999999`。 +`DATETIME`包含日期和时间。{{nebula.name}}检索和显示`DATETIME`的格式为`YYYY-MM-DDThh:mm:ss.msmsmsususus`。支持的范围是`-32768-01-01T00:00:00.000000`到`32767-12-31T23:59:59.999999`。 - `datetime()`支持的属性名称包括`year`、`month`、`day`、`hour`、`minute`和`second`。 diff --git a/docs-2.0/3.ngql-guide/3.data-types/5.null.md b/docs-2.0/3.ngql-guide/3.data-types/5.null.md index 3f808d7bd9c..ef4a8cf83ad 100644 --- a/docs-2.0/3.ngql-guide/3.data-types/5.null.md +++ b/docs-2.0/3.ngql-guide/3.data-types/5.null.md @@ -20,15 +20,15 @@ ## OpenCypher 兼容性 -NebulaGraph 中,NULL 的比较和操作与 openCypher 不同,后续也可能会有变化。 +{{nebula.name}}中,NULL 的比较和操作与 openCypher 不同,后续也可能会有变化。 ### NULL 的比较 -NebulaGraph 中,NULL 的比较操作不兼容 openCypher。 +{{nebula.name}}中,NULL 的比较操作不兼容 openCypher。 ### NULL 的操作和返回 -NebulaGraph 中,对 NULL 的操作以及返回结果不兼容 openCypher。 +{{nebula.name}}中,对 NULL 的操作以及返回结果不兼容 openCypher。 ## 示例 diff --git a/docs-2.0/3.ngql-guide/3.data-types/9.type-conversion.md b/docs-2.0/3.ngql-guide/3.data-types/9.type-conversion.md index e0e4bfc837b..51c5da1063c 100644 --- a/docs-2.0/3.ngql-guide/3.data-types/9.type-conversion.md +++ b/docs-2.0/3.ngql-guide/3.data-types/9.type-conversion.md @@ -2,7 +2,7 @@ 类型转换是指将表达式的类型转换为另一个类型。 -NebulaGraph 支持显式地转换类型。详情参见[类型转换函数](../6.functions-and-expressions/16.type-conversion.md)。 +{{nebula.name}}支持显式地转换类型。详情参见[类型转换函数](../6.functions-and-expressions/16.type-conversion.md)。 ## 示例 diff --git a/docs-2.0/3.ngql-guide/4.job-statements.md b/docs-2.0/3.ngql-guide/4.job-statements.md index 32d3a6b4699..34142c4c0f4 100644 --- a/docs-2.0/3.ngql-guide/4.job-statements.md +++ b/docs-2.0/3.ngql-guide/4.job-statements.md @@ -104,7 +104,7 @@ nebula> SUBMIT JOB FLUSH; !!! Note - 如果存储在 NebulaGraph 中的数据有变化,为了获取最新的统计结果,请重新执行`SUBMIT JOB STATS`。 + 如果存储在{{nebula.name}}中的数据有变化,为了获取最新的统计结果,请重新执行`SUBMIT JOB STATS`。 示例: @@ -119,7 +119,7 @@ nebula> SUBMIT JOB STATS; ## SUBMIT JOB DOWNLOAD/INGEST -`SUBMIT JOB DOWNLOAD HDFS`和`SUBMIT JOB INGEST`命令用于将 SST 文件导入 NebulaGraph。详情参见[导入 SST 文件数据](../nebula-exchange/use-exchange/ex-ug-import-from-sst.md)。 +`SUBMIT JOB DOWNLOAD HDFS`和`SUBMIT JOB INGEST`命令用于将 SST 文件导入{{nebula.name}}。详情参见[导入 SST 文件数据](../nebula-exchange/use-exchange/ex-ug-import-from-sst.md)。 `SUBMIT JOB DOWNLOAD HDFS`语句会下载指定的 HDFS 上的 SST 文件。 diff --git a/docs-2.0/3.ngql-guide/4.variable-and-composite-queries/1.composite-queries.md b/docs-2.0/3.ngql-guide/4.variable-and-composite-queries/1.composite-queries.md index f0c4fe0e8a5..ec681d6a10d 100644 --- a/docs-2.0/3.ngql-guide/4.variable-and-composite-queries/1.composite-queries.md +++ b/docs-2.0/3.ngql-guide/4.variable-and-composite-queries/1.composite-queries.md @@ -2,7 +2,7 @@ 复合查询将来自不同请求的数据放在一起,然后进行过滤、分组或者排序等,最后返回结果。 -NebulaGraph 支持三种方式进行复合查询(或子查询): +{{nebula.name}}支持三种方式进行复合查询(或子查询): - (opencypher 兼容语句)连接各个子句,让它们在彼此之间提供中间结果集。 diff --git a/docs-2.0/3.ngql-guide/4.variable-and-composite-queries/2.user-defined-variables.md b/docs-2.0/3.ngql-guide/4.variable-and-composite-queries/2.user-defined-variables.md index c56b4ec360b..216ba17cf1c 100644 --- a/docs-2.0/3.ngql-guide/4.variable-and-composite-queries/2.user-defined-variables.md +++ b/docs-2.0/3.ngql-guide/4.variable-and-composite-queries/2.user-defined-variables.md @@ -1,6 +1,6 @@ # 自定义变量 -NebulaGraph 允许将一条语句的结果作为自定义变量传递给另一条语句。 +{{nebula.name}}允许将一条语句的结果作为自定义变量传递给另一条语句。 ## OpenCypher 兼容性 diff --git a/docs-2.0/3.ngql-guide/4.variable-and-composite-queries/3.property-reference.md b/docs-2.0/3.ngql-guide/4.variable-and-composite-queries/3.property-reference.md index 8ba2acbf036..357dbfd54ee 100644 --- a/docs-2.0/3.ngql-guide/4.variable-and-composite-queries/3.property-reference.md +++ b/docs-2.0/3.ngql-guide/4.variable-and-composite-queries/3.property-reference.md @@ -88,7 +88,7 @@ nebula> GO FROM "player100" OVER follow YIELD follow._src, follow._dst, follow._ !!! compatibility "历史版本兼容性" - 从 NebulaGraph 2.6.0 起支持了新的 [Schema 相关函数](../6.functions-and-expressions/4.schema.md)。以上示例在 NebulaGraph {{ nebula.release}} 中的近似写法如下: + 从{{nebula.name}} 2.6.0 起支持了新的 [Schema 相关函数](../6.functions-and-expressions/4.schema.md)。以上示例在{{nebula.name}} {{ nebula.release}} 中的近似写法如下: ```ngql GO FROM "player100" OVER follow YIELD properties($^).name AS startName, properties($$).age AS endAge; @@ -96,4 +96,4 @@ nebula> GO FROM "player100" OVER follow YIELD follow._src, follow._dst, follow._ GO FROM "player100" OVER follow YIELD src(edge), dst(edge), type(edge), rank(edge); ``` - NebulaGraph {{ nebula.release}} 兼容新旧语法。 + {{nebula.name}} {{ nebula.release}} 兼容新旧语法。 diff --git a/docs-2.0/3.ngql-guide/5.operators/1.comparison.md b/docs-2.0/3.ngql-guide/5.operators/1.comparison.md index a1c2a87bdf7..5c17025c5a9 100644 --- a/docs-2.0/3.ngql-guide/5.operators/1.comparison.md +++ b/docs-2.0/3.ngql-guide/5.operators/1.comparison.md @@ -1,6 +1,6 @@ # 比较符 -NebulaGraph 支持的比较符如下。 +{{nebula.name}}支持的比较符如下。 | 符号 | 说明 | |:----|:----:| diff --git a/docs-2.0/3.ngql-guide/5.operators/2.boolean.md b/docs-2.0/3.ngql-guide/5.operators/2.boolean.md index 30233161316..2b92d2ccfc0 100644 --- a/docs-2.0/3.ngql-guide/5.operators/2.boolean.md +++ b/docs-2.0/3.ngql-guide/5.operators/2.boolean.md @@ -1,6 +1,6 @@ # 布尔符 -NebulaGraph 支持的布尔符如下。 +{{nebula.name}}支持的布尔符如下。 | 符号 | 说明 | | :------- | :-------------: | diff --git a/docs-2.0/3.ngql-guide/5.operators/4.pipe.md b/docs-2.0/3.ngql-guide/5.operators/4.pipe.md index a7f36628911..29bfc7617e8 100644 --- a/docs-2.0/3.ngql-guide/5.operators/4.pipe.md +++ b/docs-2.0/3.ngql-guide/5.operators/4.pipe.md @@ -35,7 +35,7 @@ nebula> GO FROM "player100" OVER follow \ ## 性能提示 -NebulaGraph 中的管道对性能有影响,以`A | B`为例,体现在以下几个方面: +{{nebula.name}}中的管道对性能有影响,以`A | B`为例,体现在以下几个方面: 1. 管道是同步操作。也即需要管道之前的子句`A`执行完毕后,数据才能整体进入管道子句。 diff --git a/docs-2.0/3.ngql-guide/5.operators/6.set.md b/docs-2.0/3.ngql-guide/5.operators/6.set.md index 6c83007d7a7..c7662b97906 100644 --- a/docs-2.0/3.ngql-guide/5.operators/6.set.md +++ b/docs-2.0/3.ngql-guide/5.operators/6.set.md @@ -2,7 +2,7 @@ 合并多个请求时,可以使用集合运算符,包括`UNION`、`UNION ALL`、`INTERSECT`和`MINUS`。 -所有集合运算符的优先级相同,如果一个 nGQL 语句中有多个集合运算符,NebulaGraph 会从左到右进行计算,除非用括号指定顺序。 +所有集合运算符的优先级相同,如果一个 nGQL 语句中有多个集合运算符,{{nebula.name}}会从左到右进行计算,除非用括号指定顺序。 !!! caution diff --git a/docs-2.0/3.ngql-guide/5.operators/7.string.md b/docs-2.0/3.ngql-guide/5.operators/7.string.md index d413f1f05d6..ba82144a188 100644 --- a/docs-2.0/3.ngql-guide/5.operators/7.string.md +++ b/docs-2.0/3.ngql-guide/5.operators/7.string.md @@ -1,6 +1,6 @@ # 字符串运算符 -NebulaGraph 支持使用字符串运算符进行连接、搜索、匹配运算。支持的运算符如下。 +{{nebula.name}}支持使用字符串运算符进行连接、搜索、匹配运算。支持的运算符如下。 | 名称 | 说明 | |:----- | :------------------ | @@ -111,7 +111,7 @@ nebula> RETURN 'apple' ENDS WITH 'app', 'apple' ENDS WITH 'e', 'apple' ENDS WITH 当前仅 opencypher 兼容语句(`MATCH`、`WITH`等)支持正则表达式,原生 nGQL 语句(`FETCH`、`GO`、`LOOKUP`等)不支持正则表达式。 -NebulaGraph 支持使用正则表达式进行过滤,正则表达式的语法是继承自`std::regex`,用户可以使用语法`=~ ''`进行正则表达式匹配。例如: +{{nebula.name}}支持使用正则表达式进行过滤,正则表达式的语法是继承自`std::regex`,用户可以使用语法`=~ ''`进行正则表达式匹配。例如: ```ngql nebula> RETURN "384748.39" =~ "\\d+(\\.\\d{2})?"; diff --git a/docs-2.0/3.ngql-guide/5.operators/8.list.md b/docs-2.0/3.ngql-guide/5.operators/8.list.md index 257ad25f95f..217c5023cd2 100644 --- a/docs-2.0/3.ngql-guide/5.operators/8.list.md +++ b/docs-2.0/3.ngql-guide/5.operators/8.list.md @@ -1,6 +1,6 @@ # 列表运算符 -NebulaGraph 支持使用列表(List)运算符进行运算。支持的运算符如下。 +{{nebula.name}}支持使用列表(List)运算符进行运算。支持的运算符如下。 | 名称 | 说明 | |:----- |:------------------| diff --git a/docs-2.0/3.ngql-guide/6.functions-and-expressions/1.math.md b/docs-2.0/3.ngql-guide/6.functions-and-expressions/1.math.md index 9cbbaaf1d44..ff70ebe63b3 100644 --- a/docs-2.0/3.ngql-guide/6.functions-and-expressions/1.math.md +++ b/docs-2.0/3.ngql-guide/6.functions-and-expressions/1.math.md @@ -1,6 +1,6 @@ # 内置数学函数 -本文介绍 NebulaGraph 支持的数学函数。 +本文介绍{{nebula.name}}支持的数学函数。 ## abs() diff --git a/docs-2.0/3.ngql-guide/6.functions-and-expressions/15.aggregating.md b/docs-2.0/3.ngql-guide/6.functions-and-expressions/15.aggregating.md index ff86d1cb4d7..f94db19ee87 100644 --- a/docs-2.0/3.ngql-guide/6.functions-and-expressions/15.aggregating.md +++ b/docs-2.0/3.ngql-guide/6.functions-and-expressions/15.aggregating.md @@ -1,6 +1,6 @@ # 聚合函数 -本文介绍 NebulaGraph 支持的聚合函数。 +本文介绍{{nebula.name}}支持的聚合函数。 ## avg() diff --git a/docs-2.0/3.ngql-guide/6.functions-and-expressions/16.type-conversion.md b/docs-2.0/3.ngql-guide/6.functions-and-expressions/16.type-conversion.md index 1a4e2433fe9..78851047d43 100644 --- a/docs-2.0/3.ngql-guide/6.functions-and-expressions/16.type-conversion.md +++ b/docs-2.0/3.ngql-guide/6.functions-and-expressions/16.type-conversion.md @@ -1,6 +1,6 @@ # 类型转换函数 -本文介绍 NebulaGraph 支持的类型转换函数。 +本文介绍{{nebula.name}}支持的类型转换函数。 ## toBoolean() diff --git a/docs-2.0/3.ngql-guide/6.functions-and-expressions/2.string.md b/docs-2.0/3.ngql-guide/6.functions-and-expressions/2.string.md index bda86ca0916..55e0378ca1b 100644 --- a/docs-2.0/3.ngql-guide/6.functions-and-expressions/2.string.md +++ b/docs-2.0/3.ngql-guide/6.functions-and-expressions/2.string.md @@ -1,6 +1,6 @@ # 内置字符串函数 -本文介绍 NebulaGraph 支持的字符串函数。 +本文介绍{{nebula.name}}支持的字符串函数。 ## 注意事项 diff --git a/docs-2.0/3.ngql-guide/6.functions-and-expressions/3.date-and-time.md b/docs-2.0/3.ngql-guide/6.functions-and-expressions/3.date-and-time.md index 0fafe547e94..e9f05d55ced 100644 --- a/docs-2.0/3.ngql-guide/6.functions-and-expressions/3.date-and-time.md +++ b/docs-2.0/3.ngql-guide/6.functions-and-expressions/3.date-and-time.md @@ -1,6 +1,6 @@ # 内置日期时间函数 -NebulaGraph 支持以下内置日期时间函数。 +{{nebula.name}}支持以下内置日期时间函数。 |函数| 说明 | |:---- | :----| diff --git a/docs-2.0/3.ngql-guide/6.functions-and-expressions/4.schema.md b/docs-2.0/3.ngql-guide/6.functions-and-expressions/4.schema.md index 232ed9308ee..96ea8fa0f51 100644 --- a/docs-2.0/3.ngql-guide/6.functions-and-expressions/4.schema.md +++ b/docs-2.0/3.ngql-guide/6.functions-and-expressions/4.schema.md @@ -1,6 +1,6 @@ # Schema 相关函数 -本文介绍 NebulaGraph 支持的 [Schema](../../1.introduction/2.data-model.md) 相关的函数。 +本文介绍{{nebula.name}}支持的 [Schema](../../1.introduction/2.data-model.md) 相关的函数。 Schema 相关的函数分为两类: diff --git a/docs-2.0/3.ngql-guide/6.functions-and-expressions/5.conditional-expressions.md b/docs-2.0/3.ngql-guide/6.functions-and-expressions/5.conditional-expressions.md index 8094c902e81..7ec83a88dbe 100644 --- a/docs-2.0/3.ngql-guide/6.functions-and-expressions/5.conditional-expressions.md +++ b/docs-2.0/3.ngql-guide/6.functions-and-expressions/5.conditional-expressions.md @@ -1,6 +1,6 @@ # 条件表达式函数 -本文介绍 NebulaGraph 支持的条件表达式函数。 +本文介绍{{nebula.name}}支持的条件表达式函数。 ## CASE diff --git a/docs-2.0/3.ngql-guide/6.functions-and-expressions/6.list.md b/docs-2.0/3.ngql-guide/6.functions-and-expressions/6.list.md index 454a82716c9..4e2d746aa25 100644 --- a/docs-2.0/3.ngql-guide/6.functions-and-expressions/6.list.md +++ b/docs-2.0/3.ngql-guide/6.functions-and-expressions/6.list.md @@ -1,6 +1,6 @@ # 列表函数 -本文介绍 NebulaGraph 支持的列表(List)函数。部分列表函数在原生 nGQL 语句和 openCypher 兼容语句中的语法不同。 +本文介绍{{nebula.name}}支持的列表(List)函数。部分列表函数在原生 nGQL 语句和 openCypher 兼容语句中的语法不同。 ## 注意事项 diff --git a/docs-2.0/3.ngql-guide/6.functions-and-expressions/8.predicate.md b/docs-2.0/3.ngql-guide/6.functions-and-expressions/8.predicate.md index 2326bc38812..eac7764f8ca 100644 --- a/docs-2.0/3.ngql-guide/6.functions-and-expressions/8.predicate.md +++ b/docs-2.0/3.ngql-guide/6.functions-and-expressions/8.predicate.md @@ -2,7 +2,7 @@ 谓词函数只返回`true`或`false`,通常用于`WHERE`子句中。 -NebulaGraph 支持以下谓词函数。 +{{nebula.name}}支持以下谓词函数。 | 函数 | 说明 | |:----- |:-------- | diff --git a/docs-2.0/3.ngql-guide/6.functions-and-expressions/9.user-defined-functions.md b/docs-2.0/3.ngql-guide/6.functions-and-expressions/9.user-defined-functions.md index 449257fcc8f..35ebbb087d0 100644 --- a/docs-2.0/3.ngql-guide/6.functions-and-expressions/9.user-defined-functions.md +++ b/docs-2.0/3.ngql-guide/6.functions-and-expressions/9.user-defined-functions.md @@ -2,4 +2,4 @@ ## openCypher 兼容性 -NebulaGraph {{ nebula.release }} 不支持自定义函数(UDF)和存储过程。 +{{nebula.name}} {{ nebula.release }} 不支持自定义函数(UDF)和存储过程。 diff --git a/docs-2.0/3.ngql-guide/7.general-query-statements/2.match.md b/docs-2.0/3.ngql-guide/7.general-query-statements/2.match.md index ca53c195b32..f70e40560a2 100644 --- a/docs-2.0/3.ngql-guide/7.general-query-statements/2.match.md +++ b/docs-2.0/3.ngql-guide/7.general-query-statements/2.match.md @@ -41,7 +41,6 @@ MATCH [] RETURN []; ### 匹配点 - 用户可以在一对括号中使用自定义变量来表示模式中的点。例如`(v)`。 ```ngql @@ -61,7 +60,7 @@ nebula> MATCH (v) \ !!! Compatibility "历史版本兼容性" - 在 NebulaGraph 3.0.0 之前,匹配 Tag 的前提是 Tag 本身有索引或者 Tag 的某个属性有索引,否则,用户无法基于该 Tag 执行`MATCH`语句。从 NebulaGraph 3.0.0 开始,匹配 Tag 可以不创建索引,但需要使用`LIMIT`限制输出结果数量。从 NebulaGraph 3.5.0 开始,`MATCH`语句支持全表扫描,无需为 Tag 或 Tag 的某个属性创建索引,或者使用`LIMIT`限制输出结果数量,即可执行`MATCH`语句。 + 在{{nebula.name}} 3.0.0 之前,匹配 Tag 的前提是 Tag 本身有索引或者 Tag 的某个属性有索引,否则,用户无法基于该 Tag 执行`MATCH`语句。从{{nebula.name}} 3.0.0 开始,匹配 Tag 可以不创建索引,但需要使用`LIMIT`限制输出结果数量。从{{nebula.name}} 3.5.0 开始,`MATCH`语句支持全表扫描,无需为 Tag 或 Tag 的某个属性创建索引,或者使用`LIMIT`限制输出结果数量,即可执行`MATCH`语句。 用户可以在点的右侧用`:`表示模式中的 Tag。 @@ -282,7 +281,6 @@ nebula> MATCH p=(v:player{name:"Tim Duncan"})-->(v2) \ ### 匹配边 - ```ngql nebula> MATCH ()<-[e]-() \ RETURN e \ @@ -302,7 +300,7 @@ nebula> MATCH ()<-[e]-() \ !!! Compatibility "历史版本兼容性" - 在 NebulaGraph 3.0.0 之前,匹配 Edge Type 的前提是 Edge type 本身有对应属性的索引,否则,用户无法基于 Edge Type 执行 `MATCH` 语句。从 NebulaGraph 3.0.0 开始,匹配 Edge Type 可以不创建索引,但需要使用 `LIMIT` 限制输出结果数量,并且必须指定边的方向。从 NebulaGraph 3.5.0 开始,无需为 Edge Type 创建索引或者使用`LIMIT`限制输出结果数量,即可使用`MATCH`语句匹配边。 + 在{{nebula.name}} 3.0.0 之前,匹配 Edge Type 的前提是 Edge type 本身有对应属性的索引,否则,用户无法基于 Edge Type 执行 `MATCH` 语句。从{{nebula.name}} 3.0.0 开始,匹配 Edge Type 可以不创建索引,但需要使用 `LIMIT` 限制输出结果数量,并且必须指定边的方向。从{{nebula.name}} 3.5.0 开始,无需为 Edge Type 创建索引或者使用`LIMIT`限制输出结果数量,即可使用`MATCH`语句匹配边。 ```ngql nebula> MATCH ()-[e:follow]->() \ @@ -606,4 +604,4 @@ nebula> MATCH (m)-[]->(n) WHERE id(m)=="player100" \ !!! Performance - NebulaGraph {{ nebula.release }} 中`MATCH`语句的性能和资源占用得到了优化.但对性能要求较高时,仍建议使用 `GO`, `LOOKUP`, `|` 和 `FETCH` 等来替代`MATCH`。 + {{nebula.name}} {{ nebula.release }} 中`MATCH`语句的性能和资源占用得到了优化.但对性能要求较高时,仍建议使用 `GO`, `LOOKUP`, `|` 和 `FETCH` 等来替代`MATCH`。 diff --git a/docs-2.0/3.ngql-guide/7.general-query-statements/3.go.md b/docs-2.0/3.ngql-guide/7.general-query-statements/3.go.md index bd07d2308c5..98523e2ac68 100644 --- a/docs-2.0/3.ngql-guide/7.general-query-statements/3.go.md +++ b/docs-2.0/3.ngql-guide/7.general-query-statements/3.go.md @@ -29,7 +29,7 @@ YIELD [DISTINCT] [AS ] [, [AS ] ...] ``` -- ` {STEP|STEPS}`:指定跳数。如果没有指定跳数,默认值`N`为`1`。如果`N`为`0`,NebulaGraph 不会检索任何边。 +- ` {STEP|STEPS}`:指定跳数。如果没有指定跳数,默认值`N`为`1`。如果`N`为`0`,{{nebula.name}} 不会检索任何边。 - `M TO N {STEP|STEPS}`:遍历`M~N`跳的边。如果`M`为`0`,输出结果和`M`为`1`相同,即`GO 0 TO 2`和`GO 1 TO 2`是相同的。 diff --git a/docs-2.0/3.ngql-guide/7.general-query-statements/6.show/1.show-charset.md b/docs-2.0/3.ngql-guide/7.general-query-statements/6.show/1.show-charset.md index 7bc41d99e19..d43270ec9eb 100644 --- a/docs-2.0/3.ngql-guide/7.general-query-statements/6.show/1.show-charset.md +++ b/docs-2.0/3.ngql-guide/7.general-query-statements/6.show/1.show-charset.md @@ -2,7 +2,7 @@ `SHOW CHARSET`语句显示当前的字符集。 -目前可用的字符集为`utf8`和`utf8mb4`。默认字符集为`utf8`。NebulaGraph 扩展`uft8`支持四字节字符,因此`utf8`和`utf8mb4`是等价的。 +目前可用的字符集为`utf8`和`utf8mb4`。默认字符集为`utf8`。{{nebula.name}} 扩展`uft8`支持四字节字符,因此`utf8`和`utf8mb4`是等价的。 ## 语法 diff --git a/docs-2.0/3.ngql-guide/7.general-query-statements/6.show/17.show-sessions.md b/docs-2.0/3.ngql-guide/7.general-query-statements/6.show/17.show-sessions.md index 0e5ea3c92de..2273efa5a08 100644 --- a/docs-2.0/3.ngql-guide/7.general-query-statements/6.show/17.show-sessions.md +++ b/docs-2.0/3.ngql-guide/7.general-query-statements/6.show/17.show-sessions.md @@ -1,6 +1,6 @@ # SHOW SESSIONS -登录 NebulaGraph 数据库时,会创建对应会话,用户可以查询会话信息。 +登录{{nebula.name}}数据库时,会创建对应会话,用户可以查询会话信息。 ## 注意事项 diff --git a/docs-2.0/3.ngql-guide/7.general-query-statements/6.show/6.show-hosts.md b/docs-2.0/3.ngql-guide/7.general-query-statements/6.show/6.show-hosts.md index 5b9bf9f715b..c179414db47 100644 --- a/docs-2.0/3.ngql-guide/7.general-query-statements/6.show/6.show-hosts.md +++ b/docs-2.0/3.ngql-guide/7.general-query-statements/6.show/6.show-hosts.md @@ -10,7 +10,7 @@ SHOW HOSTS [GRAPH | STORAGE | META]; !!! note - 对于使用源码安装的 NebulaGraph,执行添加了服务名的命令后,输出的信息中不显示版本信息。 + 对于使用源码安装的{{nebula.name}},执行添加了服务名的命令后,输出的信息中不显示版本信息。 ## 示例 diff --git a/docs-2.0/3.ngql-guide/7.general-query-statements/6.show/8.show-indexes.md b/docs-2.0/3.ngql-guide/7.general-query-statements/6.show/8.show-indexes.md index 910cc60cdb6..50ca252837c 100644 --- a/docs-2.0/3.ngql-guide/7.general-query-statements/6.show/8.show-indexes.md +++ b/docs-2.0/3.ngql-guide/7.general-query-statements/6.show/8.show-indexes.md @@ -29,4 +29,4 @@ nebula> SHOW EDGE INDEXES; !!! Compatibility "历史版本兼容性" - NebulaGraph 2.0.1 中, `SHOW TAG/EDGE INDEXES` 语句仅返回 `Names`。 + {{nebula.name}} 2.0.1 中, `SHOW TAG/EDGE INDEXES` 语句仅返回 `Names`。 diff --git a/docs-2.0/3.ngql-guide/8.clauses-and-options/limit.md b/docs-2.0/3.ngql-guide/8.clauses-and-options/limit.md index 571ab8ef3ef..235a6393d47 100644 --- a/docs-2.0/3.ngql-guide/8.clauses-and-options/limit.md +++ b/docs-2.0/3.ngql-guide/8.clauses-and-options/limit.md @@ -179,5 +179,5 @@ nebula> MATCH (v:player{name:"Tim Duncan"}) --> (v2) \ diff --git a/docs-2.0/3.ngql-guide/8.clauses-and-options/ttl-options.md b/docs-2.0/3.ngql-guide/8.clauses-and-options/ttl-options.md index 619c0fc89ee..10f4662c606 100644 --- a/docs-2.0/3.ngql-guide/8.clauses-and-options/ttl-options.md +++ b/docs-2.0/3.ngql-guide/8.clauses-and-options/ttl-options.md @@ -54,7 +54,7 @@ nGQL 支持的 TTL 选项如下。 属性过期后,对应的过期数据仍然存储在硬盘上,但是查询时会过滤过期数据。 -NebulaGraph 自动删除过期数据后,会在下一次 [Compaction](../../8.service-tuning/compaction.md) 过程中回收硬盘空间。 +{{nebula.name}}自动删除过期数据后,会在下一次 [Compaction](../../8.service-tuning/compaction.md) 过程中回收硬盘空间。 !!! Note diff --git a/docs-2.0/3.ngql-guide/9.space-statements/1.create-space.md b/docs-2.0/3.ngql-guide/9.space-statements/1.create-space.md index 76e66aac572..49924beb298 100644 --- a/docs-2.0/3.ngql-guide/9.space-statements/1.create-space.md +++ b/docs-2.0/3.ngql-guide/9.space-statements/1.create-space.md @@ -1,6 +1,6 @@ # CREATE SPACE -图空间是 NebulaGraph 中彼此隔离的图数据集合,与 MySQL 中的 database 概念类似。`CREATE SPACE`语句可以创建一个新的图空间,或者克隆现有图空间的 Schema。 +图空间是{{nebula.name}}中彼此隔离的图数据集合,与 MySQL 中的 database 概念类似。`CREATE SPACE`语句可以创建一个新的图空间,或者克隆现有图空间的 Schema。 ## 前提条件 @@ -22,7 +22,7 @@ CREATE SPACE [IF NOT EXISTS] ( |参数|说明| |:---|:---| |`IF NOT EXISTS`|检测待创建的图空间是否存在,只有不存在时,才会创建图空间。仅检测图空间的名称,不会检测具体属性。| -|``|1、在 NebulaGraph 实例中唯一标识一个图空间。
2、图空间名称设置后无法被修改。
3、不能以数字开头;支持 1~4 字节的 UTF-8 编码字符,包括英文字母(区分大小写)、数字、中文等,但是不包括除下划线外的特殊字符;使用特殊字符、保留关键字或数字开头时,需要用反引号(\`)包围且不能使用英文句号(`.`)。详情参见[关键字和保留字](../../3.ngql-guide/1.nGQL-overview/keywords-and-reserved-words.md)。
**注意**:如果以中文为图空间命名,报`SyntaxError`错误时,需使用反引号(\`)包围中文字符。| +|``|1、在{{nebula.name}}实例中唯一标识一个图空间。
2、图空间名称设置后无法被修改。
3、不能以数字开头;支持 1~4 字节的 UTF-8 编码字符,包括英文字母(区分大小写)、数字、中文等,但是不包括除下划线外的特殊字符;使用特殊字符、保留关键字或数字开头时,需要用反引号(\`)包围且不能使用英文句号(`.`)。详情参见[关键字和保留字](../../3.ngql-guide/1.nGQL-overview/keywords-and-reserved-words.md)。
**注意**:如果以中文为图空间命名,报`SyntaxError`错误时,需使用反引号(\`)包围中文字符。| |`partition_num`|指定图空间的分片数量。建议设置为集群中硬盘数量的 20 倍(HDD 硬盘建议为 2 倍)。例如集群中有 3 个硬盘,建议设置 60 个分片。默认值为 100。| |`replica_factor`|指定每个分片的副本数量。建议在生产环境中设置为 3,在测试环境中设置为 1。由于需要基于多数表决,副本数量必须是**奇数**。默认值为 1。| |`vid_type`|必选参数。指定点 ID 的数据类型。可选值为`FIXED_STRING()`和`INT64`。`INT`等同于`INT64`。
`FIXED_STRING()`表示数据类型为定长字符串,长度为`N`字节,超出长度会报错。例如,UTF-8中,一个中文字符的长度为三个字节,如果设置`N`为 12,那么`vid_type`为最多 4 个中文字符。
`INT64`表示数据类型为整数。| @@ -34,11 +34,11 @@ CREATE SPACE [IF NOT EXISTS] ( !!! caution - - 如果将副本数设置为 1,用户将无法使用 [BALANCE](../../8.service-tuning/load-balance.md) 命令为 NebulaGraph 的存储服务平衡负载或扩容。 + - 如果将副本数设置为 1,用户将无法使用 [BALANCE](../../8.service-tuning/load-balance.md) 命令为{{nebula.name}}的存储服务平衡负载或扩容。 - VID 类型变更与长度限制: - - 在 NebulaGraph 1.x 中,VID 的类型只能为`INT64`,不支持字符型;在 NebulaGraph 2.x 中,VID 的类型支持`INT64`和`FIXED_STRING()`。请在创建图空间时指定 VID 类型,使用`INSERT`语句时也需要保持一致,否则会报错 VID 类型不匹配`Wrong vertex id type: 1001`。 + - 在{{nebula.name}} 1.x 中,VID 的类型只能为`INT64`,不支持字符型;在{{nebula.name}} 2.x 中,VID 的类型支持`INT64`和`FIXED_STRING()`。请在创建图空间时指定 VID 类型,使用`INSERT`语句时也需要保持一致,否则会报错 VID 类型不匹配`Wrong vertex id type: 1001`。 - VID 最大长度必须为`N`,不可任意长度;超过该长度也会报错`The VID must be a 64-bit integer or a string fitting space vertex id length limit.`。 diff --git a/docs-2.0/3.ngql-guide/9.space-statements/2.use-space.md b/docs-2.0/3.ngql-guide/9.space-statements/2.use-space.md index 9d2e2be014d..cbdbba56197 100644 --- a/docs-2.0/3.ngql-guide/9.space-statements/2.use-space.md +++ b/docs-2.0/3.ngql-guide/9.space-statements/2.use-space.md @@ -30,4 +30,4 @@ nebula> USE space2; 不能在一条语句中同时操作两个图空间。 - 与 Fabric Cypher 不同,NebulaGraph 的图空间彼此之间是完全隔离的,将一个图空间作为工作空间后,用户无法访问其他空间。使用新图空间的唯一方法是通过`USE`语句切换。而在 Fabric Cypher 中可以在一条语句中 (`USE + CALL`语法)使用两个图空间。 + 与 Fabric Cypher 不同,{{nebula.name}}的图空间彼此之间是完全隔离的,将一个图空间作为工作空间后,用户无法访问其他空间。使用新图空间的唯一方法是通过`USE`语句切换。而在 Fabric Cypher 中可以在一条语句中 (`USE + CALL`语法)使用两个图空间。 diff --git a/docs-2.0/3.ngql-guide/9.space-statements/3.show-spaces.md b/docs-2.0/3.ngql-guide/9.space-statements/3.show-spaces.md index 15ef2c827ca..864680838d6 100644 --- a/docs-2.0/3.ngql-guide/9.space-statements/3.show-spaces.md +++ b/docs-2.0/3.ngql-guide/9.space-statements/3.show-spaces.md @@ -1,6 +1,6 @@ # SHOW SPACES -`SHOW SPACES`语句可以列出 NebulaGraph 示例中的所有图空间。 +`SHOW SPACES`语句可以列出{{nebula.name}}示例中的所有图空间。 ## 语法 diff --git a/docs-2.0/3.ngql-guide/9.space-statements/5.drop-space.md b/docs-2.0/3.ngql-guide/9.space-statements/5.drop-space.md index 4d0b8356719..1b788cb1520 100644 --- a/docs-2.0/3.ngql-guide/9.space-statements/5.drop-space.md +++ b/docs-2.0/3.ngql-guide/9.space-statements/5.drop-space.md @@ -24,7 +24,7 @@ DROP SPACE [IF EXISTS] ; !!! Compatibility "历史版本兼容性" - 在 NebulaGraph 3.1.0 版本前,`DROP SPACE`语句不会删除硬盘上对应图空间的目录和文件。 + 在{{nebula.name}} 3.1.0 版本前,`DROP SPACE`语句不会删除硬盘上对应图空间的目录和文件。 !!! caution @@ -36,4 +36,4 @@ DROP SPACE [IF EXISTS] ; 问:执行`DROP SPACE`语句删除图空间后,为什么磁盘的大小没变化? -答:如果使用 3.1.0 之前版本的 NebulaGraph, `DROP SPACE`语句仅删除指定的逻辑图空间,不会删除硬盘上对应图空间的目录和文件。如需删除硬盘上的数据,需手动删除相应文件的路径,文件路径为`/data/storage/nebula/`。其中``可以通过`DESCRIBE SPACE {space_name}`查看。 +答:如果使用 3.1.0 之前版本的{{nebula.name}}, `DROP SPACE`语句仅删除指定的逻辑图空间,不会删除硬盘上对应图空间的目录和文件。如需删除硬盘上的数据,需手动删除相应文件的路径,文件路径为`/data/storage/nebula/`。其中``可以通过`DESCRIBE SPACE {space_name}`查看。 diff --git a/docs-2.0/3.ngql-guide/9.space-statements/6.clear-space.md b/docs-2.0/3.ngql-guide/9.space-statements/6.clear-space.md index 3e4d02d45c0..811c06c3a8a 100644 --- a/docs-2.0/3.ngql-guide/9.space-statements/6.clear-space.md +++ b/docs-2.0/3.ngql-guide/9.space-statements/6.clear-space.md @@ -18,15 +18,17 @@ - 图空间中的数据量越大,`CLEAR SPACE`消耗的时间越长。如果`CLEAR SPACE`的执行因客户端连接超时而失败,可以增大 [Graph 服务配置](../../5.configurations-and-logs/1.configurations/3.graph-config.md)中`storage_client_timeout_ms`参数的值。 - 在`CLEAR SPACE`的执行过程中,向该图空间写入数据的行为不会被自动禁止。这样的写入行为可能导致`CLEAR SPACE`清除数据不完全,残留的数据也可能受到损坏。 +{{ comm.comm_begin }} !!! note - 社区版 NebulaGraph 不支持在运行`CLEAR SPACE`的同时禁止写入。 + {{nebula.name}} 不支持在运行`CLEAR SPACE`的同时禁止写入。 +{{ comm.comm_end }} {{ ent.ent_begin }} !!! enterpriseonly - 企业版 NebulaGraph 支持先运行`SET VARIABLE read_only=true`阻止向 NebulaGraph 写入数据,再运行`CLEAR SPACE`。数据清除成功后运行`SET VARIABLE read_only=false`即可重新允许写入。 + 企业版{{nebula.name}}支持先运行`SET VARIABLE read_only=true`阻止向{{nebula.name}}写入数据,再运行`CLEAR SPACE`。数据清除成功后运行`SET VARIABLE read_only=false`即可重新允许写入。 {{ ent.ent_end }} diff --git a/docs-2.0/4.deployment-and-installation/1.resource-preparations.md b/docs-2.0/4.deployment-and-installation/1.resource-preparations.md index 6d47f5d05a3..158ab4519fb 100644 --- a/docs-2.0/4.deployment-and-installation/1.resource-preparations.md +++ b/docs-2.0/4.deployment-and-installation/1.resource-preparations.md @@ -1,10 +1,10 @@ -# 准备编译、安装和运行 NebulaGraph 的环境 +# 准备编译、安装和运行{{nebula.name}}的环境 -本文介绍编译、安装 NebulaGraph 的要求和建议,以及如何预估集群运行所需的资源。 +本文介绍编译、安装{{nebula.name}}的要求和建议,以及如何预估集群运行所需的资源。 ## 关于存储硬件 -NebulaGraph 是针对 NVMe SSD 进行设计和实现的,所有默认参数都是基于 SSD 设备进行调优,要求极高的 IOPS 和极低的 Latency。 +{{nebula.name}}是针对 NVMe SSD 进行设计和实现的,所有默认参数都是基于 SSD 设备进行调优,要求极高的 IOPS 和极低的 Latency。 - 不建议使用 HDD;因为其 IOPS 性能差,随机寻道延迟高;会遇到大量问题。 @@ -25,7 +25,7 @@ NebulaGraph 是针对 NVMe SSD 进行设计和实现的,所有默认参数都 !!! note - 从 3.0.2 开始,NebulaGraph 在 Docker Hub 上的 Docker 支持 ARM64 架构。社区用户可以在 ARM macOS 的 Docker Desktop 上或者 ARM Linux Server 上运行容器化的 NebulaGraph。 + 从 3.0.2 开始,{{nebula.name}}在 Docker Hub 上的 Docker 支持 ARM64 架构。社区用户可以在 ARM macOS 的 Docker Desktop 上或者 ARM Linux Server 上运行容器化的{{nebula.name}}。 ## 编译源码要求 @@ -39,11 +39,11 @@ NebulaGraph 是针对 NVMe SSD 进行设计和实现的,所有默认参数都 ### 操作系统要求 -当前仅支持在 Linux 系统中编译 NebulaGraph,建议使用内核版本为`4.15`及以上版本的 Linux 系统。 +当前仅支持在 Linux 系统中编译{{nebula.name}},建议使用内核版本为`4.15`及以上版本的 Linux 系统。 !!! note - 在内核版本低于要求的 Linux 系统中安装 NebulaGraph 可使用 [RPM、DEB](2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 或者 [TAR](2.compile-and-install-nebula-graph/4.install-nebula-graph-from-tar.md) 文件。 + 在内核版本低于要求的 Linux 系统中安装{{nebula.name}}可使用 [RPM、DEB](2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 或者 [TAR](2.compile-and-install-nebula-graph/4.install-nebula-graph-from-tar.md) 文件。 ### 软件要求 @@ -161,7 +161,7 @@ NebulaGraph 是针对 NVMe SSD 进行设计和实现的,所有默认参数都 ### 操作系统要求 -当前仅支持在 Linux 系统中安装 NebulaGraph,建议在测试环境中使用内核版本为`3.9`及以上版本的 Linux 系统。 +当前仅支持在 Linux 系统中安装{{nebula.name}},建议在测试环境中使用内核版本为`3.9`及以上版本的 Linux 系统。 ### 服务架构建议 @@ -173,7 +173,7 @@ NebulaGraph 是针对 NVMe SSD 进行设计和实现的,所有默认参数都 例如单机测试环境,用户可以在机器上部署 1 个 metad、1 个 storaged 和 1 个 graphd 进程。 -对于更常见的测试环境,例如三台机器构成的集群,用户可以按照如下方案部署 NebulaGraph。 +对于更常见的测试环境,例如三台机器构成的集群,用户可以按照如下方案部署{{nebula.name}}。 | 机器名称 | metad 进程数量 | storaged 进程数量 | graphd 进程数量 | | ------------ | --------------- | ------------------ | ---------------- | @@ -194,9 +194,9 @@ NebulaGraph 是针对 NVMe SSD 进行设计和实现的,所有默认参数都 ### 操作系统要求 -当前仅支持在 Linux 系统中安装 NebulaGraph,建议在生产环境中使用内核版本为`3.9`及以上版本的 Linux 系统。 +当前仅支持在 Linux 系统中安装{{nebula.name}},建议在生产环境中使用内核版本为`3.9`及以上版本的 Linux 系统。 -用户可以通过调整一些内核参数来提高 NebulaGraph 性能,详情请参见[内核配置](../5.configurations-and-logs/1.configurations/6.kernel-config.md)。 +用户可以通过调整一些内核参数来提高{{nebula.name}}性能,详情请参见[内核配置](../5.configurations-and-logs/1.configurations/6.kernel-config.md)。 ### 服务架构建议 @@ -214,7 +214,7 @@ NebulaGraph 是针对 NVMe SSD 进行设计和实现的,所有默认参数都 storaged 进程的数量不会影响图空间副本的数量。 -用户可以在一台机器上部署多个不同进程,例如五台机器构成的集群,用户可以按照如下方案部署 NebulaGraph。 +用户可以在一台机器上部署多个不同进程,例如五台机器构成的集群,用户可以按照如下方案部署{{nebula.name}}。 | 机器名称 | metad 进程数量 | storaged 进程数量 | graphd 进程数量 | | ------------ | --------------- | ------------------ | ---------------- | @@ -224,9 +224,9 @@ storaged 进程的数量不会影响图空间副本的数量。 | D | - | 1 | 1 | | E | - | 1 | 1 | -## NebulaGraph 资源要求 +## {{nebula.name}}资源要求 -用户可以预估一个 3 副本 NebulaGraph 集群所需的内存、硬盘空间和分区数量。 +用户可以预估一个 3 副本{{nebula.name}}集群所需的内存、硬盘空间和分区数量。 | 资源 |单位 | 计算公式 |说明| |:--- |:---|:--- |:---| @@ -244,7 +244,7 @@ storaged 进程的数量不会影响图空间副本的数量。 - 问题 3:如何获取 RocksDB 实例数量? - 答:对于社区版 NebulaGraph,每个图空间对应一个 RocksDB 实例,并且`--data_path`选项(`etc`目录下的`nebula-storaged.conf`文件中)中的每个目录对应一个 RocksDB 实例。即,RocksDB 实例数量 = 图空间总数 * 目录总数。对于企业版 NebulaGraph,一个分区对应一个 RocksDB 实例。 + 答:对于社区版{{nebula.name}},每个图空间对应一个 RocksDB 实例,并且`--data_path`选项(`etc`目录下的`nebula-storaged.conf`文件中)中的每个目录对应一个 RocksDB 实例。即,RocksDB 实例数量 = 图空间总数 * 目录总数。对于企业版{{nebula.name}},一个分区对应一个 RocksDB 实例。 !!! Note diff --git a/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/1.install-nebula-graph-by-compiling-the-source-code.md b/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/1.install-nebula-graph-by-compiling-the-source-code.md index 8691d4a3033..642968a7a7b 100644 --- a/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/1.install-nebula-graph-by-compiling-the-source-code.md +++ b/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/1.install-nebula-graph-by-compiling-the-source-code.md @@ -1,6 +1,6 @@ -# 使用源码安装 NebulaGraph +# 使用源码安装{{nebula.name}} -使用源码安装 NebulaGraph 允许自定义编译和安装设置,并测试最新特性。 +使用源码安装{{nebula.name}}允许自定义编译和安装设置,并测试最新特性。 ## 前提条件 @@ -8,15 +8,15 @@ !!! note - 暂不支持离线编译 NebulaGraph。 + 暂不支持离线编译{{nebula.name}}。 -- 待安装 NebulaGraph 的主机可以访问互联网。 +- 待安装{{nebula.name}}的主机可以访问互联网。 ## 安装步骤 -1. 克隆 NebulaGraph 的源代码到主机。 +1. 克隆{{nebula.name}}的源代码到主机。 - - [推荐] 如果需要安装{{nebula.release}}版本的 NebulaGraph,执行如下命令: + - [推荐] 如果需要安装{{nebula.release}}版本的{{nebula.name}},执行如下命令: ```bash $ git clone --branch {{nebula.branch}} https://github.com/vesoft-inc/nebula.git @@ -28,7 +28,7 @@ $ git clone https://github.com/vesoft-inc/nebula.git ``` -2. 进入`nebula/third-party`目录,安装 NebulaGraph 依赖的第三方库。 +2. 进入`nebula/third-party`目录,安装{{nebula.name}}依赖的第三方库。 ```bash $ cd nebula/third-party @@ -54,7 +54,7 @@ $ cmake -DCMAKE_INSTALL_PREFIX=/usr/local/nebula -DENABLE_TESTING=OFF -DCMAKE_BUILD_TYPE=Release .. ``` -5. 编译 NebulaGraph。 +5. 编译{{nebula.name}}。 !!! Note @@ -66,7 +66,7 @@ $ make -j{N} # E.g., make -j2 ``` -6. 安装 NebulaGraph。 +6. 安装{{nebula.name}}。 ```bash $ sudo make install @@ -76,7 +76,7 @@ ## 更新 master 版本 -master 分支的代码更新速度快,如果安装了 master 分支对应的开发版 NebulaGraph,可根据以下步骤更新版本。 +master 分支的代码更新速度快,如果安装了 master 分支对应的开发版{{nebula.name}},可根据以下步骤更新版本。 1. 在目录`nebula`中,执行命令`git pull upstream master`更新源码。 @@ -88,7 +88,7 @@ master 分支的代码更新速度快,如果安装了 master 分支对应的 - (企业版)[设置 License](../deploy-license.md) {{ ent.ent_end }} -- [管理 NebulaGraph 服务](../../2.quick-start/3.quick-start-on-premise/5.start-stop-service.md) +- [管理{{nebula.name}}服务](../../2.quick-start/3.quick-start-on-premise/5.start-stop-service.md) ## CMake 参数 @@ -102,7 +102,7 @@ $ cmake -D= ... ### CMAKE_INSTALL_PREFIX -`CMAKE_INSTALL_PREFIX`指定 NebulaGraph 服务模块、脚本和配置文件的安装路径,默认路径为`/usr/local/nebula`。 +`CMAKE_INSTALL_PREFIX`指定{{nebula.name}}服务模块、脚本和配置文件的安装路径,默认路径为`/usr/local/nebula`。 ### ENABLE_WERROR @@ -110,15 +110,15 @@ $ cmake -D= ... ### ENABLE_TESTING -默认值为`ON`,表示单元测试服务由 NebulaGraph 服务构建。如果只需要服务模块,可以设置为`OFF`。 +默认值为`ON`,表示单元测试服务由{{nebula.name}}服务构建。如果只需要服务模块,可以设置为`OFF`。 ### ENABLE_ASAN -默认值为`OFF`,表示关闭内存问题检测工具 ASan(AddressSanitizer)。该工具是为 NebulaGraph 开发者准备的,如果需要开启,可以设置为`ON`。 +默认值为`OFF`,表示关闭内存问题检测工具 ASan(AddressSanitizer)。该工具是为{{nebula.name}}开发者准备的,如果需要开启,可以设置为`ON`。 ### CMAKE_BUILD_TYPE -`CMAKE_BUILD_TYPE`控制 NebulaGraph 的 build 方法,取值说明如下: +`CMAKE_BUILD_TYPE`控制{{nebula.name}}的 build 方法,取值说明如下: - `Debug` diff --git a/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md b/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md index 0a05af235b6..590ec286828 100644 --- a/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md +++ b/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md @@ -1,4 +1,4 @@ -# 使用 RPM 或 DEB 包安装 NebulaGraph +# 使用 RPM 或 DEB 包安装{{nebula.name}} {% include "/source_install-nebula-graph-by-rpm-or-deb.md" %} diff --git a/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md b/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md index a732d5ee01e..9a6aa67cb7b 100644 --- a/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md +++ b/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md @@ -1,6 +1,6 @@ -# 使用 Docker Compose 部署 NebulaGraph +# 使用 Docker Compose 部署{{nebula.name}} -使用 Docker Compose 可以基于准备好的配置文件快速部署 NebulaGraph 服务,仅建议在测试 NebulaGraph 功能时使用该方式。 +使用 Docker Compose 可以基于准备好的配置文件快速部署{{nebula.name}}服务,仅建议在测试{{nebula.name}}功能时使用该方式。 ## 前提条件 @@ -12,13 +12,13 @@ |Docker Compose|最新版本|[Install Docker Compose](https://docs.docker.com/compose/install/)| |Git|最新版本|[Download Git](https://git-scm.com/download/)| -- 如果使用非 root 用户部署 NebulaGraph,请授权该用户 Docker 相关的权限。详细信息,请参见 [Manage Docker as a non-root user](https://docs.docker.com/engine/install/linux-postinstall/#manage-docker-as-a-non-root-user)。 +- 如果使用非 root 用户部署{{nebula.name}},请授权该用户 Docker 相关的权限。详细信息,请参见 [Manage Docker as a non-root user](https://docs.docker.com/engine/install/linux-postinstall/#manage-docker-as-a-non-root-user)。 - 启动主机上的 Docker 服务。 -- 如果已经通过 Docker Compose 在主机上部署了另一个版本的 NebulaGraph,为避免兼容性问题,需要删除目录`nebula-docker-compose/data`。 +- 如果已经通过 Docker Compose 在主机上部署了另一个版本的{{nebula.name}},为避免兼容性问题,需要删除目录`nebula-docker-compose/data`。 -## 部署 NebulaGraph +## 部署{{nebula.name}} 1. 通过 Git 克隆`nebula-docker-compose`仓库的`{{dockercompose.release}}`分支到主机。 @@ -40,11 +40,11 @@ $ cd nebula-docker-compose/ ``` -3. 执行如下命令启动 NebulaGraph 服务。 +3. 执行如下命令启动{{nebula.name}}服务。 !!! note - - 如果长期未内核更新镜像,请先更新 [NebulaGraph 镜像](#nebulagraph_docker)和 [NebulaGraph Console 镜像](#nebulagraph_console)。 + - 如果长期未内核更新镜像,请先更新 [{{nebula.name}}镜像](#nebulagraph_docker)和 [NebulaGraph Console 镜像](#nebulagraph_console)。 - 执行命令后的返回结果因安装目录不同而不同。 ```bash @@ -68,11 +68,11 @@ 上述服务的更多信息,请参见[架构总览](../../1.introduction/3.nebula-graph-architecture/1.architecture-overview.md)。 -## 连接 NebulaGraph +## 连接{{nebula.name}} -连接 NebulaGraph 有两种方式: +连接{{nebula.name}}有两种方式: -- 在容器外通过 Nebula Console 连接。因为容器的配置文件中将 Graph 服务的外部映射端口也固定为 9669,因此可以直接通过默认端口连接。详情参见[连接 NebulaGraph](../../2.quick-start/3.quick-start-on-premise/3.connect-to-nebula-graph.md)。 +- 在容器外通过 Nebula Console 连接。因为容器的配置文件中将 Graph 服务的外部映射端口也固定为 9669,因此可以直接通过默认端口连接。详情参见[连接{{nebula.name}}](../../2.quick-start/3.quick-start-on-premise/3.connect-to-nebula-graph.md)。 - 登录安装了 NebulaGraph Console 的容器,然后再连接 Graph 服务。本小节介绍这种方式。 @@ -94,7 +94,7 @@ / # ``` -3. 通过 NebulaGraph Console 连接 NebulaGraph。 +3. 通过 NebulaGraph Console 连接{{nebula.name}}。 ```bash / # ./usr/local/bin/nebula-console -u -p --address=graphd --port=9669 @@ -119,12 +119,12 @@ 执行两次`exit`可以退出容器。 -## 查看 NebulaGraph 服务的状态和端口 +## 查看{{nebula.name}}服务的状态和端口 -执行命令`docker-compose ps`可以列出 NebulaGraph 服务的状态和端口。 +执行命令`docker-compose ps`可以列出{{nebula.name}}服务的状态和端口。 !!! note - NebulaGraph 默认使用`9669`端口为客户端提供服务,如果需要修改端口,请修改目录`nebula-docker-compose`内的文件`docker-compose.yaml`,然后重启 NebulaGraph 服务。 + {{nebula.name}}默认使用`9669`端口为客户端提供服务,如果需要修改端口,请修改目录`nebula-docker-compose`内的文件`docker-compose.yaml`,然后重启{{nebula.name}}服务。 ```bash $ docker-compose ps @@ -166,9 +166,9 @@ a74054c6ae25 vesoft/nebula-graphd:nightly "/usr/local/nebula/b…" 36 mi [root@2a6c56c405f5 nebula]# ``` -## 查看 NebulaGraph 服务的数据和日志 +## 查看{{nebula.name}}服务的数据和日志 -NebulaGraph 的所有数据和日志都持久化存储在`nebula-docker-compose/data`和`nebula-docker-compose/logs`目录中。 +{{nebula.name}}的所有数据和日志都持久化存储在`nebula-docker-compose/data`和`nebula-docker-compose/logs`目录中。 目录的结构如下: @@ -194,9 +194,9 @@ nebula-docker-compose/ └── storage2 ``` -## 停止 NebulaGraph 服务 +## 停止{{nebula.name}}服务 -用户可以执行如下命令停止 NebulaGraph 服务: +用户可以执行如下命令停止{{nebula.name}}服务: ```bash $ docker-compose down @@ -234,7 +234,7 @@ Removing network nebuladockercompose_nebula-net ## 修改配置 -Docker Compose 部署的 NebulaGraph,配置文件位置为`nebula-docker-compose/docker-compose.yaml`,修改该文件内的配置并重启服务即可使新配置生效。 +Docker Compose 部署的{{nebula.name}},配置文件位置为`nebula-docker-compose/docker-compose.yaml`,修改该文件内的配置并重启服务即可使新配置生效。 具体的配置说明请参见[配置管理](../../5.configurations-and-logs/1.configurations/1.configurations.md)。 @@ -256,15 +256,15 @@ graphd: `9669:9669`表示内部的 9669 映射到外部的端口也是 9669,下方的`19669`表示内部的 19669 映射到外部的端口是随机的。 -### 如何升级/更新 NebulaGraph 服务的 Docker 镜像? +### 如何升级/更新{{nebula.name}}服务的 Docker 镜像? 1. 在文件`nebula-docker-compose/docker-compose.yaml`中,找到所有服务的`image`并修改其值为相应的镜像版本。 2. 在目录`nebula-docker-compose`内执行命令`docker-compose pull`,更新 Graph 服务、Storage 服务、Meta 服务和 NebulaGraph Console 的镜像。 -3. 执行命令`docker-compose up -d`启动 NebulaGraph 服务。 +3. 执行命令`docker-compose up -d`启动{{nebula.name}}服务。 -4. 通过 NebulaGraph Console 连接 NebulaGraph 后,分别执行命令`SHOW HOSTS GRAPH`、`SHOW HOSTS STORAGE`、`SHOW HOSTS META`查看各服务版本。 +4. 通过 NebulaGraph Console 连接{{nebula.name}}后,分别执行命令`SHOW HOSTS GRAPH`、`SHOW HOSTS STORAGE`、`SHOW HOSTS META`查看各服务版本。 ### 执行命令`docker-compose pull`报错`ERROR: toomanyrequests` @@ -276,14 +276,14 @@ graphd: ### 如何更新 NebulaGraph Console? -`docker-compose pull`会同时更新 NebulaGraph 服务和 NebulaGraph Console。 +`docker-compose pull`会同时更新{{nebula.name}}服务和 NebulaGraph Console。 diff --git a/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/4.install-nebula-graph-from-tar.md b/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/4.install-nebula-graph-from-tar.md index 98bd15e6fe6..ef0a51e645e 100644 --- a/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/4.install-nebula-graph-from-tar.md +++ b/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/4.install-nebula-graph-from-tar.md @@ -1,19 +1,19 @@ -# 使用 tar.gz 文件安装 NebulaGraph +# 使用 tar.gz 文件安装{{nebula.name}} -用户可以下载打包好的 tar.gz 文件快速安装 NebulaGraph。 +用户可以下载打包好的 tar.gz 文件快速安装{{nebula.name}}。 !!! note - - NebulaGraph 从 2.6.0 版本起提供 tar.gz 文件。 + - {{nebula.name}}从 2.6.0 版本起提供 tar.gz 文件。 - - 当前仅支持在 Linux 系统下安装 NebulaGraph,且仅支持 CentOS 7.x、CentOS 8.x、Ubuntu 16.04、Ubuntu 18.04、Ubuntu 20.04 操作系统。 + - 当前仅支持在 Linux 系统下安装{{nebula.name}},且仅支持 CentOS 7.x、CentOS 8.x、Ubuntu 16.04、Ubuntu 18.04、Ubuntu 20.04 操作系统。 - - 如果用户使用的是国产化的 Linux 操作系统,请[安装企业版 NebulaGraph](https://www.nebula-graph.com.cn/contact)。 + - 如果用户使用的是国产化的 Linux 操作系统,请[安装{{nebula.name}}](https://www.nebula-graph.com.cn/contact)。 ## 操作步骤 -1. 使用如下地址下载 NebulaGraph 的 tar.gz 文件。 +1. 使用如下地址下载{{nebula.name}}的 tar.gz 文件。 下载前需将``替换为需要下载的版本。 @@ -44,13 +44,13 @@ https://oss-cdn.nebula-graph.com.cn/package//nebula-graph-.ubuntu2004.amd64.tar.gz.sha256sum.txt ``` - 例如,要下载适用于`CentOS 7.5`的 NebulaGraph {{nebula.branch}} tar.gz 文件,运行以下命令: + 例如,要下载适用于`CentOS 7.5`的{{nebula.name}} {{nebula.branch}} tar.gz 文件,运行以下命令: ```bash wget https://oss-cdn.nebula-graph.com.cn/package/{{nebula.release}}/nebula-graph-{{nebula.release}}.el7.x86_64.tar.gz ``` -2. 解压 tar.gz 文件到 NebulaGraph 安装目录。 +2. 解压 tar.gz 文件到{{nebula.name}}安装目录。 ```bash tar -xvzf -C @@ -67,15 +67,15 @@ 3. 修改配置文件名以应用配置。 - 进入解压出的目录,将子目录`etc`中的文件`nebula-graphd.conf.default`、`nebula-metad.conf.default`和`nebula-storaged.conf.default`重命名,删除`.default`,即可应用 NebulaGraph 的默认配置。如需修改配置,参见[配置管理](../../5.configurations-and-logs/1.configurations/1.configurations.md)。 + 进入解压出的目录,将子目录`etc`中的文件`nebula-graphd.conf.default`、`nebula-metad.conf.default`和`nebula-storaged.conf.default`重命名,删除`.default`,即可应用{{nebula.name}}的默认配置。如需修改配置,参见[配置管理](../../5.configurations-and-logs/1.configurations/1.configurations.md)。 -至此,NebulaGraph 安装完毕。 +至此,{{nebula.name}}安装完毕。 ## 下一步 {{ ent.ent_begin }} -- (企业版)[设置 License](../deploy-license.md) +- [设置 License](../deploy-license.md) {{ ent.ent_end }} -- [管理 NebulaGraph 服务](../manage-service.md) +- [管理{{nebula.name}}服务](../manage-service.md) diff --git a/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/6.deploy-nebula-graph-with-peripherals.md b/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/6.deploy-nebula-graph-with-peripherals.md index f882cbdb688..d686d9db9a6 100644 --- a/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/6.deploy-nebula-graph-with-peripherals.md +++ b/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/6.deploy-nebula-graph-with-peripherals.md @@ -1,9 +1,9 @@ -# 使用生态工具安装 NebulaGraph +# 使用生态工具安装{{nebula.name}} -用户可以使用以下生态工具安装 NebulaGraph: +用户可以使用以下生态工具安装{{nebula.name}}: {{ ent.ent_begin }} -- 企业版 NebulaGraph Dashboard +- {{dashboard_ent.name} {{ ent.ent_end }} @@ -12,15 +12,15 @@ ## 安装详情 {{ ent.ent_begin }} -- 使用**企业版 NebulaGraph Dashboard** 安装 NebulaGraph 的详情,参见[创建集群](../../nebula-dashboard-ent/3.create-import-dashboard/1.create-cluster.md)。 +- 使用**{{dashboard_ent.name}** 安装{{nebula.name}}的详情,参见[创建集群](../../nebula-dashboard-ent/3.create-import-dashboard/1.create-cluster.md)。 {{ ent.ent_end }} -- 使用 **NebulaGraph Operator** 安装 NebulaGraph 的详情,参见[使用 Kubectl 部署 NebulaGraph 集群](../../nebula-operator/3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md) 或 [使用 Helm 部署 NebulaGraph 集群](../../nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 +- 使用 **NebulaGraph Operator** 安装{{nebula.name}}的详情,参见[使用 Kubectl 部署{{nebula.name}}集群](../../nebula-operator/3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md) 或 [使用 Helm 部署{{nebula.name}}集群](../../nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 {{ ent.ent_begin }} !!! note - 联系销售([inqury@vesoft.com](mailto:inqury@vesoft.com))获取企业版 NebulaGraph 的安装包。 + 联系销售([inqury@vesoft.com](mailto:inqury@vesoft.com))获取{{nebula.name}}的安装包。 {{ ent.ent_end }} \ No newline at end of file diff --git a/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/deploy-nebula-graph-cluster.md b/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/deploy-nebula-graph-cluster.md index 5ec9dfd6a80..10d2c749a0b 100644 --- a/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/deploy-nebula-graph-cluster.md +++ b/docs-2.0/4.deployment-and-installation/2.compile-and-install-nebula-graph/deploy-nebula-graph-cluster.md @@ -1,10 +1,10 @@ -# 使用 RPM/DEB 包部署 NebulaGraph 多机集群 +# 使用 RPM/DEB 包部署{{nebula.name}}多机集群 本文介绍通过 RPM 或 DEB 文件部署集群的示例。 !!! note - 用户还可以通过官方工具部署 NebulaGraph 多机集群。详情参见[使用生态工具安装集群](6.deploy-nebula-graph-with-peripherals.md)。 + 用户还可以通过官方工具部署{{nebula.name}}多机集群。详情参见[使用生态工具安装集群](6.deploy-nebula-graph-with-peripherals.md)。 ## 部署方案 @@ -23,25 +23,25 @@ ## 手动部署流程 -### 安装 NebulaGraph +### 安装{{nebula.name}} -在集群的每一台服务器上都安装 NebulaGraph,安装后暂不需要启动服务。安装方式请参见: +在集群的每一台服务器上都安装{{nebula.name}},安装后暂不需要启动服务。安装方式请参见: -- [使用 RPM 或 DEB 包安装 NebulaGraph](2.install-nebula-graph-by-rpm-or-deb.md) +- [使用 RPM 或 DEB 包安装{{nebula.name}}](2.install-nebula-graph-by-rpm-or-deb.md) -- [使用源码安装 NebulaGraph](1.install-nebula-graph-by-compiling-the-source-code.md) +- [使用源码安装{{nebula.name}}](1.install-nebula-graph-by-compiling-the-source-code.md) {{ ent.ent_begin }} -### (企业版)设置 License。 +### 设置 License。 -如果部署企业版 NebulaGraph,需要设置 License。详情请参见[设置 NebulaGraph 企业版 License](../../4.deployment-and-installation/deploy-license.md)。 +如果部署{{nebula.name}},需要设置 License。详情请参见[设置{{nebula.name}} License](../../4.deployment-and-installation/deploy-license.md)。 {{ ent.ent_end }} ### 修改配置文件 -修改每个服务器上的 NebulaGraph 配置文件。 +修改每个服务器上的{{nebula.name}}配置文件。 -NebulaGraph 的所有配置文件均位于安装目录的`etc`目录内,包括`nebula-graphd.conf`、`nebula-metad.conf`和`nebula-storaged.conf`,用户可以只修改所需服务的配置文件。各个机器需要修改的配置文件如下。 +{{nebula.name}}的所有配置文件均位于安装目录的`etc`目录内,包括`nebula-graphd.conf`、`nebula-metad.conf`和`nebula-storaged.conf`,用户可以只修改所需服务的配置文件。各个机器需要修改的配置文件如下。 | 机器名称 |待修改配置文件 | | :----- |:---------------| @@ -277,7 +277,7 @@ NebulaGraph 的所有配置文件均位于安装目录的`etc`目录内,包括 | D | graphd、storaged | | E | graphd、storaged | -启动 NebulaGraph 进程的命令如下: +启动{{nebula.name}}进程的命令如下: ```bash sudo /usr/local/nebula/scripts/nebula.service start @@ -289,7 +289,7 @@ sudo /usr/local/nebula/scripts/nebula.service start - 当需都启动 graphd、storaged 和 metad 时,可以用 all 代替。 - - `/usr/local/nebula`是 NebulaGraph 的默认安装路径,如果修改过安装路径,请使用实际路径。更多启停服务的内容,请参见[管理 NebulaGraph 服务](../../2.quick-start/3.quick-start-on-premise/5.start-stop-service.md)。 + - `/usr/local/nebula`是{{nebula.name}}的默认安装路径,如果修改过安装路径,请使用实际路径。更多启停服务的内容,请参见[管理{{nebula.name}}服务](../../2.quick-start/3.quick-start-on-premise/5.start-stop-service.md)。 ### 检查集群 diff --git a/docs-2.0/4.deployment-and-installation/3.upgrade-nebula-graph/_upgrade-nebula-from-300-to-latest.md b/docs-2.0/4.deployment-and-installation/3.upgrade-nebula-graph/_upgrade-nebula-from-300-to-latest.md index eb25c8be89c..273bc4b072d 100644 --- a/docs-2.0/4.deployment-and-installation/3.upgrade-nebula-graph/_upgrade-nebula-from-300-to-latest.md +++ b/docs-2.0/4.deployment-and-installation/3.upgrade-nebula-graph/_upgrade-nebula-from-300-to-latest.md @@ -1,18 +1,18 @@ -# 升级 NebulaGraph v3.x 至 v{{nebula.release}} +# 升级{{nebula.name}} v3.x 至 v{{nebula.release}} -NebulaGraph v3.x 升级至 v{{nebula.release}},只需要使用 v{{nebula.release}}的 RPM/DEB 包进行升级操作即可,或者[编译 v{{nebula.release}}](../2.compile-and-install-nebula-graph/1.install-nebula-graph-by-compiling-the-source-code.md) 之后重新安装。 +{{nebula.name}} v3.x 升级至 v{{nebula.release}},只需要使用 v{{nebula.release}}的 RPM/DEB 包进行升级操作即可,或者[编译 v{{nebula.release}}](../2.compile-and-install-nebula-graph/1.install-nebula-graph-by-compiling-the-source-code.md) 之后重新安装。 !!! caution - 在升级部署了全文索引的 NebulaGraph 前,需要手动删除 Elasticsearch (ES) 中的全文索引。在升级后需要重新使用`SIGN IN`语句登录 ES 并重新创建全文索引。用户可通过 cURL 命令手动删除 ES 中全文索引。命令为`curl -XDELETE -u : ':/'`,例如`curl -XDELETE -u elastic:elastic 'http://192.168.8.223:9200/nebula_index_2534'`。如果 ES 没有设置用户名及密码,则无需指定`-u`选项。 + 在升级部署了全文索引的{{nebula.name}}前,需要手动删除 Elasticsearch (ES) 中的全文索引。在升级后需要重新使用`SIGN IN`语句登录 ES 并重新创建全文索引。用户可通过 cURL 命令手动删除 ES 中全文索引。命令为`curl -XDELETE -u : ':/'`,例如`curl -XDELETE -u elastic:elastic 'http://192.168.8.223:9200/nebula_index_2534'`。如果 ES 没有设置用户名及密码,则无需指定`-u`选项。 ## RPM/DEB 包升级步骤 1. 下载 [RPM/DEB 包](https://www.nebula-graph.com.cn/download)。 -2. 停止所有 NebulaGraph 服务。详情请参见[管理 NebulaGraph 服务](../../2.quick-start/3.quick-start-on-premise/5.start-stop-service.md)。建议更新前备份配置文件。 +2. 停止所有{{nebula.name}}服务。详情请参见[管理{{nebula.name}}服务](../../2.quick-start/3.quick-start-on-premise/5.start-stop-service.md)。建议更新前备份配置文件。 !!! caution @@ -38,13 +38,13 @@ NebulaGraph v3.x 升级至 v{{nebula.release}},只需要使用 v{{nebula.relea $ sudo dpkg -i ``` -4. 在每台服务器上启动所需的服务。详情请参见[管理 NebulaGraph 服务](../../2.quick-start/3.quick-start-on-premise/5.start-stop-service.md#_1)。 +4. 在每台服务器上启动所需的服务。详情请参见[管理{{nebula.name}}服务](../../2.quick-start/3.quick-start-on-premise/5.start-stop-service.md#_1)。 ## 编译新版本源码升级步骤 -1. 备份旧版本的配置文件。配置文件保存在 NebulaGraph 安装路径的`etc`目录内。 +1. 备份旧版本的配置文件。配置文件保存在{{nebula.name}}安装路径的`etc`目录内。 -2. 更新仓库并编译源码。详情请参见[使用源码安装 NebulaGraph](../2.compile-and-install-nebula-graph/1.install-nebula-graph-by-compiling-the-source-code.md)。 +2. 更新仓库并编译源码。详情请参见[使用源码安装{{nebula.name}}](../2.compile-and-install-nebula-graph/1.install-nebula-graph-by-compiling-the-source-code.md)。 !!! note @@ -54,4 +54,4 @@ NebulaGraph v3.x 升级至 v{{nebula.release}},只需要使用 v{{nebula.relea !!! caution - Docker Compose 部署的 NebulaGraph 建议重新部署新版本后导入数据。 + Docker Compose 部署的{{nebula.name}}建议重新部署新版本后导入数据。 diff --git a/docs-2.0/4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-ent-from-3.x-3.4.md b/docs-2.0/4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-ent-from-3.x-3.4.md index 61fb1d09e70..5a7e4acfcba 100644 --- a/docs-2.0/4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-ent-from-3.x-3.4.md +++ b/docs-2.0/4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-ent-from-3.x-3.4.md @@ -1,21 +1,21 @@ -# 升级企业版 NebulaGraph 3.x 至 {{nebula.release}} +# 升级{{nebula.name}} 3.x 至 {{nebula.release}} -本文以企业版 NebulaGraph 3.1.0 为例,介绍如何升级 v3.x 至 v{{nebula.release}}。 +本文以{{nebula.name}} 3.1.0 为例,介绍如何升级 v3.x 至 v{{nebula.release}}。 ## 升级说明 -- 此升级操作仅适用于升级企业版 NebulaGraph 3.x(x < 4)至 {{nebula.release}}。对于升级 3.4.0 及以上版本至 {{nebula.release}},可以直接替换二进制文件进行升级。具体操作请参见[升级 NebulaGraph 至 {{nebula.release}}](https://docs.nebula-graph.com.cn/{{nebula.release}}/4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-graph-to-latest/)。 - +- 此升级操作仅适用于升级{{nebula.name}} 3.x(x < 4)至 {{nebula.release}}。对于升级 3.4.0 及以上版本至 {{nebula.release}},可以直接替换二进制文件进行升级。具体操作请参见[升级{{nebula.name}} 至 {{nebula.release}}](https://docs.nebula-graph.com.cn/{{nebula.release}}/4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-graph-to-latest/)。 + !!! note - 如果您的企业版 NebulaGraph 版本低于 3.0.0,请先升级到企业版 3.1.0 再升级到 {{nebula.release}}。具体操作请参见[升级 NebulaGraph 2.x 至 3.1.0](https://docs.nebula-graph.com.cn/3.1.0/4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-graph-to-latest/)。 + 如果您的{{nebula.name}}版本低于 3.0.0,请先升级到 3.1.0 再升级到 {{nebula.release}}。具体操作请参见[升级{{nebula.name}} 2.x 至 3.1.0](https://docs.nebula-graph.com.cn/3.1.0/4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-graph-to-latest/)。 - 执行升级操作的集群 IP 地址必须与原集群相同。 - 机器硬盘剩余空间至少需为原数据目录的 1.5 倍。 -- 在升级部署了全文索引的 NebulaGraph 前,需要手动删除 Elasticsearch (ES) 中的全文索引。在升级后需要重新使用`SIGN IN`语句登录 ES 并重新创建全文索引。 +- 在升级部署了全文索引的{{nebula.name}}前,需要手动删除 Elasticsearch (ES) 中的全文索引。在升级后需要重新使用`SIGN IN`语句登录 ES 并重新创建全文索引。 !!! note @@ -23,7 +23,7 @@ ## 升级步骤 -1. [联系我们获取](https://www.nebula-graph.com.cn/contact)企业版 NebulaGraph v{{nebula.release}} 的安装包并安装。 +1. [联系我们获取](https://www.nebula-graph.com.cn/contact){{nebula.name}} v{{nebula.release}} 的安装包并安装。 !!! note @@ -33,10 +33,10 @@ 请确保 {{nebula.release}} 集群的 Meta 服务和 Storage 服务的配置文件中的`--data_path`参数设置的存储路径数量与 3.x 集群的配置文件中的`--data_path`参数配置的路径数量相同。否则,升级后的集群无法启动。 -2. 停止企业版 NebulaGraph v3.x 服务。详情请参见[管理 NebulaGraph 服务](../../2.quick-start/3.quick-start-on-premise/5.start-stop-service.md)。 +2. 停止{{nebula.name}} v3.x 服务。详情请参见[管理{{nebula.name}}服务](../../2.quick-start/3.quick-start-on-premise/5.start-stop-service.md)。 运行命令后可继续运行`nebula.service status all`命令以确认所有服务都已停止。 -3. 在企业版 NebulaGraph v{{nebula.release}} 的安装目录下,分别执行以下命令以升级 Storage 和 Meta 服务。 +3. 在{{nebula.name}} v{{nebula.release}} 的安装目录下,分别执行以下命令以升级 Storage 和 Meta 服务。 - 升级 Storage 服务: @@ -91,8 +91,8 @@ 4. 上传 License 文件至 v{{nebula.release}} 的安装目录下的`share/resources`内。 -5. 启动和连接企业版 NebulaGraph v{{nebula.release}} 服务后,验证数据是否正确。参考命令如下: - +5. 启动和连接{{nebula.name}} v{{nebula.release}} 服务后,验证数据是否正确。参考命令如下: + ``` nebula> SHOW HOSTS; nebula> SHOW HOSTS storage; @@ -108,7 +108,7 @@ !!! caution - Docker Compose 部署的 NebulaGraph 建议重新部署新版本后导入数据。 + Docker Compose 部署的{{nebula.name}}建议重新部署新版本后导入数据。 diff --git a/docs-2.0/4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-graph-to-latest.md b/docs-2.0/4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-graph-to-latest.md index dfa24f57ce6..23c3768e970 100644 --- a/docs-2.0/4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-graph-to-latest.md +++ b/docs-2.0/4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-graph-to-latest.md @@ -1,6 +1,6 @@ -# 升级 NebulaGraph 至 {{nebula.release}} 版本 +# 升级{{nebula.name}} 至 {{nebula.release}} 版本 -本文以 NebulaGraph 2.6.1 版本升级到 {{nebula.release}} 版本为例,介绍 NebulaGraph 2.x、3.x 版本升级到 {{nebula.release}} 版本的方法。 +本文以{{nebula.name}} 2.6.1 版本升级到 {{nebula.release}} 版本为例,介绍{{nebula.name}}2.x、3.x 版本升级到 {{nebula.release}} 版本的方法。 !!! caution - 如需从 2.0.0 之前的版本(含 1.x 版本)升级到 {{nebula.release}},还需找到 {{nebula.release}} 版本文件中`share/resources`目录下的`date_time_zonespec.csv`文件,将其复制到 NebulaGraph 安装路径下的相同目录内。也可从 [GitHub](https://github.com/vesoft-inc/nebula/blob/master/resources/date_time_zonespec.csv) 下载该文件。 + 如需从 2.0.0 之前的版本(含 1.x 版本)升级到 {{nebula.release}},还需找到 {{nebula.release}} 版本文件中`share/resources`目录下的`date_time_zonespec.csv`文件,将其复制到{{nebula.name}}安装路径下的相同目录内。也可从 [GitHub](https://github.com/vesoft-inc/nebula/blob/master/resources/date_time_zonespec.csv) 下载该文件。 - 不支持轮转热升级,需完全停止整个集群服务。 @@ -40,13 +40,13 @@ ps:如果2.x(x<5)来做到3.4的升级,升级过程不会报错,因为 - 客户端兼容 - 升级后旧版本客户端将无法连接 NebulaGraph,需将所有客户端都升级到兼容 NebulaGraph {{nebula.release}} 的版本。 + 升级后旧版本客户端将无法连接{{nebula.name}},需将所有客户端都升级到兼容{{nebula.name}} {{nebula.release}} 的版本。 - 配置变化 @@ -64,7 +64,7 @@ ps:如果2.x(x<5)来做到3.4的升级,升级过程不会报错,因为 - 全文索引 - 在升级部署了全文索引的 NebulaGraph 前,需要手动删除 Elasticsearch (ES) 中的全文索引。在升级后需要重新使用`SIGN IN`语句登录 ES 并重新创建全文索引。用户可通过 cURL 命令手动删除 ES 中全文索引。命令为`curl -XDELETE -u : ':/'`,例如`curl -XDELETE -u elastic:elastic 'http://192.168.8.223:9200/nebula_index_2534'`。如果 ES 没有设置用户名及密码,则无需指定`-u`选项。 + 在升级部署了全文索引的{{nebula.name}}前,需要手动删除 Elasticsearch (ES) 中的全文索引。在升级后需要重新使用`SIGN IN`语句登录 ES 并重新创建全文索引。用户可通过 cURL 命令手动删除 ES 中全文索引。命令为`curl -XDELETE -u : ':/'`,例如`curl -XDELETE -u elastic:elastic 'http://192.168.8.223:9200/nebula_index_2534'`。如果 ES 没有设置用户名及密码,则无需指定`-u`选项。 !!! caution @@ -72,7 +72,7 @@ ps:如果2.x(x<5)来做到3.4的升级,升级过程不会报错,因为 ## 升级准备 -- 根据操作系统和架构下载 NebulaGraph {{nebula.release}} 版本的包文件并解压,升级过程中需要其中的二进制文件。下载地址参见 [Download 页面](https://nebula-graph.io/download/)。 +- 根据操作系统和架构下载{{nebula.name}} {{nebula.release}} 版本的包文件并解压,升级过程中需要其中的二进制文件。下载地址参见 [Download 页面](https://nebula-graph.io/download/)。 !!! note @@ -92,13 +92,13 @@ ps:如果2.x(x<5)来做到3.4的升级,升级过程不会报错,因为 ## 升级步骤 -1. 停止所有 NebulaGraph 服务。 +1. 停止所有{{nebula.name}}服务。 ``` /scripts/nebula.service stop all ``` - `nebula_install_path`代表 NebulaGraph 的安装目录。 + `nebula_install_path`代表{{nebula.name}}的安装目录。 `storaged` 进程 flush 数据要等待约 1 分钟。运行命令后可继续运行`nebula.service status all`命令以确认所有服务都已停止。启动和停止服务的详细说明参见[管理服务](../manage-service.md)。 @@ -110,10 +110,10 @@ ps:如果2.x(x<5)来做到3.4的升级,升级过程不会报错,因为 从 3.0.0 开始,支持插入无 Tag 的点。如果用户需要保留无 Tag 的点,在集群内所有 Graph 服务的配置文件(`nebula-graphd.conf`)中新增`--graph_use_vertex_key=true`;在所有 Storage 服务的配置文件(`nebula-storaged.conf`)中新增`--use_vertex_key=true`。 -2. 在**升级准备**中下载的包的目的路径下,用此处`bin`目录中的新版二进制文件替换 NebulaGraph 安装路径下`bin`目录中的旧版二进制文件。 +2. 在**升级准备**中下载的包的目的路径下,用此处`bin`目录中的新版二进制文件替换{{nebula.name}}安装路径下`bin`目录中的旧版二进制文件。 !!! note - 每台部署了 NebulaGraph 服务的机器上都要更新相应服务的二进制文件。 + 每台部署了{{nebula.name}}服务的机器上都要更新相应服务的二进制文件。 3. 编辑所有 Graph 服务的配置文件,修改以下参数以适应新版本的取值范围。如参数值已在规定范围内,忽略该步骤。 @@ -131,7 +131,7 @@ ps:如果2.x(x<5)来做到3.4的升级,升级过程不会报错,因为 启动后,Meta 服务选举 leader。该过程耗时数秒。 - 启动后可以任意启动一个 Graph 服务节点,使用 NebulaGraph 连接该节点并运行[`SHOW HOSTS meta`](../../3.ngql-guide/7.general-query-statements/6.show/6.show-hosts.md)和[`SHOW META LEADER`](../../3.ngql-guide/7.general-query-statements/6.show/19.show-meta-leader.md),如果能够正常返回 Meta 节点的状态,则 Meta 服务启动成功。 + 启动后可以任意启动一个 Graph 服务节点,使用{{nebula.name}}连接该节点并运行[`SHOW HOSTS meta`](../../3.ngql-guide/7.general-query-statements/6.show/6.show-hosts.md)和[`SHOW META LEADER`](../../3.ngql-guide/7.general-query-statements/6.show/19.show-meta-leader.md),如果能够正常返回 Meta 节点的状态,则 Meta 服务启动成功。 !!! note 如果启动异常,放弃本次升级,并在[论坛](https://discuss.nebula-graph.com.cn/)或 [GitHub](https://github.com/vesoft-inc/nebula/issues) 提问。 @@ -142,7 +142,7 @@ ps:如果2.x(x<5)来做到3.4的升级,升级过程不会报错,因为 !!! note 如果启动异常,放弃本次升级,并在[论坛](https://discuss.nebula-graph.com.cn/)或 [GitHub](https://github.com/vesoft-inc/nebula/issues) 提问。 -6. 连接新版 NebulaGraph,验证服务是否可用、数据是否正常。连接方法参见[连接服务](../connect-to-nebula-graph.md)。 +6. 连接新版{{nebula.name}},验证服务是否可用、数据是否正常。连接方法参见[连接服务](../connect-to-nebula-graph.md)。 目前尚无有效方式判断升级是否完全成功,可用于测试的参考命令如下: @@ -213,7 +213,7 @@ ADD HOSTS 192.168.10.100:9779, 192.168.10.101:9779, 192.168.10.102:9779; ### 为什么升级后用`SHOW JOBS`查询到的 Job 的 ID 与升级前一样,但 Job 名称等信息不同了? -NebulaGraph 2.5.0 版本调整了 Job 的定义,详情参见 [Pull request](https://github.com/vesoft-inc/nebula-common/pull/562/files)。如果是从 2.5.0 之前的版本升级,会出现该问题。 +{{nebula.name}} 2.5.0 版本调整了 Job 的定义,详情参见 [Pull request](https://github.com/vesoft-inc/nebula-common/pull/562/files)。如果是从 2.5.0 之前的版本升级,会出现该问题。 ### 有哪些语法不兼容 ? diff --git a/docs-2.0/4.deployment-and-installation/4.uninstall-nebula-graph.md b/docs-2.0/4.deployment-and-installation/4.uninstall-nebula-graph.md index f1705ff6e35..eff9caac780 100644 --- a/docs-2.0/4.deployment-and-installation/4.uninstall-nebula-graph.md +++ b/docs-2.0/4.deployment-and-installation/4.uninstall-nebula-graph.md @@ -1,14 +1,14 @@ -# 卸载 NebulaGraph +# 卸载{{nebula.name}} -本文介绍如何卸载 NebulaGraph。 +本文介绍如何卸载{{nebula.name}}。 !!! caution - 如果需要重新部署 NebulaGraph,请务必完全卸载后再重新部署,否则可能会出现问题,包括 Meta 不一致等。 + 如果需要重新部署{{nebula.name}},请务必完全卸载后再重新部署,否则可能会出现问题,包括 Meta 不一致等。 ## 前提条件 -停止 NebulaGraph 服务。详情参见[管理 NebulaGraph 服务](../2.quick-start/3.quick-start-on-premise/5.start-stop-service.md)。 +停止{{nebula.name}}服务。详情参见[管理{{nebula.name}}服务](../2.quick-start/3.quick-start-on-premise/5.start-stop-service.md)。 ## 步骤 1:删除数据和元数据文件 @@ -39,13 +39,13 @@ 安装路径为参数`--prefix`指定的路径。默认路径为`/usr/local/nebula`。 -### 卸载编译安装的 NebulaGraph +### 卸载编译安装的{{nebula.name}} -找到 NebulaGraph 的安装目录,删除整个安装目录。 +找到{{nebula.name}}的安装目录,删除整个安装目录。 -### 卸载 RPM 包安装的 NebulaGraph +### 卸载 RPM 包安装的{{nebula.name}} -1. 使用如下命令查看 NebulaGraph 版本。 +1. 使用如下命令查看{{nebula.name}}版本。 ```bash $ rpm -qa | grep "nebula" @@ -57,7 +57,7 @@ nebula-graph-{{ nebula.release }}-1.x86_64 ``` -2. 使用如下命令卸载 NebulaGraph。 +2. 使用如下命令卸载{{nebula.name}}。 ```bash sudo rpm -e @@ -71,9 +71,9 @@ 3. 删除安装目录。 -### 卸载 DEB 包安装的 NebulaGraph +### 卸载 DEB 包安装的{{nebula.name}} -1. 使用如下命令查看 NebulaGraph 版本。 +1. 使用如下命令查看{{nebula.name}}版本。 ```bash $ dpkg -l | grep "nebula" @@ -85,7 +85,7 @@ ii nebula-graph {{ nebula.release }} amd64 NebulaGraph Package built using CMake ``` -2. 使用如下命令卸载 NebulaGraph。 +2. 使用如下命令卸载{{nebula.name}}。 ```bash sudo dpkg -r @@ -99,9 +99,9 @@ 3. 删除安装目录。 -### 卸载 Docker Compose 部署的 NebulaGraph +### 卸载 Docker Compose 部署的{{nebula.name}} -1. 在目录`nebula-docker-compose`内执行如下命令停止 NebulaGraph 服务。 +1. 在目录`nebula-docker-compose`内执行如下命令停止{{nebula.name}}服务。 ```bash docker-compose down -v diff --git a/docs-2.0/4.deployment-and-installation/5.zone.md b/docs-2.0/4.deployment-and-installation/5.zone.md index 9c5dcc3817a..d622a25e46c 100644 --- a/docs-2.0/4.deployment-and-installation/5.zone.md +++ b/docs-2.0/4.deployment-and-installation/5.zone.md @@ -1,6 +1,6 @@ # 管理逻辑机架(Zone) -NebulaGraph 提供 Zone 功能,可以管理集群中的 Storage 节点,实现资源隔离。 +{{nebula.name}}提供 Zone 功能,可以管理集群中的 Storage 节点,实现资源隔离。 ## 背景信息 diff --git a/docs-2.0/4.deployment-and-installation/6.deploy-text-based-index/1.text-based-index-restrictions.md b/docs-2.0/4.deployment-and-installation/6.deploy-text-based-index/1.text-based-index-restrictions.md index db7d4c75299..324449bbd7d 100644 --- a/docs-2.0/4.deployment-and-installation/6.deploy-text-based-index/1.text-based-index-restrictions.md +++ b/docs-2.0/4.deployment-and-installation/6.deploy-text-based-index/1.text-based-index-restrictions.md @@ -26,8 +26,8 @@ - `WHERE`子句只能用单个条件进行全文搜索。 -- 确保同时启动了 Elasticsearch 集群和 NebulaGraph,否则可能导致 Elasticsearch 集群写入的数据不完整。 +- 确保同时启动了 Elasticsearch 集群和{{nebula.name}},否则可能导致 Elasticsearch 集群写入的数据不完整。 -- 从写入 NebulaGraph,到写入 listener,再到写入 Elasticsearch 并创建索引可能需要一段时间。如果访问全文索引时返回未找到索引,可等待索引生效(但是,该等待时间未知,也无返回码检查)。 +- 从写入{{nebula.name}},到写入 listener,再到写入 Elasticsearch 并创建索引可能需要一段时间。如果访问全文索引时返回未找到索引,可等待索引生效(但是,该等待时间未知,也无返回码检查)。 -- 使用 K8s 方式部署的 NebulaGraph 集群不支持全文索引。 +- 使用 K8s 方式部署的{{nebula.name}}集群不支持全文索引。 diff --git a/docs-2.0/4.deployment-and-installation/6.deploy-text-based-index/2.deploy-es.md b/docs-2.0/4.deployment-and-installation/6.deploy-text-based-index/2.deploy-es.md index 38f1d2027b6..3370ae9ca6b 100644 --- a/docs-2.0/4.deployment-and-installation/6.deploy-text-based-index/2.deploy-es.md +++ b/docs-2.0/4.deployment-and-installation/6.deploy-text-based-index/2.deploy-es.md @@ -1,6 +1,6 @@ # 部署全文索引 -NebulaGraph 的全文索引是基于 [Elasticsearch](https://en.wikipedia.org/wiki/Elasticsearch) 实现,这意味着用户可以使用 Elasticsearch 全文查询语言来检索想要的内容。全文索引由内置的进程管理,当 listener 集群和 Elasticsearch 集群部署后,内置的进程只能为数据类型为定长字符串或变长字符串的属性创建全文索引。 +{{nebula.name}}的全文索引是基于 [Elasticsearch](https://en.wikipedia.org/wiki/Elasticsearch) 实现,这意味着用户可以使用 Elasticsearch 全文查询语言来检索想要的内容。全文索引由内置的进程管理,当 listener 集群和 Elasticsearch 集群部署后,内置的进程只能为数据类型为定长字符串或变长字符串的属性创建全文索引。 ## 注意事项 @@ -12,7 +12,7 @@ NebulaGraph 的全文索引是基于 [Elasticsearch](https://en.wikipedia.org/wi !!! compatibility - NebulaGraph 3.4 及以后,不需要额外创建模板。 + {{nebula.name}} 3.4 及以后,不需要额外创建模板。 !!! caution diff --git a/docs-2.0/4.deployment-and-installation/6.deploy-text-based-index/3.deploy-listener.md b/docs-2.0/4.deployment-and-installation/6.deploy-text-based-index/3.deploy-listener.md index a8346f4016a..43eab0c816c 100644 --- a/docs-2.0/4.deployment-and-installation/6.deploy-text-based-index/3.deploy-listener.md +++ b/docs-2.0/4.deployment-and-installation/6.deploy-text-based-index/3.deploy-listener.md @@ -6,7 +6,7 @@ - 已经了解全文索引的[使用限制](../../4.deployment-and-installation/6.deploy-text-based-index/1.text-based-index-restrictions.md)。 -- 已经[部署 NebulaGraph 集群](../2.compile-and-install-nebula-graph/deploy-nebula-graph-cluster.md)。 +- 已经[部署{{nebula.name}}集群](../2.compile-and-install-nebula-graph/deploy-nebula-graph-cluster.md)。 - 完成[部署 Elasticsearch 集群](./2.deploy-es.md)。 @@ -14,7 +14,7 @@ ## 注意事项 -- 请保证 NebulaGraph 各组件(Metad、Storaged、Graphd、listener)有相同的版本。 +- 请保证{{nebula.name}}各组件(Metad、Storaged、Graphd、listener)有相同的版本。 - 只能为一个图空间“一次性添加所有的 listener 机器”。尝试向已经存在有 listener 的图空间再添加新 listener 会失败。因此,需在一个命令语句里完整地添加全部的 listener。 @@ -22,7 +22,7 @@ ### 第一步:安装 Storage 服务 -listener 进程与 storaged 进程使用相同的二进制文件,但是二者配置文件不同,进程使用端口也不同,可以在所有需要部署 listener 的服务器上都安装 NebulaGraph,但是仅使用 Storage 服务。详情请参见[使用 RPM 或 DEB 安装包安装 NebulaGraph](../2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md)。 +listener 进程与 storaged 进程使用相同的二进制文件,但是二者配置文件不同,进程使用端口也不同,可以在所有需要部署 listener 的服务器上都安装{{nebula.name}},但是仅使用 Storage 服务。详情请参见[使用 RPM 或 DEB 安装包安装{{nebula.name}}](../2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md)。 ### 第二步:准备 listener 的配置文件 @@ -60,9 +60,9 @@ listener 进程与 storaged 进程使用相同的二进制文件,但是二者 `listener_config_path`是存放 listener 配置文件的路径。 -### 第四步:添加 listener 到 NebulaGraph 集群 +### 第四步:添加 listener 到{{nebula.name}}集群 -[用命令行连接到 NebulaGraph](../../2.quick-start/3.quick-start-on-premise/3.connect-to-nebula-graph.md),然后执行 [`USE `](../../3.ngql-guide/9.space-statements/2.use-space.md) 进入需要创建全文索引的图空间。然后执行如下命令添加 listener: +[用命令行连接到{{nebula.name}}](../../2.quick-start/3.quick-start-on-premise/3.connect-to-nebula-graph.md),然后执行 [`USE `](../../3.ngql-guide/9.space-statements/2.use-space.md) 进入需要创建全文索引的图空间。然后执行如下命令添加 listener: ```ngql ADD LISTENER ELASTICSEARCH [,, ...] diff --git a/docs-2.0/4.deployment-and-installation/connect-to-nebula-graph.md b/docs-2.0/4.deployment-and-installation/connect-to-nebula-graph.md index 183c122793d..d874231454f 100644 --- a/docs-2.0/4.deployment-and-installation/connect-to-nebula-graph.md +++ b/docs-2.0/4.deployment-and-installation/connect-to-nebula-graph.md @@ -1,4 +1,4 @@ -# 连接 NebulaGraph 服务 +# 连接{{nebula.name}}服务 {% include "/source_connect-to-nebula-graph.md" %} diff --git a/docs-2.0/4.deployment-and-installation/deploy-license.md b/docs-2.0/4.deployment-and-installation/deploy-license.md index 1498c235e3a..8caf30b3072 100644 --- a/docs-2.0/4.deployment-and-installation/deploy-license.md +++ b/docs-2.0/4.deployment-and-installation/deploy-license.md @@ -1,6 +1,6 @@ -# 设置 NebulaGraph 企业版 License +# 设置{{nebula.name}} License -NebulaGraph 企业版需要用户设置 License 才可以正常启动并使用企业版功能,本文介绍如何设置企业版的 License 文件。 +{{nebula.name}}需要用户设置 License 才可以正常启动并使用企业版功能,本文介绍如何设置企业版的 License 文件。 !!! enterpriseonly @@ -8,7 +8,7 @@ NebulaGraph 企业版需要用户设置 License 才可以正常启动并使用 ## 注意事项 -- 没有设置 License 时,NebulaGraph 企业版无法启动。 +- 没有设置 License 时,{{nebula.name}}无法启动。 - 请勿修改 License 文件,否则会导致 License 失效。 @@ -22,7 +22,7 @@ NebulaGraph 企业版需要用户设置 License 才可以正常启动并使用 - 过期 14 天后,服务无法启动,并会打印日志进行提醒。 -## NebulaGraph 企业版 License 说明 +## {{nebula.name}} License 说明 License 文件(`nebula.license`)内容示例如下: @@ -60,19 +60,19 @@ License 文件包含生效时间、过期时间等信息。说明如下。 |`organization`| 用户名称。| |`issuedDate`| License 生效时间。| |`expirationDate`| License 过期时间。| -|`product`| 产品类型。NebulaGraph 的产品类型为`nebula_graph`。| +|`product`| 产品类型。{{nebula.name}}的产品类型为`nebula_graph`。| |`version`| 版本支持的信息。| |`licenseType`| License 类型。包括`enterprise`、`samll_bussiness`、`pro`、`individual`。预留参数。| |`gracePeriod`| 证书过期后可继续使用服务的缓冲时间(单位天),超过缓冲期后停止服务。试用版的 License 过期后无缓冲期,默认值为 0。 | -|`graphdSpec`| 集群中 Graph 服务的数量限制。NebulaGraph 会实时监测当前活动的 Graph 服务数量,超过限制的 Graph 服务无法连接集群。| -|`storagedSpec`| 集群中 Storage 服务的数量限制。NebulaGraph 会实时监测当前活动的 Storage 服务数量,超过限制的 Storage 服务无法连接集群。| +|`graphdSpec`| 集群中 Graph 服务的数量限制。{{nebula.name}}会实时监测当前活动的 Graph 服务数量,超过限制的 Graph 服务无法连接集群。| +|`storagedSpec`| 集群中 Storage 服务的数量限制。{{nebula.name}}会实时监测当前活动的 Storage 服务数量,超过限制的 Storage 服务无法连接集群。| |`clusterCode`| 用户的硬件信息,也是集群的唯一标识码。试用版的 License 中无此参数。 | -## 设置 NebulaGraph 企业版 License +## 设置{{nebula.name}} License -1. [联系我们](https://www.nebula-graph.com.cn/contact)申请 NebulaGraph 企业版安装包。 +1. [联系我们](https://www.nebula-graph.com.cn/contact)申请{{nebula.name}}安装包。 -2. 安装 NebulaGraph 企业版。安装方式与社区版相同,请参见[使用 RPM 或 DEB 包安装 NebulaGraph](2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md)。 +2. 安装{{nebula.name}}。安装方式与社区版相同,请参见[使用 RPM 或 DEB 包安装{{nebula.name}}](2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md)。 3. [联系我们](https://www.nebula-graph.com.cn/contact)申请 License 文件`nebula.license`。 @@ -82,9 +82,9 @@ License 文件包含生效时间、过期时间等信息。说明如下。 周边工具的 License 文件上传位置,请参见[具体周边工具](../20.appendix/6.eco-tool-version.md)的说明文档。 -## 续期 NebulaGraph 企业版 License +## 续期{{nebula.name}} License -1. 发送邮件至`inqury@vesoft.com`申请新的 NebulaGraph 企业版 License。 +1. 发送邮件至`inqury@vesoft.com`申请新的{{nebula.name}} License。 2. 在所有包含 Meta 服务的机器上,路径为每个 Meta 服务安装目录的`share/resources/`内,使用新的 License 文件`nebula.license`替换旧的 License 文件。 @@ -94,7 +94,7 @@ License 文件包含生效时间、过期时间等信息。说明如下。 当用户的 License 过期时间超过到期后的缓冲期,Graph 和 Storage 服务会自动停止。为了确保服务正常运行,请及时更新 License。 -## 查看 NebulaGraph 企业版 License +## 查看{{nebula.name}} License - 直接查看 License 文件 @@ -102,8 +102,8 @@ License 文件包含生效时间、过期时间等信息。说明如下。 - 通过 HTTP 接口查看 License 文件 - 当 NebulaGraph 正常运行时,可以请求 Meta 服务的 HTTP 接口(默认为19559)获取 License 文件内容。例如`curl -G "http://192.168.10.101:19559/license"`。 + 当{{nebula.name}}正常运行时,可以请求 Meta 服务的 HTTP 接口(默认为19559)获取 License 文件内容。例如`curl -G "http://192.168.10.101:19559/license"`。 ## 下一步 -[启动 NebulaGraph](manage-service.md) +[启动{{nebula.name}}](manage-service.md) diff --git a/docs-2.0/4.deployment-and-installation/manage-service.md b/docs-2.0/4.deployment-and-installation/manage-service.md index ea5c31f0de4..69f707c9ee8 100644 --- a/docs-2.0/4.deployment-and-installation/manage-service.md +++ b/docs-2.0/4.deployment-and-installation/manage-service.md @@ -1,4 +1,4 @@ -# 管理 NebulaGraph 服务 +# 管理{{nebula.name}}服务 {% include "/source_manage-service.md" %} diff --git a/docs-2.0/4.deployment-and-installation/manage-storage-host.md b/docs-2.0/4.deployment-and-installation/manage-storage-host.md index 6c2fb6c15dc..3ca65bba614 100644 --- a/docs-2.0/4.deployment-and-installation/manage-storage-host.md +++ b/docs-2.0/4.deployment-and-installation/manage-storage-host.md @@ -5,7 +5,7 @@ ## 增加 Storage 主机 diff --git a/docs-2.0/4.deployment-and-installation/standalone-deployment.md b/docs-2.0/4.deployment-and-installation/standalone-deployment.md index 02737f536f0..bfbfd954ae8 100644 --- a/docs-2.0/4.deployment-and-installation/standalone-deployment.md +++ b/docs-2.0/4.deployment-and-installation/standalone-deployment.md @@ -1,16 +1,16 @@ -# 存算合并版 NebulaGraph +# 存算合并版{{nebula.name}} -存算合并版 NebulaGraph 将存储服务(Meta 和 Storage)和计算服务(Graph)合并至一个进程,用于部署在单台机器上。本文介绍存算合并版 NebulaGraph 的使用场景、安装步骤等。 +存算合并版{{nebula.name}}将存储服务(Meta 和 Storage)和计算服务(Graph)合并至一个进程,用于部署在单台机器上。本文介绍存算合并版{{nebula.name}}的使用场景、安装步骤等。 !!! danger - 存算合并版 NebulaGraph 不用于生产环境。 + 存算合并版{{nebula.name}}不用于生产环境。 ## 背景信息 -传统的 NebulaGraph 架构由 3 个服务构成,每个服务都有可执行的二进制文件和对应的进程,进程之间通过 RPC 协议进行调用。而在存算合并版 NebulaGraph 中,NebulaGraph 中 3 个服务对应的 3 个进程被合为 1 个进程。 +传统的{{nebula.name}}架构由 3 个服务构成,每个服务都有可执行的二进制文件和对应的进程,进程之间通过 RPC 协议进行调用。而在存算合并版{{nebula.name}}中,{{nebula.name}}中 3 个服务对应的 3 个进程被合为 1 个进程。 -关于 NebulaGraph 的更多信息,参见[架构总览](../1.introduction/3.nebula-graph-architecture/1.architecture-overview.md)。 +关于{{nebula.name}}的更多信息,参见[架构总览](../1.introduction/3.nebula-graph-architecture/1.architecture-overview.md)。 ## 使用场景 @@ -23,11 +23,11 @@ ## 环境准备 -关于安装存算合并版 NebulaGraph 所需的环境,参见[编译 NebulaGraph 源码要求](1.resource-preparations.md)。 +关于安装存算合并版{{nebula.name}}所需的环境,参见[编译{{nebula.name}}源码要求](1.resource-preparations.md)。 ## 安装步骤 -目前仅支持使用源码安装存算合并版 NebulaGraph。其安装步骤与多进程的 NebulaGraph 步骤类似,用户只需在**使用 CMake 生成 makefile 文件**步骤的命令中添加`-DENABLE_STANDALONE_VERSION=on`。示例如下: +目前仅支持使用源码安装存算合并版{{nebula.name}}。其安装步骤与多进程的{{nebula.name}}步骤类似,用户只需在**使用 CMake 生成 makefile 文件**步骤的命令中添加`-DENABLE_STANDALONE_VERSION=on`。示例如下: ```bash cmake -DCMAKE_INSTALL_PREFIX=/usr/local/nebula -DENABLE_TESTING=OFF -DENABLE_STANDALONE_VERSION=on -DCMAKE_BUILD_TYPE=Release .. @@ -35,13 +35,13 @@ cmake -DCMAKE_INSTALL_PREFIX=/usr/local/nebula -DENABLE_TESTING=OFF -DENABLE_STA 有关具体的安装步骤,参见[使用源码安装](2.compile-and-install-nebula-graph/1.install-nebula-graph-by-compiling-the-source-code.md)。 -用户完成存算合并版 NebulaGraph 后,可以参见[连接服务](connect-to-nebula-graph.md)连接 NebulaGraph。 +用户完成存算合并版{{nebula.name}}后,可以参见[连接服务](connect-to-nebula-graph.md)连接{{nebula.name}}。 ## 配置文件 -存算合并版 NebulaGraph 的配置文件的路径默认为`/usr/local/nebula/etc`。 +存算合并版{{nebula.name}}的配置文件的路径默认为`/usr/local/nebula/etc`。 -用户可执行`sudo cat nebula-standalone.conf.default`查看配置文件内容。配置文件参数和描述和多进程的 NebulaGraph 大体一致,除以下参数外: +用户可执行`sudo cat nebula-standalone.conf.default`查看配置文件内容。配置文件参数和描述和多进程的{{nebula.name}}大体一致,除以下参数外: | 参数 | 预设值 | 说明 | | ---------------- | ----------- | --------------------- | diff --git a/docs-2.0/5.configurations-and-logs/1.configurations/1.configurations.md b/docs-2.0/5.configurations-and-logs/1.configurations/1.configurations.md index 08ace1f7558..285ee65ed75 100644 --- a/docs-2.0/5.configurations-and-logs/1.configurations/1.configurations.md +++ b/docs-2.0/5.configurations-and-logs/1.configurations/1.configurations.md @@ -1,6 +1,6 @@ # 配置管理 -NebulaGraph 基于 [gflags](https://gflags.github.io/gflags/) 库打造了系统配置,多数配置项都是其中的 flags。NebulaGraph 服务启动时,默认会从[配置文件](#_4)中获取配置信息。对于文件中没有的配置项,系统使用默认值。 +{{nebula.name}}基于 [gflags](https://gflags.github.io/gflags/) 库打造了系统配置,多数配置项都是其中的 flags。{{nebula.name}}服务启动时,默认会从[配置文件](#_4)中获取配置信息。对于文件中没有的配置项,系统使用默认值。 {{ ent.ent_begin }} @@ -12,7 +12,7 @@ NebulaGraph 基于 [gflags](https://gflags.github.io/gflags/) 库打造了系统 !!! note - * 由于配置项多且可能随着 NebulaGraph 的开发发生变化,文档不会介绍所有配置项。按下文说明可在命令行获取配置项的详细说明。 + * 由于配置项多且可能随着{{nebula.name}}的开发发生变化,文档不会介绍所有配置项。按下文说明可在命令行获取配置项的详细说明。 * 不建议修改文档未介绍的配置项,除非已经熟悉源代码并完全了解配置项的作用。 !!! compatibility "历史版本兼容性" @@ -40,11 +40,11 @@ $ /usr/local/nebula/bin/nebula-graphd --help $ /usr/local/nebula/bin/nebula-storaged --help ``` -以上示例使用了二进制文件的默认存储路径`/usr/local/nebula/bin/`。如果修改了 NebulaGraph 安装路径,使用实际路径查询配置项信息。 +以上示例使用了二进制文件的默认存储路径`/usr/local/nebula/bin/`。如果修改了{{nebula.name}}安装路径,使用实际路径查询配置项信息。 ## 查看运行配置 -使用`curl`命令获取运行中的配置项的值,即 NebulaGraph 的运行配置。 +使用`curl`命令获取运行中的配置项的值,即{{nebula.name}}的运行配置。 ## 数据传输与优化 -- 读写平衡。NebulaGraph 适合读写平衡性的在线场景,也即 OLTP 型的的“并发的发生写入与读取”;而非数仓 OLAP 型的“一次写入多次读取”。 +- 读写平衡。{{nebula.name}}适合读写平衡性的在线场景,也即 OLTP 型的的“并发的发生写入与读取”;而非数仓 OLAP 型的“一次写入多次读取”。 - 选择不同的写入方式。大批量的数据写入可以使用 sst 加载的方式;小批量的写入使用`INSERT`语句。 - 选择合适的时间运行 COMPACTION 和 BALANCE,来分别优化数据格式和存储分布。 -- NebulaGraph {{ nebula.release }} 不支持关系型数据库意义上的事务和隔离性,更接近 NoSQL。 +- {{nebula.name}} {{ nebula.release }} 不支持关系型数据库意义上的事务和隔离性,更接近 NoSQL。 ## 查询预热与数据预热 diff --git a/docs-2.0/8.service-tuning/4.plan.md b/docs-2.0/8.service-tuning/4.plan.md index 8e2232a610d..84c951c52bc 100644 --- a/docs-2.0/8.service-tuning/4.plan.md +++ b/docs-2.0/8.service-tuning/4.plan.md @@ -1,5 +1,5 @@ # 执行计划 -NebulaGraph {{ nebula.release }} 实现了基于规则的执行计划。用户无法改变执行计划,无法进行查询的预编译(及相应的计划缓存),无法通过指定索引来加速查询。 +{{nebula.name}} {{ nebula.release }} 实现了基于规则的执行计划。用户无法改变执行计划,无法进行查询的预编译(及相应的计划缓存),无法通过指定索引来加速查询。 要查看执行计划及执行概要,请参考 [EXPLAIN 和 PROFILE](../3.ngql-guide/17.query-tuning-statements/1.explain-and-profile.md)。 diff --git a/docs-2.0/8.service-tuning/compaction.md b/docs-2.0/8.service-tuning/compaction.md index 0e679199b0b..beb5b36c144 100644 --- a/docs-2.0/8.service-tuning/compaction.md +++ b/docs-2.0/8.service-tuning/compaction.md @@ -2,15 +2,15 @@ 本文介绍 Compaction 的相关信息。 -NebulaGraph 中,`Compaction`是最重要的后台操作,对性能有极其重要的影响。 +{{nebula.name}}中,`Compaction`是最重要的后台操作,对性能有极其重要的影响。 -`Compaction`操作会读取硬盘上的数据,然后重组数据结构和索引,然后再写回硬盘,可以成倍提升读取性能。将大量数据写入 NebulaGraph 后,为了提高读取性能,需要手动触发`Compaction`操作(全量`Compaction`)。 +`Compaction`操作会读取硬盘上的数据,然后重组数据结构和索引,然后再写回硬盘,可以成倍提升读取性能。将大量数据写入{{nebula.name}}后,为了提高读取性能,需要手动触发`Compaction`操作(全量`Compaction`)。 !!! Note `Compaction`操作会长时间占用硬盘的 IO,建议在业务低峰期(例如凌晨)执行该操作。 -NebulaGraph 有两种类型的`Compaction`操作:自动`Compaction`和全量`Compaction`。 +{{nebula.name}}有两种类型的`Compaction`操作:自动`Compaction`和全量`Compaction`。 ## 自动`Compaction` @@ -74,7 +74,7 @@ nebula> SHOW JOB ; ## 操作建议 -为保证 NebulaGraph 的性能,请参考如下操作建议: +为保证{{nebula.name}}的性能,请参考如下操作建议: +3.4.0发布 +--> + ## 快速开始 * [快速开始](2.quick-start/1.quick-start-overview.md) @@ -27,11 +29,12 @@ NebulaGraph 是一款开源的、分布式的、易扩展的原生图数据库 * [生态工具](20.appendix/6.eco-tool-version.md) * [Academy 课程](https://academic.nebula-graph.io/intro/) - ## 其他资料 - [学习路径](https://academic.nebula-graph.io/?lang=ZH_CN) +{{ comm.comm_begin }} - [引用 NebulaGraph](https://arxiv.org/abs/2206.07278) +{{ comm.comm_end }} - [论坛](https://discuss.nebula-graph.com.cn/) - [主页](https://nebula-graph.com.cn/) - [系列视频](https://space.bilibili.com/472621355) @@ -75,4 +78,4 @@ NebulaGraph 是一款开源的、分布式的、易扩展的原生图数据库 ## 修改文档中的错误 -NebulaGraph 文档以 Markdown 语言编写。单击文档标题右上侧的铅笔图标即可提交修改建议。 +{{nebula.name}}文档以 Markdown 语言编写。单击文档标题右上侧的铅笔图标即可提交修改建议。 diff --git a/docs-2.0/backup-and-restore/3.manage-snapshot.md b/docs-2.0/backup-and-restore/3.manage-snapshot.md index 5414e807081..6630a43f53f 100644 --- a/docs-2.0/backup-and-restore/3.manage-snapshot.md +++ b/docs-2.0/backup-and-restore/3.manage-snapshot.md @@ -1,10 +1,10 @@ # 管理快照 -NebulaGraph 提供快照(snapshot)功能,用于保存集群当前时间点的数据状态,当出现数据丢失或误操作时,可以通过快照恢复数据。 +{{nebula.name}}提供快照(snapshot)功能,用于保存集群当前时间点的数据状态,当出现数据丢失或误操作时,可以通过快照恢复数据。 ## 前提条件 -NebulaGraph 的[身份认证](../7.data-security/1.authentication/1.authentication.md)功能默认是关闭的,此时任何用户都能使用快照功能。 +{{nebula.name}}的[身份认证](../7.data-security/1.authentication/1.authentication.md)功能默认是关闭的,此时任何用户都能使用快照功能。 如果身份认证开启,仅 God 角色用户可以使用快照功能。关于角色说明,请参见[内置角色权限](../7.data-security/1.authentication/3.role-list.md)。 @@ -18,7 +18,7 @@ NebulaGraph 的[身份认证](../7.data-security/1.authentication/1.authenticati ## 快照路径 -NebulaGraph 创建的快照以目录的形式存储,例如`SNAPSHOT_2021_03_09_08_43_12`,后缀`2021_03_09_08_43_12`根据创建时间(UTC)自动生成。 +{{nebula.name}}创建的快照以目录的形式存储,例如`SNAPSHOT_2021_03_09_08_43_12`,后缀`2021_03_09_08_43_12`根据创建时间(UTC)自动生成。 创建快照时,快照目录会自动在 leader Meta 服务器和所有 Storage 服务器的目录`checkpoints`内创建。 @@ -114,5 +114,5 @@ nebula> SHOW SNAPSHOTS; ## 相关文档 -除了使用快照,用户还可以使用备份恢复工具 Backup&Restore(BR)备份或恢复 NebulaGraph 数据。详情请参见 [Backup&Restore](2.backup-restore/1.what-is-br.md)。 +除了使用快照,用户还可以使用备份恢复工具 Backup&Restore(BR)备份或恢复{{nebula.name}}数据。详情请参见 [Backup&Restore](2.backup-restore/1.what-is-br.md)。 --> diff --git a/docs-2.0/backup-and-restore/nebula-br-ent/1.br-ent-overview.md b/docs-2.0/backup-and-restore/nebula-br-ent/1.br-ent-overview.md index 1f33016cd17..3ddf2ab770b 100644 --- a/docs-2.0/backup-and-restore/nebula-br-ent/1.br-ent-overview.md +++ b/docs-2.0/backup-and-restore/nebula-br-ent/1.br-ent-overview.md @@ -1,10 +1,10 @@ -# 什么是 Backup&Restore(企业版) +# 什么是{{br_ent.name}} -Backup&Restore(简称 BR)企业版是一款命令行界面(CLI)工具。通过 NebulaGraph BR(企业版),用户可以备份 NebulaGraph 企业版数据,并基于备份目录进行数据恢复。 +{{br_ent.name}}企业版是一款命令行界面(CLI)工具。通过{{br_ent.name}},用户可以备份{{nebula.name}}数据,并基于备份目录进行数据恢复。 !!! enterpriseonly - 该工具仅适用于 NebulaGraph 企业版。 + 该工具仅适用于{{nebula.name}}企业版。 ## 功能 @@ -19,20 +19,20 @@ Backup&Restore(简称 BR)企业版是一款命令行界面(CLI)工具。 ## 限制 -- NebulaGraph 企业版的版本需要为 v{{ nebula.release }}及以上。 +- {{nebula.name}}的版本需要为 v{{ nebula.release }}及以上。 - 不支持备份 [Listener](../../4.deployment-and-installation/6.deploy-text-based-index/3.deploy-listener.md)。 - 不支持备份全文索引。 - 如果备份数据到本地磁盘,备份的文件将会放置在每个服务器的本地路径中。也可以在本地挂载 NFS 文件系统,以便将备份数据还原到不同的主机上。 - 数据备份过程中,指定图空间中的 DDL 和 DML 语句将会阻塞,我们建议在业务低峰期进行操作,例如凌晨 2 点至 5 点。 - 数据恢复需要原集群和目标集群的 Storage 主机数量及 IP 一致。 - 不支持备份指定图空间数据。 -- 不支持在容器部署的 NebulaGraph 集群中使用 BR 企业版。 +- 不支持在容器部署的{{nebula.name}}集群中使用{{br_ent.name}}。 ## 使用流程 可以按照以下步骤使用备份和恢复功能: -1. [安装 BR(企业版)工具](2.install-tools.md) +1. [安装](2.install-tools.md) 2. [备份数据](3.backup-data.md) 3. [恢复数据](4.restore-data.md) diff --git a/docs-2.0/backup-and-restore/nebula-br-ent/2.install-tools.md b/docs-2.0/backup-and-restore/nebula-br-ent/2.install-tools.md index 1b2c02e07c2..29c0c0f129a 100644 --- a/docs-2.0/backup-and-restore/nebula-br-ent/2.install-tools.md +++ b/docs-2.0/backup-and-restore/nebula-br-ent/2.install-tools.md @@ -1,20 +1,20 @@ -# 安装 BR(企业版) +# 安装{{br_ent.name}} -备份和恢复 NebulaGraph 企业版数据需要安装 BR 企业版工具。本文介绍如何安装 BR 企业版工具。 +备份和恢复{{nebula.name}}数据需要安装{{br_ent.name}}。本文介绍如何安装{{br_ent.name}}。 ## 安装说明 -使用 BR (企业版)工具时,需要安装 NebulaGraph Agent 插件。Agent 是集群中每台机器的一个守护进程,用于启停 NebulaGraph 服务和上传/下载备份文件。BR(企业版)工具和 Agent 插件的安装方式如下文。 +使用{{br_ent.name}}时,需要安装 NebulaGraph Agent 插件。Agent 是集群中每台机器的一个守护进程,用于启停{{nebula.name}}服务和上传/下载备份文件。{{br_ent.name}}和 Agent 插件的安装方式如下文。 ## 版本兼容性 -|NebulaGraph 企业版|BR 企业版|Agent | +|{{nebula.name}}|{{br_ent.name}}|Agent | |:---|:---|:---| |3.4.1|3.4.1、3.4.0|3.4.0| -## 安装 BR(企业版) +## 安装{{br_ent.name}} -BR 企业版工具是一款命令行界面(CLI)工具,可以帮助备份 NebulaGraph 的图空间数据,或者通过备份目录恢复数据。 +{{br_ent.name}}是一款命令行界面(CLI)工具,可以帮助备份{{nebula.name}}的图空间数据,或者通过备份目录恢复数据。 操作步骤如下: @@ -22,16 +22,16 @@ BR 企业版工具是一款命令行界面(CLI)工具,可以帮助备份 N !!! enterpriseonly - [联系我们](https://www.nebula-graph.com.cn/contact)获取 BR 企业版工具的安装包。 + [联系我们](https://www.nebula-graph.com.cn/contact)获取{{br_ent.name}}的安装包。 2. 使用`sudo rpm -i `命令安装 RPM 包。 - 例如,安装 BR 企业版需要运行以下命令,默认安装路径为`/usr/local/br-ent/`: + 例如,安装{{br_ent.name}}需要运行以下命令,默认安装路径为`/usr/local/br-ent/`: `sudo rpm -i nebula-br-ent-.x86_64.rpm` -在 BR 企业版工具的安装目录下,用户可以通过命令`./br version`查看版本信息。返回以下信息: +在{{br_ent.name}}的安装目录下,用户可以通过命令`./br version`查看版本信息。返回以下信息: ``` [br-ent]$ ./br version @@ -40,7 +40,7 @@ Nebula Backup And Restore Utility Tool,V-{{br_ent.release}} ## 安装 Agent -NebulaGraph Agent 以二进制形式存在各个机器的安装目录中,通过 RPC 协议对 BR 工具提供服务。 +NebulaGraph Agent 以二进制形式存在各个机器的安装目录中,通过 RPC 协议对{{br_ent.name}}提供服务。 在**每台机器**中,进行以下操作: @@ -66,7 +66,7 @@ NebulaGraph Agent 以二进制形式存在各个机器的安装目录中,通 !!! note - 启动 Agent 前,确保已经启动集群中的 Meta 服务,并且 Agent 有对应 NebulaGraph 服务目录和备份目录的读写权限。 + 启动 Agent 前,确保已经启动集群中的 Meta 服务,并且 Agent 有对应{{nebula.name}}服务目录和备份目录的读写权限。 ``` sudo nohup ./agent --agent=":8888" --meta=":9559" > nebula_agent.log 2>&1 & diff --git a/docs-2.0/backup-and-restore/nebula-br-ent/3.backup-data.md b/docs-2.0/backup-and-restore/nebula-br-ent/3.backup-data.md index aa01af5fd41..fe86a2c5c39 100644 --- a/docs-2.0/backup-and-restore/nebula-br-ent/3.backup-data.md +++ b/docs-2.0/backup-and-restore/nebula-br-ent/3.backup-data.md @@ -1,12 +1,12 @@ -# 使用 BR(企业版)备份数据 +# 备份数据 -用户可以通过 BR 企业版工具备份 NebulaGraph 企业版数据。支持增量和全量备份,支持备份数据至本地及兼容亚马逊对象存储(Amazon S3)服务接口的云存储服务中。本文介绍如何备份数据。 +用户可以通过{{br_ent.name}}工具备份{{nebula.name}}数据。支持增量和全量备份,支持备份数据至本地及兼容亚马逊对象存储(Amazon S3)服务接口的云存储服务中。本文介绍如何备份数据。 ## 背景信息 - 全量备份是指将数据库中的所有数据进行备份。 - 增量备份是指备份上一次备份后变化或者修改过的数据。上一次备份可以是全量备份或者增量备份。 -- 关于 NebulaGraph 的数据目录结构,参见(默认)路径`usr/local/nebula-ent/data`。 +- 关于{{nebula.name}}的数据目录结构,参见(默认)路径`usr/local/nebula-ent/data`。 ## 注意事项 @@ -14,16 +14,16 @@ - 数据备份过程中,指定图空间中的 DDL 和 DML 语句将会阻塞,建议在业务低峰期进行操作。 - 执行增量备份的集群和指定的上一次备份的集群需为同一个,并且和指定的上一次备份的(存储桶)路径需相同。 - 确保每次增量备份距离上一次备份的时间小于一个[`wal_ttl`](../../5.configurations-and-logs/1.configurations/4.storage-config.md)的时间。 -- 确保 Agent 有对应 NebulaGraph 安装目录和备份目录的读写权限。 +- 确保 Agent 有对应{{nebula.name}}安装目录和备份目录的读写权限。 ## 准备工作 -- 已启动 NebulaGraph 服务。 +- 已启动{{nebula.name}}服务。 -- 已安装 [BR 企业版工具和 Agent 插件](2.install-tools.md)并在集群中的每个机器上运行 Agent。 +- 已安装 [{{br_ent.name}}工具和 Agent 插件](2.install-tools.md)并在集群中的每个机器上运行 Agent。 -- 如果在本地保存备份目录,需要在 Meta 服务器、Storage 服务器和 BR 机器上创建绝对路径相同的目录,并记录绝对路径,同时需要保证账号对该目录有写权限。 +- 如果在本地保存备份目录,需要在 Meta 服务器、Storage 服务器和{{br_ent.name}}机器上创建绝对路径相同的目录,并记录绝对路径,同时需要保证账号对该目录有写权限。 ## 全量备份 @@ -33,7 +33,7 @@ 只支持备份数据至兼容亚马逊 S3 协议的云存储服务中。 -在 BR 企业版工具安装目录下执行以下命令备份整个集群数据至云存储服务: +在{{br_ent.name}}工具安装目录下执行以下命令备份整个集群数据至云存储服务: ``` ./br backup full --meta --s3.access_key --s3.secret_key --s3.region --storage s3:// --s3.endpoint @@ -49,11 +49,11 @@ !!! caution - 在生产环境中,建议用户将 NFS(Network File System)共享存储设备挂载到 Meta 服务器、Storage 服务器和 BR 机器上进行本地备份,或者使用 Alibaba Cloud OSS、Amazon S3 进行远程备份。否则当需要通过本地文件恢复数据前,必须手动将这些备份目录移动到指定目录。 + 在生产环境中,建议用户将 NFS(Network File System)共享存储设备挂载到 Meta 服务器、Storage 服务器和{{br_ent.name}}机器上进行本地备份,或者使用 Alibaba Cloud OSS、Amazon S3 进行远程备份。否则当需要通过本地文件恢复数据前,必须手动将这些备份目录移动到指定目录。 备份至本地时,只备份 leader metad 和 leader partition 的数据,因此当未使用共享存储且有多个 metad 或 partition 的 replica 数大于 1 时,需要手动将备份后的 leader metad 的目录(路径为`/meta`)拷贝并覆盖其他 follower metad 节点的对应目录,并将 leader partition 的目录中对应的分片数据(路径为`/`)拷贝至其他 follower partition 对应的目录中。不建议用户进行手动拷贝操作。 -在 BR 企业版工具安装目录下执行以下命令备份整个集群数据至本地: +在{{br_ent.name}}工具安装目录下执行以下命令备份整个集群数据至本地: !!! note @@ -109,7 +109,7 @@ 只支持备份数据至兼容亚马逊 S3 协议的云存储服务中。 -在 BR 企业版工具安装目录下执行以下命令备份增量数据至云存储服务: +在{{br_ent.name}}工具安装目录下执行以下命令备份增量数据至云存储服务: ``` ./br backup incr --meta --s3.access_key --s3.secret_key --s3.region --storage s3:// --s3.endpoint --base @@ -123,7 +123,7 @@ ### 增量备份数据至本地 -在 BR 企业版工具安装目录下执行以下命令备份增量数据至本地: +在{{br_ent.name}}工具安装目录下执行以下命令备份增量数据至本地: !!! note @@ -187,7 +187,7 @@ ## 查看备份进度 -在安装目录内可以查看 BR 的日志文件`br.log`。日志文件会记录备份进度,内容类似: +在安装目录内可以查看{{br_ent.name}}的日志文件`br.log`。日志文件会记录备份进度,内容类似: ```log {"level":"info","msg":"full upload storaged partition finished, progress: 1/20","time":"2023-03-15T02:13:20.946Z"} @@ -197,7 +197,7 @@ ## 下一步 -备份目录生成后,可以将备份目录的数据恢复到 NebulaGraph 中。具体操作,参见[恢复数据](4.restore-data.md)。 +备份目录生成后,可以将备份目录的数据恢复到{{nebula.name}}中。具体操作,参见[恢复数据](4.restore-data.md)。 !!! caution diff --git a/docs-2.0/backup-and-restore/nebula-br-ent/4.restore-data.md b/docs-2.0/backup-and-restore/nebula-br-ent/4.restore-data.md index af9e2c43f50..8a4b6025995 100644 --- a/docs-2.0/backup-and-restore/nebula-br-ent/4.restore-data.md +++ b/docs-2.0/backup-and-restore/nebula-br-ent/4.restore-data.md @@ -1,6 +1,6 @@ -# 使用 BR(企业版)恢复数据 +# 恢复数据 -如果使用[备份工具](2.install-tools.md)备份了 NebulaGraph 的数据,可以通过备份目录进行数据恢复。本文介绍如何通过备份目录恢复数据。 +如果使用[备份工具](2.install-tools.md)备份了{{nebula.name}}的数据,可以通过备份目录进行数据恢复。本文介绍如何通过备份目录恢复数据。 ## 注意事项 @@ -9,15 +9,15 @@ ## 准备工作 -- 已安装 [BR 企业版工具和 Agent 插件](2.install-tools.md)并在集群中的**每个**机器上运行 Agent。 +- 已安装 [{{br_ent.name}}工具和 Agent 插件](2.install-tools.md)并在集群中的**每个**机器上运行 Agent。 -- 确认没有应用程序连接到待恢复数据的 NebulaGraph 集群。 +- 确认没有应用程序连接到待恢复数据的{{nebula.name}}集群。 - 确认原集群和目标集群的 Storage 主机数量一致。 ## 操作步骤 -在 BR 工具安装目录下执行以下操作: +在{{br_ent.name}}工具安装目录下执行以下操作: 1. 查看现有备份信息。 @@ -74,14 +74,14 @@ !!! note - 如果数据恢复失败,BR 会自动执行回滚流程,将集群的数据会自动还原回恢复前的数据。 + 如果数据恢复失败,{{br_ent.name}}会自动执行回滚流程,将集群的数据会自动还原回恢复前的数据。 3. 执行以下命令清理临时文件。该命令将清理集群和外部存储中的临时文件,同时也可以使用该命令清理旧的备份目录。示例如下: !!! note - 默认情况下,数据恢复执行发生错误时,BR 会自动清理临时文件。如果自动清理失败,需要手动执行命令清理临时文件。 + 默认情况下,数据恢复执行发生错误时,{{br_ent.name}}会自动清理临时文件。如果自动清理失败,需要手动执行命令清理临时文件。 - 清除本地的备份目录。 @@ -115,7 +115,7 @@ ## 查看恢复进度 -在安装目录内可以查看 BR 的日志文件`br.log`。日志文件会记录恢复进度,内容类似: +在安装目录内可以查看{{br_ent.name}}的日志文件`br.log`。日志文件会记录恢复进度,内容类似: ```log {"level":"info","msg":"download storaged partition finished, progress: 1/20","time":"2023-03-15T02:16:43.430Z"} diff --git a/docs-2.0/backup-and-restore/nebula-br/1.what-is-br.md b/docs-2.0/backup-and-restore/nebula-br/1.what-is-br.md index f09f071f1d9..a845233c632 100644 --- a/docs-2.0/backup-and-restore/nebula-br/1.what-is-br.md +++ b/docs-2.0/backup-and-restore/nebula-br/1.what-is-br.md @@ -1,6 +1,6 @@ # 什么是 Backup&Restore -Backup&Restore(简称 BR)是一款命令行界面(CLI)工具,可以帮助备份 NebulaGraph 的图空间数据,或者通过备份文件恢复数据。 +Backup&Restore(简称 BR)是一款命令行界面(CLI)工具,可以帮助备份{{nebula.name}}的图空间数据,或者通过备份文件恢复数据。 ## 功能 @@ -8,19 +8,19 @@ Backup&Restore(简称 BR)是一款命令行界面(CLI)工具,可以帮 - 支持基于以下备份文件恢复数据: - 本地磁盘(SSD 或 HDD),建议仅在测试环境使用。 - 兼容亚马逊对象存储(Amazon S3)云存储服务接口,例如:阿里云对象存储(Alibaba Cloud OSS)、MinIO、Ceph RGW 等。 -- 支持备份并恢复整个 NebulaGraph 集群。 +- 支持备份并恢复整个{{nebula.name}}集群。 - (实验性功能)支持备份指定图空间数据。 ## 限制 -- NebulaGraph 版本需要为 v3.x。 +- {{nebula.name}}版本需要为 v3.x。 - 数据备份仅支持全量备份,不支持增量备份。 -- NebulaGraph Listener 暂时不支持备份,且全文索引也不支持备份。 +- Listener 暂时不支持备份,且全文索引也不支持备份。 - 如果备份数据到本地磁盘,备份的文件将会放置在每个服务器的本地路径中。也可以在本地挂载 NFS 文件系统,以便将备份数据还原到不同的主机上。 - 备份图空间只能恢复到原集群,不能跨集群恢复,并且集群的 Storage 主机数量及 IP 需一致。还原指定图空间时将清除集群中其余所有图空间。 - 数据备份过程中,指定图空间中的 DDL 和 DML 语句将会阻塞,我们建议在业务低峰期进行操作,例如凌晨 2 点至 5 点。 - 数据恢复期间有一段时间服务会被停止。 -- 不支持在容器部署的 NebulaGraph 集群中使用 BR。 +- 不支持在容器部署的{{nebula.name}}集群中使用 BR。 !!! note - 本文仅介绍 NebulaGraph Analytics 的参数,NebulaGraph Algorithm 的参数请先参见对应的[算法文件](https://github.com/vesoft-inc/nebula-algorithm/tree/{{algorithm.branch}}/example/src/main/scala/com/vesoft/nebula/algorithm)。 + 本文仅介绍{{plato.name}}的参数,NebulaGraph Algorithm 的参数请先参见对应的[算法文件](https://github.com/vesoft-inc/nebula-algorithm/tree/{{algorithm.branch}}/example/src/main/scala/com/vesoft/nebula/algorithm)。 -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -73,7 +73,7 @@ KCore 算法用于计算出没有小于 K 度的点组成的子图,通常使 |`degree`|`1`|| --> -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -103,7 +103,7 @@ DegreeCentrality(度中心性) 算法用于查找图中的流行点。度中 !!! note - NebulaGraph Analytics 仅粗略估算度中心性。 + {{plato.name}}仅粗略估算度中心性。 参数说明如下。 @@ -118,7 +118,7 @@ DegreeCentrality(度中心性) 算法用于查找图中的流行点。度中 |``|``|| --> -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -157,7 +157,7 @@ DegreeWithTime 算法是基于边的时间范围统计邻居,查找出图中 !!! note - 仅 NebulaGraph Analytics 支持该算法。 + 仅{{plato.name}}支持该算法。 参数说明如下。 @@ -206,7 +206,7 @@ BetweennessCentrality(介数中心性)算法是一种检测点对图中信 |`maxIter`|`5`|最大迭代次数。| --> -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -241,7 +241,7 @@ ClosenessCentrality(紧密中心性)算法用于计算一个点到所有其 |``|``|| --> -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -265,7 +265,7 @@ APSP(全图最短路径)算法用于寻找图中两点之间的所有最短 !!! note - 仅 NebulaGraph Analytics 支持该算法。 + 仅{{plato.name}}支持该算法。 参数说明如下。 @@ -291,7 +291,7 @@ SSSP(单源最短路径)算法用于计算给定的一个点(起始点) |`sourceid`|-|起始点的 VID。| --> -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -323,7 +323,7 @@ BFS(广度优先遍历)算法是一种基础的图遍历算法,它给定 |``|``|| --> -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -343,7 +343,7 @@ BFS(广度优先遍历)算法是一种基础的图遍历算法,它给定 ShortestPath(最短路径)算法用于寻找图中起点和终点任意两两之间的最短路径,适用于路径设计、网络规划等场景。 -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -377,7 +377,7 @@ LPA(标签传播)算法是一种基于图的半监督学习方法,其基 |``|``|| --> -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -386,7 +386,7 @@ LPA(标签传播)算法是一种基于图的半监督学习方法,其基 |`ITERATIONS`|`10`|最大迭代次数。| |`IS_DIRECTED`|`true`|是否考虑边的方向。如果设置为`false`,系统会自动添加反向边。| |`IS_CALC_MODULARITY`|`false`|是否计算模块度。| - |`IS_OUTPUT_MODULARITY`|`false`|是否计算并输出模块度。设置为`true`时,默认输出到文件的第三列,也可以通过选项`--nebula_output_props`和`--nebula_output_types`输出到 NebulaGraph 中。使用 Explorer 时暂不支持输出到 NebulaGraph 中。| + |`IS_OUTPUT_MODULARITY`|`false`|是否计算并输出模块度。设置为`true`时,默认输出到文件的第三列,也可以通过选项`--nebula_output_props`和`--nebula_output_types`输出到{{nebula.name}}中。使用{{explorer.name}}时暂不支持输出到{{nebula.name}}中。| |`IS_STAT_COMMUNITY`|`false`|是否统计社区的数量。| - 输出参数 @@ -412,7 +412,7 @@ HANP(Hop Attenuation & Node Preference)算法是LPA算法的优化算法, |`preference`|`1.0`|| --> -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -422,7 +422,7 @@ HANP(Hop Attenuation & Node Preference)算法是LPA算法的优化算法, |`IS_DIRECTED`|`true`|是否考虑边的方向。如果设置为`false`,系统会自动添加反向边。| |`PREFERENCE`|`1.0`|对邻居节点度的偏向性。`m>0`表示偏向节点度高的邻居,`m<0`表示偏向节点度低的邻居,`m=0`表示不考虑邻居节点度。| |`HOP_ATT`|`0.1`|衰减因子。取值范围`0`~`1`。值越大衰减的越快,可以传递的次数越少。| - |`IS_OUTPUT_MODULARITY`|`false`|是否计算并输出模块度。设置为`true`时,默认输出到文件的第三列,也可以通过选项`--nebula_output_props`和`--nebula_output_types`输出到 NebulaGraph 中。使用 Explorer 时暂不支持输出到 NebulaGraph 中。| + |`IS_OUTPUT_MODULARITY`|`false`|是否计算并输出模块度。设置为`true`时,默认输出到文件的第三列,也可以通过选项`--nebula_output_props`和`--nebula_output_types`输出到{{nebula.name}}中。使用{{explorer.name}}时暂不支持输出到{{nebula.name}}中。| |`IS_STAT_COMMUNITY`|`false`|是否统计社区的数量。| - 输出参数 @@ -438,7 +438,7 @@ ConnectedComponent(联通分量)算法用于计算出图中的一个子图 !!! note - NebulaGraph Analytics 仅支持弱联通分量。 + {{plato.name}}仅支持弱联通分量。 参数说明如下。 @@ -450,7 +450,7 @@ ConnectedComponent(联通分量)算法用于计算出图中的一个子图 |`maxIter`|`10`|最大迭代次数。| --> -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -458,7 +458,7 @@ ConnectedComponent(联通分量)算法用于计算出图中的一个子图 |:--|:--|:--| |`IS_DIRECTED`|`true`|是否考虑边的方向。如果设置为`false`,系统会自动添加反向边。| |`IS_CALC_MODULARITY`|`false`|是否计算模块度。| - |`IS_OUTPUT_MODULARITY`|`false`|是否计算并输出模块度。设置为`true`时,默认输出到文件的第三列,也可以通过选项`--nebula_output_props`和`--nebula_output_types`输出到 NebulaGraph 中。使用 Explorer 时暂不支持输出到 NebulaGraph 中。| + |`IS_OUTPUT_MODULARITY`|`false`|是否计算并输出模块度。设置为`true`时,默认输出到文件的第三列,也可以通过选项`--nebula_output_props`和`--nebula_output_types`输出到{{nebula.name}}中。使用{{explorer.name}}时暂不支持输出到{{nebula.name}}中。| |`IS_STAT_COMMUNITY`|`false`|是否统计社区的数量。| - 输出参数 @@ -484,7 +484,7 @@ Louvain 算法是基于模块度的社区发现算法,该算法在效率和效 |`tol`|`0.5`|| --> -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -494,7 +494,7 @@ Louvain 算法是基于模块度的社区发现算法,该算法在效率和效 |`OUTER_ITERATION`|`20`|第一阶段最大迭代次数。| |`INNER_ITERATION`|`10`|第二阶段最大迭代次数。| |`IS_CALC_MODULARITY`|`false`|是否计算模块度。| - |`IS_OUTPUT_MODULARITY`|`false`|是否计算并输出模块度。设置为`true`时,默认输出到文件的第三列,也可以通过选项`--nebula_output_props`和`--nebula_output_types`输出到 NebulaGraph 中。使用 Explorer 时暂不支持输出到 NebulaGraph 中。| + |`IS_OUTPUT_MODULARITY`|`false`|是否计算并输出模块度。设置为`true`时,默认输出到文件的第三列,也可以通过选项`--nebula_output_props`和`--nebula_output_types`输出到{{nebula.name}}中。使用{{explorer.name}}时暂不支持输出到{{nebula.name}}中。| |`IS_STAT_COMMUNITY`|`false`|是否统计社区的数量。| - 输出参数 @@ -510,9 +510,9 @@ InfoMap 算法使用双层编码方式将有向图进行社区分类。不同社 !!! note - 仅 NebulaGraph Analytics 支持该算法。 + 仅{{plato.name}}支持该算法。 -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -551,7 +551,7 @@ TriangleCount(三角计数)算法用于统计图中三角形个数。三角 |``|``|| --> -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -609,7 +609,7 @@ Node2Vec算法在 DeepWalk 的基础上提出了更加合理的图特征学习 |`modelPath`|`"hdfs://127.0.0.1:9000/model"`|| --> -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -632,9 +632,9 @@ Tree_stat 算法用于统计图空间中指定根节点的子图的宽度或深 !!! note - 仅 NebulaGraph Analytics 支持该算法。 + 仅{{plato.name}}支持该算法。 -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -655,9 +655,9 @@ HyperANF 算法用于评估图中任意两点的平均距离。 !!! note - 仅 NebulaGraph Analytics 支持该算法。 + 仅{{plato.name}}支持该算法。 -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -690,7 +690,7 @@ ClusteringCoefficient(聚集系数)算法用于计算图中节点的聚集 |``|``|| --> -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 @@ -733,7 +733,7 @@ Jaccard(杰卡德相似度)算法用于计算两个点(或集合)的相 |``|``|| --> -- NebulaGraph Analytics +- {{plato.name}} - 传入参数 diff --git a/docs-2.0/graph-computing/analytics-ent-license.md b/docs-2.0/graph-computing/analytics-ent-license.md index 3644b7958aa..4a509ef88d4 100644 --- a/docs-2.0/graph-computing/analytics-ent-license.md +++ b/docs-2.0/graph-computing/analytics-ent-license.md @@ -1,10 +1,10 @@ -# NebulaGraph Analytics License +# {{plato.name}} License -License 是为用户提供的软件授权证书。用户在部署 NebulaGraph Analytics 时,需要设置 License 才能正常启动 NebulaGraph Analytics。本文介绍 NebulaGraph Analytics 的 License 相关信息。 +License 是为用户提供的软件授权证书。用户在部署{{plato.name}}时,需要设置 License 才能正常启动{{plato.name}}。本文介绍{{plato.name}}的 License 相关信息。 ## 注意事项 -- 没有设置 License 时,NebulaGraph Analytics 无法启动。 +- 没有设置 License 时,{{plato.name}}无法启动。 - 请勿修改 License,否则会导致 License 失效。 @@ -20,15 +20,15 @@ License 是为用户提供的软件授权证书。用户在部署 NebulaGraph An ## 获取方式 -[联系我们](https://www.nebula-graph.com.cn/contact)申请 NebulaGraph Analytics License。 +[联系我们](https://www.nebula-graph.com.cn/contact)申请{{plato.name}}License。 !!! note - 填写 [NebulaGraph Analytics 试用申请](https://wj.qq.com/s2/10158890/69a8)可获取 30 天免费试用的 License。 + 填写 [{{plato.name}}试用申请](https://wj.qq.com/s2/10158890/69a8)可获取 30 天免费试用的 License。 -## NebulaGraph Analytics License 说明 +## {{plato.name}} License 说明 -NebulaGraph Analytics License 是一个名为`nebula.license`的文件,内容示例如下: +{{plato.name}} License 是一个名为`nebula.license`的文件,内容示例如下: ```bash ----------License Content Start---------- @@ -62,25 +62,25 @@ License 文件包含生效时间、过期时间等信息。说明如下。 |`organization`| 用户名称。| |`issuedDate`| License 生效时间。| |`expirationDate`| License 过期时间。| -|`product`| 产品类型。NebulaGraph Analytics 的产品类型为`nebula_graph_analytics`。| +|`product`| 产品类型。{{plato.name}}的产品类型为`nebula_graph_analytics`。| |`version`| 版本支持的信息。| |`licenseType`| License 类型(预留参数)。包括`enterprise`、`samll_bussiness`、`pro`、`individual`。| |`gracePeriod`| 证书过期后可继续使用服务的缓冲时间(单位天),超过缓冲期后停止服务。试用版的 License 过期后无缓冲期,默认值为 0。 | -|`nodes`|集群中 Analytics 服务的数量限制。| -|`vcpu`|集群中 Analytics 服务的总线程数量限制。| +|`nodes`|集群中{{plato.name}}服务的数量限制。| +|`vcpu`|集群中{{plato.name}}服务的总线程数量限制。| |`clusterCode`| 用户的硬件信息,也是集群的唯一标识码。试用版的 License 中无此参数。 | ## 使用方式 -关于如何使用 NebulaGraph Analytics License,参见[NebulaGraph Analytics](nebula-analytics.md)。 +关于如何使用{{plato.name}}License,参见[{{plato.name}}](nebula-analytics.md)。 ## 续期操作 -按照以下操作续期 NebulaGraph Analytics License。 +按照以下操作续期{{plato.name}}License。 -1. [联系我们](https://www.nebula-graph.com.cn/contact)申请新的 NebulaGraph Analytics License 文件`nebula.license`。 -2. 在 NebulaGraph Analytics 的安装目录下(例如,`/usr/local/nebula-analytics/scripts/`),使用新的 License 文件替换旧的 License 文件。 +1. [联系我们](https://www.nebula-graph.com.cn/contact)申请新的{{plato.name}}License 文件`nebula.license`。 +2. 在{{plato.name}}的安装目录下(例如,`/usr/local/nebula-analytics/scripts/`),使用新的 License 文件替换旧的 License 文件。 !!! note - NebulaGraph Analytics License 过期后,用户无法正常使用 Analytics。为了保证业务正常运行,请及时更新 License。 + {{plato.name}} License 过期后,用户无法正常使用{{plato.name}}。为了保证业务正常运行,请及时更新 License。 diff --git a/docs-2.0/graph-computing/nebula-algorithm.md b/docs-2.0/graph-computing/nebula-algorithm.md index 0f3885fef39..ddd2663c242 100644 --- a/docs-2.0/graph-computing/nebula-algorithm.md +++ b/docs-2.0/graph-computing/nebula-algorithm.md @@ -1,12 +1,12 @@ # NebulaGraph Algorithm -[NebulaGraph Algorithm](https://github.com/vesoft-inc/nebula-algorithm) (简称 Algorithm)是一款基于 [GraphX](https://spark.apache.org/graphx/) 的 Spark 应用程序,通过提交 Spark 任务的形式使用完整的算法工具对 NebulaGraph 数据库中的数据执行图计算,也可以通过编程形式调用 lib 库下的算法针对 DataFrame 执行图计算。 +[NebulaGraph Algorithm](https://github.com/vesoft-inc/nebula-algorithm) (简称 Algorithm)是一款基于 [GraphX](https://spark.apache.org/graphx/) 的 Spark 应用程序,通过提交 Spark 任务的形式使用完整的算法工具对{{nebula.name}}数据库中的数据执行图计算,也可以通过编程形式调用 lib 库下的算法针对 DataFrame 执行图计算。 ## 版本兼容性 -NebulaGraph Algorithm 版本和 NebulaGraph 内核的版本对应关系如下。 +NebulaGraph Algorithm 版本和{{nebula.name}}内核的版本对应关系如下。 -|NebulaGraph 版本|NebulaGraph Algorithm 版本| +|{{nebula.name}}版本|NebulaGraph Algorithm 版本| |:---|:---| | nightly | 3.0-SNAPSHOT | | 3.0.0 ~ 3.4.x | 3.x.0 | @@ -19,7 +19,7 @@ NebulaGraph Algorithm 版本和 NebulaGraph 内核的版本对应关系如下。 在使用 Algorithm 之前,用户需要确认以下信息: -- NebulaGraph 服务已经部署并启动。详细信息,参考 [NebulaGraph 安装部署](../4.deployment-and-installation/1.resource-preparations.md "点击前往 NebulaGraph 安装部署")。 +- {{nebula.name}}服务已经部署并启动。详细信息,参考 [{{nebula.name}}安装部署](../4.deployment-and-installation/1.resource-preparations.md "点击前往{{nebula.name}}安装部署")。 - Spark 版本为 2.4.x。 @@ -64,13 +64,13 @@ NebulaGraph Algorithm 支持的图计算算法如下。 !!! note - 如果需要将算法结果写入到 NebulaGraph 中,请确保对应图空间中的 Tag 有和上表对应的属性名称和数据类型。 + 如果需要将算法结果写入到{{nebula.name}}中,请确保对应图空间中的 Tag 有和上表对应的属性名称和数据类型。 ## 实现方法 NebulaGraph Algorithm 实现图计算的流程如下: -1. 利用 NebulaGraph Spark Connector 从 NebulaGraph 数据库中读取图数据为 DataFrame。 +1. 利用 NebulaGraph Spark Connector 从{{nebula.name}}中读取图数据为 DataFrame。 2. 将 DataFrame 转换为 GraphX 的图。 @@ -126,7 +126,7 @@ NebulaGraph Algorithm 实现图计算的流程如下: !!! note - 执行算法的 DataFrame 默认第一列是起始点,第二列是目的点,第三列是边权重(非 NebulaGraph 中的 Rank)。 + 执行算法的 DataFrame 默认第一列是起始点,第二列是目的点,第三列是边权重(非{{nebula.name}}中的 Rank)。 ```bash val prConfig = new PRConfig(5, 1.0) @@ -160,23 +160,23 @@ NebulaGraph Algorithm 实现图计算的流程如下: hasWeight: false } - # NebulaGraph 相关配置 + # {{nebula.name}}相关配置 nebula: { - # 数据源。NebulaGraph 作为图计算的数据源时,nebula.read 的配置才生效。 + # 数据源。{{nebula.name}}作为图计算的数据源时,nebula.read 的配置才生效。 read: { # 所有 Meta 服务的 IP 地址和端口,多个地址用英文逗号(,)分隔。格式:"ip1:port1,ip2:port2"。 # 使用 docker-compose 部署,端口需要填写 docker-compose 映射到外部的端口 # 可以用`docker-compose ps`查看 metaAddress: "192.168.*.10:9559" - # NebulaGraph 图空间名称 + # {{nebula.name}}图空间名称 space: basketballplayer - # NebulaGraph Edge type, 多个 labels 时,多个边的数据将合并。 + # {{nebula.name}} Edge type, 多个 labels 时,多个边的数据将合并。 labels: ["serve"] - # NebulaGraph 每个 Edge type 的属性名称,此属性将作为算法的权重列,请确保和 Edge type 对应。 + # {{nebula.name}} 每个 Edge type 的属性名称,此属性将作为算法的权重列,请确保和 Edge type 对应。 weightCols: ["start_year"] } - # 数据落库。图计算结果落库到 NebulaGraph 时,nebula.write 的配置才生效。 + # 数据落库。图计算结果落库到{{nebula.name}}时,nebula.write 的配置才生效。 write:{ # Graph 服务的 IP 地址和端口,多个地址用英文逗号(,)分隔。格式:"ip1:port1,ip2:port2"。 # 使用 docker-compose 部署,端口需要填写 docker-compose 映射到外部的端口 @@ -189,9 +189,9 @@ NebulaGraph Algorithm 实现图计算的流程如下: user:root pswd:nebula # 在提交图计算任务之前需要自行创建图空间及 Tag - # NebulaGraph 图空间名称 + # {{nebula.name}}图空间名称 space:nb - # NebulaGraph Tag 名称,图计算结果会写入该 Tag。Tag 中的属性名称固定如下: + # {{nebula.name}} Tag 名称,图计算结果会写入该 Tag。Tag 中的属性名称固定如下: # PageRank:pagerank # Louvain:louvain # ConnectedComponent:cc @@ -256,7 +256,7 @@ NebulaGraph Algorithm 实现图计算的流程如下: !!! note - 当配置为 `sink: nebula` 的时候,意味着算法运算结果将被写回 NebulaGraph 集群,这对写回到的 TAG 中的属性名有隐含的约定。详情参考本文**支持算法**部分。 + 当配置为 `sink: nebula` 的时候,意味着算法运算结果将被写回{{nebula.name}}集群,这对写回到的 TAG 中的属性名有隐含的约定。详情参考本文**支持算法**部分。 2. 提交图计算任务。 diff --git a/docs-2.0/graph-computing/nebula-analytics.md b/docs-2.0/graph-computing/nebula-analytics.md index 49538eccce0..696ed743a3e 100644 --- a/docs-2.0/graph-computing/nebula-analytics.md +++ b/docs-2.0/graph-computing/nebula-analytics.md @@ -1,12 +1,12 @@ -# NebulaGraph Analytics +# {{plato.name}} -NebulaGraph Analytics 是一款高性能图计算框架工具,支持对 NebulaGraph 数据库中的数据执行图分析。 +{{plato.name}}是一款高性能图计算框架工具,支持对{{nebula.name}}数据库中的数据执行图分析。 ## 前提条件 -- [联系我们](https://www.nebula-graph.com.cn/contact)获取 Nebula Analytics 安装包。 +- [联系我们](https://www.nebula-graph.com.cn/contact)获取{{plato.name}}安装包。 -- [准备 Nebula Analytics License](analytics-ent-license.md)。 +- [准备{{plato.name}} License](analytics-ent-license.md)。 - 已部署 2.2.x 或以上版本的 [HDFS](https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/ClusterSetup.html)。 @@ -15,17 +15,17 @@ NebulaGraph Analytics 是一款高性能图计算框架工具,支持对 Nebula ## 适用场景 -支持将数据源为 NebulaGraph 集群、HDFS 上的 CSV 文件或本地 CSV 文件中的数据导入 NebulaGraph Analytics,并将图计算结果输出至 NebulaGraph 集群、HDFS 上的 CSV 文件或本地 CSV 文件。 +支持将数据源为{{nebula.name}}集群、HDFS 上的 CSV 文件或本地 CSV 文件中的数据导入 {{plato.name}},并将图计算结果输出至{{nebula.name}}集群、HDFS 上的 CSV 文件或本地 CSV 文件。 ## 使用限制 -输入和输出均为 NebulaGraph 集群时,图计算结果只能输出到数据源所在的图空间。 +输入和输出均为{{nebula.name}}集群时,图计算结果只能输出到数据源所在的图空间。 ## 版本兼容性 -NebulaGraph Analytics 版本和 NebulaGraph 内核的版本对应关系如下。 +{{plato.name}}版本和{{nebula.name}}内核的版本对应关系如下。 -|NebulaGraph 版本|NebulaGraph Analytics 版本| +|{{nebula.name}}版本|{{plato.name}}版本| |:---|:---| |3.4.0 ~ 3.4.1| 3.4.0 | |3.3.0 | 3.3.0 | @@ -35,7 +35,7 @@ NebulaGraph Analytics 版本和 NebulaGraph 内核的版本对应关系如下。 ## 支持算法 -NebulaGraph Analytics 支持的图计算算法如下。 +{{plato.name}}支持的图计算算法如下。 | 算法名 |说明 |分类 | |:----------------------|:----------------|:-----------| @@ -61,9 +61,9 @@ NebulaGraph Analytics 支持的图计算算法如下。 | Clustering Coefficient| 聚集系数 | 聚类 | | Jaccard | 杰卡德相似度 | 相似度 | -## 安装 NebulaGraph Analytics +## 安装 {{plato.name}} -1. 安装 NebulaGraph Analytics。在多个机器安装由多个 NebulaGraph Analytics 服务构成的集群时,需要安装路径相同,并设置节点间 SSH 免密登录。 +1. 安装 {{plato.name}}。在多个机器安装由多个{{plato.name}}服务构成的集群时,需要安装路径相同,并设置节点间 SSH 免密登录。 ``` $ sudo rpm -ivh --prefix @@ -88,12 +88,12 @@ NebulaGraph Analytics 支持的图计算算法如下。 export JAVA_HOME= ``` -3. 拷贝 License 至所有机器的 NebulaGraph Analytics 安装路径的`scripts`目录内。 +3. 拷贝 License 至所有机器的{{plato.name}}安装路径的`scripts`目录内。 + - 从 [GitHub 发布页](https://github.com/vesoft-inc/nebula-console/releases "the nebula-console Releases page")下载二进制文件。 @@ -14,29 +14,29 @@ Nebula Console 的获取方式如下: ## 功能说明 -### 连接 NebulaGraph +### 连接{{nebula.name}} -运行二进制文件 `nebula-console` 连接 NebulaGraph 的命令语法如下: +运行二进制文件 `nebula-console` 连接{{nebula.name}}的命令语法如下: ```bash -addr -port -u -p ``` -`path_of_console`是 Nebula Console 二进制文件的存储路径。 +`path_of_console`是 NebulaGraph Console 二进制文件的存储路径。 常用参数的说明如下。 | 参数 | 说明 | | - | - | | `-h/-help` | 显示帮助菜单。 | -| `-addr/-address` | 设置要连接的 Graph 服务的 IP 地址。默认地址为 127.0.0.1。 | +| `-addr/-address` | 设置要连接的 Graph 服务的 IP 地址。默认地址为 127.0.0.1。 | | `-P/-port` | 设置要连接的 Graph 服务的端口。默认端口为 9669。| -| `-u/-user` | 设置 NebulaGraph 账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为`root`)。 | +| `-u/-user` | 设置{{nebula.name}}账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为`root`)。 | | `-p/-password` | 设置用户名对应的密码。未启用身份认证时,密码可以填写任意字符。 | | `-t/-timeout` | 设置整数类型的连接超时时间。单位为毫秒,默认值为 120。 | | `-e/-eval` | 设置字符串类型的 nGQL 语句。连接成功后会执行一次该语句并返回结果,然后自动断开连接。 | | `-f/-file` | 设置存储 nGQL 语句的文件的路径。连接成功后会执行该文件内的 nGQL 语句并返回结果,执行完毕后自动断开连接。 | -| `-enable_ssl` | 连接 NebulaGraph 时使用 SSL 加密。 | +| `-enable_ssl` | 连接{{nebula.name}}时使用 SSL 加密。 | | `-ssl_root_ca_path` | 指定 CA 证书的存储路径。 | | `-ssl_cert_path` | 指定 CRT 证书的存储路径。 | | `-ssl_private_key_path` | 指定私钥文件的存储路径。 | @@ -51,7 +51,7 @@ Nebula Console 的获取方式如下: ### 管理参数 -Nebula Console 可以保存参数,用于参数化查询。 +NebulaGraph Console 可以保存参数,用于参数化查询。 !!! note @@ -229,7 +229,7 @@ nebula> :sleep N; ### 断开连接 -用户可以使用`:EXIT`或者`:QUIT`从 NebulaGraph 断开连接。为方便使用,Nebula Console 支持使用不带冒号(:)的小写命令,例如`quit`。 +用户可以使用`:EXIT`或者`:QUIT`从{{nebula.name}}断开连接。为方便使用,NebulaGraph Console 支持使用不带冒号(:)的小写命令,例如`quit`。 示例: diff --git a/docs-2.0/nebula-dashboard-ent/1.what-is-dashboard-ent.md b/docs-2.0/nebula-dashboard-ent/1.what-is-dashboard-ent.md index 296fa83bea0..fb9c54257dd 100644 --- a/docs-2.0/nebula-dashboard-ent/1.what-is-dashboard-ent.md +++ b/docs-2.0/nebula-dashboard-ent/1.what-is-dashboard-ent.md @@ -1,16 +1,16 @@ -# 什么是 NebulaGraph Dashboard(企业版) +# 什么是{{dashboard_ent.name} -NebulaGraph Dashboard(简称 Dashboard)是一款用于监控和管理 NebulaGraph 多集群中机器和服务状态的可视化工具。本文主要介绍企业版 Dashboard,社区版详情参见[什么是 NebulaGraph Dashboard(社区版)](../nebula-dashboard/1.what-is-dashboard.md)。 +{{dashboard_ent.name}是一款用于监控和管理{{nebula.name}}多集群中机器和服务状态的可视化工具。 !!! note - 用户也可以[在线试用 Dashboard](https://dashboard.nebula-graph.io/clusters)部分功能。 + 用户也可以[在线试用{{dashboard_ent.name}](https://dashboard.nebula-graph.io/clusters)部分功能。 ![intro-overview](https://docs-cdn.nebula-graph.com.cn/figures/intro-overview-20220711-cn.gif) ## 产品功能 -- 创建指定版本的 NebulaGraph 集群,支持批量导入节点、一键添加服务等功能。 +- 创建指定版本的{{nebula.name}}集群,支持批量导入节点、一键添加服务等功能。 - 支持在可视化界面进行集群导入、数据平衡、扩容缩容等操作。 - 支持管理多集群并可以查看集群的操作记录。 - 支持在可视化页面进行服务启动、停止、重启操作。 @@ -31,8 +31,8 @@ NebulaGraph Dashboard(简称 Dashboard)是一款用于监控和管理 Nebula ## 注意事项 - 监控数据默认保留 14 天,即只能查询最近 14 天内任意时间段的监控数据。 -- 只支持 2.5.0 及以上版本的 NebulaGraph。 -- 建议使用最新版本的 Chrome 访问 Dashboard。 +- 只支持 2.5.0 及以上版本的{{nebula.name}}。 +- 建议使用最新版本的 Chrome 访问{{dashboard_ent.name}。 - 建议使用官方提供的安装包进行集群创建或导入。 !!! note @@ -41,9 +41,9 @@ NebulaGraph Dashboard(简称 Dashboard)是一款用于监控和管理 Nebula ## 版本兼容性 -NebulaGraph 的版本和 Dashboard 企业版的版本对应关系如下。 +{{nebula.name}}的版本和{{dashboard_ent.name}的版本对应关系如下。 -|NebulaGraph 版本|Dashboard 版本| +|{{nebula.name}}版本|{{dashboard_ent.name}版本| |:---|:---| |3.4.0 ~ 3.4.1 |3.4.2、3.4.1、3.4.0、3.2.4、3.2.3、3.2.2、3.2.1、3.2.0| |3.3.0 |3.2.4、3.2.3、3.2.2、3.2.1、3.2.0| @@ -56,5 +56,5 @@ NebulaGraph 的版本和 Dashboard 企业版的版本对应关系如下。 ## 视频 -* [NebulaGraph Dashboard Demo 介绍(v3.0 版本)](https://www.bilibili.com/video/BV12A4y1f7KL/)(2 分 57 秒) +* [{{dashboard_ent.name} Demo 介绍(v3.0 版本)](https://www.bilibili.com/video/BV12A4y1f7KL/)(2 分 57 秒) diff --git a/docs-2.0/nebula-dashboard-ent/10.tasks.md b/docs-2.0/nebula-dashboard-ent/10.tasks.md index 22658fe51a6..ca218a015c4 100644 --- a/docs-2.0/nebula-dashboard-ent/10.tasks.md +++ b/docs-2.0/nebula-dashboard-ent/10.tasks.md @@ -1,6 +1,6 @@ # 任务中心 -NebulaGraph Dashboard 企业版支持展示正在运行的任务的进度和已结束的历史任务的信息。 +{{dashboard_ent.name}支持展示正在运行的任务的进度和已结束的历史任务的信息。 ## 注意事项 @@ -20,7 +20,7 @@ NebulaGraph Dashboard 企业版支持展示正在运行的任务的进度和已 ## 入口 -在 NebulaGraph Dashboard 企业版顶部导航栏中,单击**任务中心**可查看相关任务信息。 +在{{dashboard_ent.name}顶部导航栏中,单击**任务中心**可查看相关任务信息。 ## 运行中的任务 diff --git a/docs-2.0/nebula-dashboard-ent/11.dashboard-ent-license.md b/docs-2.0/nebula-dashboard-ent/11.dashboard-ent-license.md index 204b6b2b4d0..913ace920ff 100644 --- a/docs-2.0/nebula-dashboard-ent/11.dashboard-ent-license.md +++ b/docs-2.0/nebula-dashboard-ent/11.dashboard-ent-license.md @@ -1,11 +1,11 @@ -# NebulaGraph Dashboard 企业版 License +# {{dashboard_ent.name} License -License 是为用户提供的软件授权证书。用户在部署 NebulaGraph Dashboard 企业版时,需要设置 License 才能正常启动 NebulaGraph Dashboard 企业版。本文介绍 NebulaGraph Dashboard 企业版的 License 相关信息。 +License 是为用户提供的软件授权证书。用户在部署{{dashboard_ent.name}时,需要设置 License 才能正常启动{{dashboard_ent.name}。本文介绍{{dashboard_ent.name}的 License 相关信息。 ## 注意事项 -- 没有设置 License 时,NebulaGraph Dashboard 企业版无法启动。 +- 没有设置 License 时,{{dashboard_ent.name}无法启动。 - 请勿修改 License,否则会导致 License 失效。 @@ -21,15 +21,15 @@ License 是为用户提供的软件授权证书。用户在部署 NebulaGraph Da ## 获取方式 -[联系我们](https://www.nebula-graph.com.cn/contact)申请 NebulaGraph Dashboard 企业版 License。 +[联系我们](https://www.nebula-graph.com.cn/contact)申请{{dashboard_ent.name} License。 !!! note - 填写 [NebulaGraph Dashboard 试用申请](https://wj.qq.com/s2/10158890/69a8)可获取 30 天免费试用的 License。 + 填写 [{{dashboard_ent.name}试用申请](https://wj.qq.com/s2/10158890/69a8)可获取 30 天免费试用的 License。 -## NebulaGraph Dashboard 企业版 License 说明 +## {{dashboard_ent.name} License 说明 -NebulaGraph Dashboard 企业版 License 是一个名为`nebula.license`的文件,内容示例如下: +{{dashboard_ent.name} License 是一个名为`nebula.license`的文件,内容示例如下: ```bash ----------License Content Start---------- @@ -59,7 +59,7 @@ License 文件包含生效时间、过期时间等信息。说明如下。 |`organization`| 用户名称。| |`issuedDate`| License 生效时间。| |`expirationDate`| License 过期时间。| -|`product`| 产品类型。NebulaGraph Dashboard 企业版的产品类型为`nebula_graph_dashboard`。| +|`product`| 产品类型。{{dashboard_ent.name}的产品类型为`nebula_graph_dashboard`。| |`version`| 版本支持的信息。| |`licenseType`| License 类型(预留参数)。包括`enterprise`、`samll_bussiness`、`pro`、`individual`。| |`gracePeriod`| 证书过期后可继续使用服务的缓冲时间(单位天),超过缓冲期后停止服务。试用版的 License 过期后无缓冲期,默认值为 0。 | @@ -67,15 +67,15 @@ License 文件包含生效时间、过期时间等信息。说明如下。 ## 使用方式 -关于如何使用 NebulaGraph Dashboard 企业版 License,参见[部署 Dashboard 企业版](2.deploy-connect-dashboard-ent.md)。 +关于如何使用{{dashboard_ent.name} License,参见[部署{{dashboard_ent.name}](2.deploy-connect-dashboard-ent.md)。 ## 续期操作 -按照以下操作续期 NebulaGraph Dashboard 企业版 License。 +按照以下操作续期{{dashboard_ent.name} License。 -1. [联系我们](https://www.nebula-graph.com.cn/contact)申请新的 NebulaGraph Dashboard 企业版 License 文件`nebula.license`。 -2. 在 NebulaGraph Dashboard 企业版的安装目录下(例如,`/usr/local/nebula-dashboard-ent`),使用新的 License 文件替换旧的 License 文件。 +1. [联系我们](https://www.nebula-graph.com.cn/contact)申请新的{{dashboard_ent.name} License 文件`nebula.license`。 +2. 在{{dashboard_ent.name}的安装目录下(例如,`/usr/local/nebula-dashboard-ent`),使用新的 License 文件替换旧的 License 文件。 !!! note - NebulaGraph Dashboard 企业版 License 过期后,用户无法登录 Dashboard。为了保证业务正常运行,请及时更新 License。 \ No newline at end of file + License 过期后,用户无法登录{{dashboard_ent.name}。为了保证业务正常运行,请及时更新 License。 \ No newline at end of file diff --git a/docs-2.0/nebula-dashboard-ent/2.deploy-connect-dashboard-ent.md b/docs-2.0/nebula-dashboard-ent/2.deploy-connect-dashboard-ent.md index 76cab38dde9..83f1d4c8acd 100644 --- a/docs-2.0/nebula-dashboard-ent/2.deploy-connect-dashboard-ent.md +++ b/docs-2.0/nebula-dashboard-ent/2.deploy-connect-dashboard-ent.md @@ -1,34 +1,34 @@ -# 部署 Dashboard 企业版 +# 部署{{dashboard_ent.name} -本文将详细介绍如何安装并部署 Dashboard 企业版。 +本文将详细介绍如何安装并部署{{dashboard_ent.name}。 ## 前提条件 -在部署 Dashboard 之前,用户需要确认以下信息: +在部署{{dashboard_ent.name}之前,用户需要确认以下信息: -- 选择并下载符合版本的 Dashboard。关于 Dashboard 和 NebulaGraph 的版本对应关系,参见[版本兼容性](1.what-is-dashboard-ent.md)。 +- 选择并下载符合版本的{{dashboard_ent.name}。关于{{dashboard_ent.name}和{{nebula.name}}的版本对应关系,参见[版本兼容性](1.what-is-dashboard-ent.md)。 -- Dashboard 支持 SQLite 和 MySQL 存储 Dashboard 元数据。如果用户使用 MySQL,需准备版本为 5.7 以上的 [MySQL](https://www.mysql.com/cn/) 环境,创建名称为`dashboard`的数据库,字符集为`utf8`。 +- {{dashboard_ent.name}支持 SQLite 和 MySQL 存储{{dashboard_ent.name}元数据。如果用户使用 MySQL,需准备版本为 5.7 以上的 [MySQL](https://www.mysql.com/cn/) 环境,创建名称为`dashboard`的数据库,字符集为`utf8`。 !!! note - 如果使用 SQLite 存储 Dashboard 元数据,则无需准备 SQLite 环境。 + 如果使用 SQLite 存储{{dashboard_ent.name}元数据,则无需准备 SQLite 环境。 - 确保在安装开始前,以下端口处于未被使用状态。 | 端口号 | 说明 | | ------ | --------------------------------- | - | 7005 | Dashboard 提供 web 服务的端口。 | + | 7005 | {{dashboard_ent.name}提供 web 服务的端口。 | | 9090 | Prometheus 服务的端口。 | | 9200 | nebula-stats-exporter 服务的端口。 | - | 9093 | Alertmanager 服务的端口。接收 Prometheus 告警,发送告警通知给 Dashboard。| + | 9093 | Alertmanager 服务的端口。接收 Prometheus 告警,发送告警通知给{{dashboard_ent.name}。| | 9100 | node-exporter 的服务端口。在集群创建后,自动部署在目标机器内,收集集群中机器的资源信息,包括 CPU、内存、负载、磁盘和流量。 | - [准备 License](11.dashboard-ent-license.md)。 !!! enterpriseonly - License 仅在企业版提供,申请 License 需填写 [NebulaGraph Dashboard 试用申请](https://wj.qq.com/s2/10158890/69a8)。 + License 仅在企业版提供,申请 License 需填写 [{{dashboard_ent.name}试用申请](https://wj.qq.com/s2/10158890/69a8)。 ## 使用 TAR 包部署 @@ -38,7 +38,7 @@ !!! enterpriseonly - 用户可以[在线申请](https://wj.qq.com/s2/10158890/69a8)试用 Dashboard 企业版;如需购买,请[联系我们](https://www.nebula-graph.com.cn/contact)。点击[定价](https://nebula-graph.com.cn/pricing/)查看更多。 + 用户可以[在线申请](https://wj.qq.com/s2/10158890/69a8)试用{{dashboard_ent.name};如需购买,请[联系我们](https://www.nebula-graph.com.cn/contact)。点击[定价](https://nebula-graph.com.cn/pricing/)查看更多。 2. 使用`tar -xzvf`解压 TAR 包。 @@ -56,13 +56,13 @@ ```bash Name: dashboard-api - Host: 0.0.0.0 # 指定能访问 Dashboard 的地址。 - Port: 7005 # 访问 Dashboard 企业版服务的默认端口。 + Host: 0.0.0.0 # 指定能访问{{dashboard_ent.name}的地址。 + Port: 7005 # 访问{{dashboard_ent.name}企业版服务的默认端口。 MaxBytes: 1073741824 # Http 可接受请求的最大 ContentLength,默认为 1048576。取值范围:0 ~ 8388608。 Timeout: 15000 # 访问超时时间。 Debug: # 是否开启Debug模式。 Enable: false - Log: # Dashboard 运行日志设置。 + Log: # {{dashboard_ent.name}运行日志设置。 KeepDays: 7 # 日志保留天数。 Mode: console # 日志保存方式,支持 console 和 file。console 表示服务日志会记录在 webserver.log里;file 表示服务日志会分别记录在 access.log、error.log、severe.log、slow.log 和 stat.log 里。 Database: @@ -93,7 +93,7 @@ # 系统信息 System: - WebAddress: http://127.0.0.1:7005 # 外网访问 Dashboard 的地址,也可以设置为域名。用于一些接口回调,例如邮件被邀请人可以使用此链接访问 Dashboard。 + WebAddress: http://127.0.0.1:7005 # 外网访问{{dashboard_ent.name}的地址,也可以设置为域名。用于一些接口回调,例如邮件被邀请人可以使用此链接访问{{dashboard_ent.name}。 MessageStore: 90 # 保存告警消息的天数,默认 90 天。 # LDAP 信息 @@ -117,16 +117,16 @@ $ cp -r nebula.license /usr/local/nebula-dashboard-ent ``` -5. 启动 Dashboard。 +5. 启动{{dashboard_ent.name}。 - 可以使用以下命令一键启动 Dashboard。 + 可以使用以下命令一键启动{{dashboard_ent.name}。 ```bash $ cd /usr/local/nebula-dashboard-ent/scripts $ sudo ./dashboard.service start all ``` - 或是执行以下命令,分别启动 Prometheus、nebula-dashboard-server、nebula-stats-exporter 和 Alertmanager 依赖服务以启动 Dashboard。 + 或是执行以下命令,分别启动 Prometheus、nebula-dashboard-server、nebula-stats-exporter 和 Alertmanager 依赖服务以启动{{dashboard_ent.name}。 ```bash $ cd scripts @@ -138,7 +138,7 @@ !!! note - 在启动 Dashboard 后,如再修改配置文件的话,在修改后,可在`scripts`目录下执行`dashboard.service restart all`同步修改至 Dashboard 客户端页面中。 + 在启动{{dashboard_ent.name}后,如再修改配置文件的话,在修改后,可在`scripts`目录下执行`dashboard.service restart all`同步修改至{{dashboard_ent.name}客户端页面中。 ## 使用 RPM 包部署 @@ -148,11 +148,11 @@ !!! enterpriseonly - 用户可以[在线申请](https://wj.qq.com/s2/10158890/69a8)试用 Dashboard 企业版;如需购买,请[联系我们](https://www.nebula-graph.com.cn/contact)。点击[定价](https://nebula-graph.com.cn/pricing/)查看更多。 + 用户可以[在线申请](https://wj.qq.com/s2/10158890/69a8)试用{{dashboard_ent.name};如需购买,请[联系我们](https://www.nebula-graph.com.cn/contact)。点击[定价](https://nebula-graph.com.cn/pricing/)查看更多。 2. 使用`sudo rpm -ivh `命令安装 RPM 包。 - 例如,安装 Dashboard 企业版需要运行以下命令,默认安装路径为`/usr/local/nebula-dashboard-ent`: + 例如,安装{{dashboard_ent.name}需要运行以下命令,默认安装路径为`/usr/local/nebula-dashboard-ent`: ```bash sudo rpm -ivh nebula-dashboard-ent-.x86_64.rpm @@ -199,7 +199,7 @@ password: "" # SMTP 服务器的密码。 # 系统信息 system: - webAddress: http://127.0.0.1:7005 # 邮件被邀请人连接 Dashboard 的访问地址。 + webAddress: http://127.0.0.1:7005 # 邮件被邀请人连接{{dashboard_ent.name}的访问地址。 messageStore: 90 # 保存告警消息的天数,默认 90 天。 # LDAP 信息 ldap: @@ -213,7 +213,7 @@ ### 卸载 -执行以下命令卸载通过 RPM 包部署的 Dashboard。 +执行以下命令卸载通过 RPM 包部署的{{dashboard_ent.name}。 ``` sudo rpm -e @@ -227,12 +227,12 @@ sudo rpm -e !!! enterpriseonly - 用户可以[在线申请](https://wj.qq.com/s2/10158890/69a8)试用 Dashboard 企业版;如需购买,请[联系我们](https://www.nebula-graph.com.cn/contact)。点击[定价](https://nebula-graph.com.cn/pricing/)查看更多。 + 用户可以[在线申请](https://wj.qq.com/s2/10158890/69a8)试用{{dashboard_ent.name};如需购买,请[联系我们](https://www.nebula-graph.com.cn/contact)。点击[定价](https://nebula-graph.com.cn/pricing/)查看更多。 2. 使用`sudo dpkg -i `命令安装 DEB 包。 - 例如,安装 Dashboard 企业版需要运行以下命令,默认安装路径为`/usr/local/nebula-dashboard-ent`: + 例如,安装{{dashboard_ent.name}需要运行以下命令,默认安装路径为`/usr/local/nebula-dashboard-ent`: ```bash sudo dpkg -i nebula-dashboard-ent-{{dashboard_ent.release}}.ubuntu1804.amd64.deb @@ -240,7 +240,7 @@ sudo rpm -e !!! note - 使用 DEB 包安装 Dashboard 企业版时不支持自定义安装路径。 + 使用 DEB 包安装{{dashboard_ent.name}时不支持自定义安装路径。 3. 拷贝 License 至`nebula-dashboard-ent`目录下。 @@ -277,21 +277,21 @@ sudo rpm -e password: "" # SMTP 服务器的密码。 # 系统信息 system: - webAddress: http://127.0.0.1:7005 # 邮件被邀请人连接 Dashboard 的访问地址。 + webAddress: http://127.0.0.1:7005 # 邮件被邀请人连接{{dashboard_ent.name}的访问地址。 messageStore: 90 # 告警消息保存的天数,默认 90 天。 ``` ### 卸载 -执行以下命令卸载通过 DEB 包部署的 Dashboard。 +执行以下命令卸载通过 DEB 包部署的{{dashboard_ent.name}。 ``` sudo dpkg -r ``` -## 管理 Dashboard 服务 +## 管理{{dashboard_ent.name}服务 -Dashboard 使用脚本`dashboard.service`管理服务,包括启动、重启、停止和查看状态。 +{{dashboard_ent.name}使用脚本`dashboard.service`管理服务,包括启动、重启、停止和查看状态。 ```bash sudo /scripts/dashboard.service @@ -301,7 +301,7 @@ sudo /scripts/dashboard.service | 参数 | 说明 | | :------------------------- | :------------------- | -| `dashboard_path` | Dashboard 安装路径。 | +| `dashboard_path` | {{dashboard_ent.name}安装路径。 | | `-v` | 显示详细调试信息。 | | `-h` | 显示帮助信息。 | | `start` | 启动服务。 | @@ -316,22 +316,22 @@ sudo /scripts/dashboard.service !!! note - 查看 Dashboard 版本可以使用命令`./dashboard.service -version`。 + 查看{{dashboard_ent.name}版本可以使用命令`./dashboard.service -version`。 ### 示例 Dashboard 的安装在当前目录下,用户可以用以下命令管理服务。 ```bash -$ sudo /dashboard/scripts/dashboard.service start all #启动 Dashboard 所有服务。 -$ sudo /dashboard/scripts/dashboard.service stop all #停止 Dashboard 所有服务。 -$ sudo /dashboard/scripts/dashboard.service status all #查看 Dashboard 所有服务状态。 -$ sudo /dashboard/scripts/dashboard.service restart all #重启 Dashboard 所有服务状态。 +$ sudo /dashboard/scripts/dashboard.service start all #启动{{dashboard_ent.name}所有服务。 +$ sudo /dashboard/scripts/dashboard.service stop all #停止{{dashboard_ent.name}所有服务。 +$ sudo /dashboard/scripts/dashboard.service status all #查看{{dashboard_ent.name}所有服务状态。 +$ sudo /dashboard/scripts/dashboard.service restart all #重启{{dashboard_ent.name}所有服务状态。 ``` ## 查看日志 -用户可以在`logs`目录内查看 Dashboard 企业版的日志。 +用户可以在`logs`目录内查看{{dashboard_ent.name}的日志。 例如: @@ -347,13 +347,13 @@ cat logs/prometheus.log |`nebula-stats-exporter.log`| nebula-stats-exporter 服务日志。 | |`prometheus.log`| Prometheus 服务日志。 | |`br`| 备份恢复日志。 | -|`webserver.log`| Dashboard 服务日志。
Dashboard 的配置`Log.Mode`为`console`时生效。 | -|`access.log`| 访问日志。
Dashboard 的配置`Log.Mode`为`file`时生效。 | -|`error.log`| 错误日志。
Dashboard 的配置`Log.Mode`为`file`时生效。 | -|`severe.log`| 严重错误日志。
Dashboard 的配置`Log.Mode`为`file`时生效。 | -|`slow.log`| 慢日志。
Dashboard 的配置`Log.Mode`为`file`时生效。 | -|`stat.log`| 统计日志。
Dashboard 的配置`Log.Mode`为`file`时生效。 | +|`webserver.log`| {{dashboard_ent.name}服务日志。
{{dashboard_ent.name}的配置`Log.Mode`为`console`时生效。 | +|`access.log`| 访问日志。
{{dashboard_ent.name}的配置`Log.Mode`为`file`时生效。 | +|`error.log`| 错误日志。
{{dashboard_ent.name}的配置`Log.Mode`为`file`时生效。 | +|`severe.log`| 严重错误日志。
{{dashboard_ent.name}的配置`Log.Mode`为`file`时生效。 | +|`slow.log`| 慢日志。
{{dashboard_ent.name}的配置`Log.Mode`为`file`时生效。 | +|`stat.log`| 统计日志。
{{dashboard_ent.name}的配置`Log.Mode`为`file`时生效。 | ## 后续操作 -[连接 Dashboard](3.connect-dashboard.md) +[连接{{dashboard_ent.name}](3.connect-dashboard.md) diff --git a/docs-2.0/nebula-dashboard-ent/3.connect-dashboard.md b/docs-2.0/nebula-dashboard-ent/3.connect-dashboard.md index c2b09fa0b1f..97ff079bf31 100644 --- a/docs-2.0/nebula-dashboard-ent/3.connect-dashboard.md +++ b/docs-2.0/nebula-dashboard-ent/3.connect-dashboard.md @@ -1,27 +1,27 @@ -# 连接 Dashboard +# 连接{{dashboard_ent.name} -Dashboard 部署完成后,可以通过浏览器登录使用 Dashboard。 +{{dashboard_ent.name}部署完成后,可以通过浏览器登录使用{{dashboard_ent.name}。 ## 前提条件 -- Dashboard 相关服务已经启动。详情请参见[部署 Dashboard](2.deploy-connect-dashboard-ent.md)。 +- {{dashboard_ent.name}相关服务已经启动。详情请参见[部署{{dashboard_ent.name}](2.deploy-connect-dashboard-ent.md)。 - 建议使用 Chrome 89 及以上的版本的 Chrome 浏览器,否则可能有兼容问题。 ## 操作步骤 -1. 确认 Dashboard 服务所在机器的 IP 地址,在浏览器中输入`http://:7005`打开登录页面。 +1. 确认{{dashboard_ent.name}服务所在机器的 IP 地址,在浏览器中输入`http://:7005`打开登录页面。 - 如在浏览器窗口中看到以下登录界面,则表示已经成功部署并启动了 Dashboard。 + 如在浏览器窗口中看到以下登录界面,则表示已经成功部署并启动了{{dashboard_ent.name}。 ![dashboard-login-cn](https://docs-cdn.nebula-graph.com.cn/figures/login_20220909_cn.png) !!! note - 首次登录企业版 NebulaGraph Dashboard 的时候,页面显示*最终用户许可协议*的内容,请仔细阅读并单击**同意**。 + 首次登录{{dashboard_ent.name}的时候,页面显示*最终用户许可协议*的内容,请仔细阅读并单击**同意**。 -2. 使用初始化用户名`nebula`和密码`nebula`登录 Dashboard。 +2. 使用初始化用户名`nebula`和密码`nebula`登录{{dashboard_ent.name}。 !!! note - 登录 Dashboard 后可创建 LDAP 账户、OAuth2.0 账户和普通账户,然后使用不同的账户登录 Dashboard。关于账户的详情,参见[权限管理](5.account-management.md)。 + 登录{{dashboard_ent.name}后可创建 LDAP 账户、OAuth2.0 账户和普通账户,然后使用不同的账户登录{{dashboard_ent.name}。关于账户的详情,参见[权限管理](5.account-management.md)。 diff --git a/docs-2.0/nebula-dashboard-ent/3.create-import-dashboard/1.create-cluster.md b/docs-2.0/nebula-dashboard-ent/3.create-import-dashboard/1.create-cluster.md index 5fd33259c92..cc2bce593a9 100644 --- a/docs-2.0/nebula-dashboard-ent/3.create-import-dashboard/1.create-cluster.md +++ b/docs-2.0/nebula-dashboard-ent/3.create-import-dashboard/1.create-cluster.md @@ -1,26 +1,26 @@ # 创建集群 -本文介绍如何通过 Dashboard 创建集群。 +本文介绍如何通过{{dashboard_ent.name}创建集群。 ## 操作步骤 按以下方式创建集群: -1. 在 Dashboard 页面顶部,单击**集群管理**。 +1. 在{{dashboard_ent.name}页面顶部,单击**集群管理**。 2. 在集群管理页面,单击**创建集群**标签。 3. 在创建集群页面,完成以下配置: - 输入**集群名称**,最大可输入 15 个字符。 - - 选择 NebulaGraph 安装版本。 + - 选择{{nebula.name}}安装版本。 !!! note - Dashboard 默认内置企业版的 NebulaGraph 安装包。如果用户需要安装其他版本的 NebulaGraph,可以在**安装包管理**页面下载或上传,详情参见[安装包管理](../system-settings/manage-package.md)。 + {{dashboard_ent.name}默认内置企业版的{{nebula.name}}安装包。如果用户需要安装其他版本的{{nebula.name}},可以在**安装包管理**页面下载或上传,详情参见[安装包管理](../system-settings/manage-package.md)。 - 单击**上传证书**。 !!! note - 如果创建社区版的 NebulaGraph,则不需要上传 License 证书,忽略此步骤。 + 如果创建社区版的{{nebula.name}},则不需要上传 License 证书,忽略此步骤。 - 添加节点信息,提供两种方式: @@ -30,13 +30,13 @@ - SSH 密码:输入 SSH 用户对应的密码。 - - SSH 密钥:单击**上传**,选择节点的私钥文件。需要提前在待添加节点上生成密钥文件,并将私钥发送给当前电脑(非 Dashboard 机器)。如果设置了短密码(passphrase),也需要填写。 + - SSH 密钥:单击**上传**,选择节点的私钥文件。需要提前在待添加节点上生成密钥文件,并将私钥发送给当前电脑(非{{dashboard_ent.name}机器)。如果设置了短密码(passphrase),也需要填写。 ![cluster](https://docs-cdn.nebula-graph.com.cn/figures/create-cluster-221115_cn.png) - **批量导入节点**,批量添加多个节点的相关信息。批量导入需要先选择安装包后单击**下载 CSV 模版**。按照模版填写后上传,尽量确保节点信息正确,否则容易造成上传失败。 -4. 勾选节点并在节点右上方,单击需要添加的服务。创建集群需要给节点添加 3 种类型的服务。如果不熟悉 NebulaGraph 架构,建议单击**自动添加服务**按钮。 +4. 勾选节点并在节点右上方,单击需要添加的服务。创建集群需要给节点添加 3 种类型的服务。如果不熟悉{{nebula.name}}架构,建议单击**自动添加服务**按钮。 ![add-service](https://docs-cdn.nebula-graph.com.cn/figures/add-service-2022-04-08_cn.png) diff --git a/docs-2.0/nebula-dashboard-ent/3.create-import-dashboard/2.import-cluster.md b/docs-2.0/nebula-dashboard-ent/3.create-import-dashboard/2.import-cluster.md index ecfdf4554ee..66eb4e4220f 100644 --- a/docs-2.0/nebula-dashboard-ent/3.create-import-dashboard/2.import-cluster.md +++ b/docs-2.0/nebula-dashboard-ent/3.create-import-dashboard/2.import-cluster.md @@ -1,12 +1,12 @@ # 导入集群 -本文介绍如何通过 Dashboard 导入集群。当前版本仅支持官方下载的 DEB、RPM 包部署的集群和 Dashboard 创建的集群导入,暂不支持导入使用 Docker 和 Kubernetes 方式部署的集群。 +本文介绍如何通过{{dashboard_ent.name}导入集群。当前版本仅支持官方下载的 DEB、RPM 包部署的集群和{{dashboard_ent.name}创建的集群导入,暂不支持导入使用 Docker 和 Kubernetes 方式部署的集群。 ## 操作步骤 !!! caution - 在同一集群下,服务需要统一版本。不支持在同一集群中导入不同版本的 NebulaGraph 实例。 + 在同一集群下,服务需要统一版本。不支持在同一集群中导入不同版本的{{nebula.name}}实例。 1. 在各个服务的配置文件中,将`_server_addrs`和`local_ip`中的IP地址改为本机的IP地址,然后启动服务。 @@ -14,15 +14,15 @@ 具体步骤,参见[配置管理](../../5.configurations-and-logs/1.configurations/1.configurations.md)和[管理服务](../../4.deployment-and-installation/manage-service.md)。 2. 在集群管理页面,单击**导入集群**标签。 -3. 在导入集群页面,输入连接 NebulaGraph 的信息: +3. 在导入集群页面,输入连接{{nebula.name}}的信息: - Graphd Host:<其中一个 Graphd 进程的虚机 IP>:<端口号>。本示例设置为 `192.168.8.157:9669`。 - - 用户名:连接 NebulaGraph 的账号,本示例设置为`vesoft`。 - - 密码:连接 NebulaGraph 的密码,本示例设置为`nebula`。 + - 用户名:连接{{nebula.name}}的账号,本示例设置为`vesoft`。 + - 密码:连接{{nebula.name}}的密码,本示例设置为`nebula`。 !!! note - 因为 NebulaGraph 默认不启用身份验证,所以,一般情况下用户可以使用 `root` 账号和任意密码连接 NebulaGraph。 - 当 NebulaGraph 启用了身份验证后,用户只能使用指定的账号和密码连接 NebulaGraph。关于 NebulaGraph 的身份验证功能,参考 [NebulaGraph 用户手册](../../7.data-security/1.authentication/1.authentication.md "单击前往 NebulaGraph 官网")。 + 因为{{nebula.name}}默认不启用身份验证,所以,一般情况下用户可以使用 `root` 账号和任意密码连接{{nebula.name}}。 + 当{{nebula.name}}启用了身份验证后,用户只能使用指定的账号和密码连接{{nebula.name}}。关于{{nebula.name}}的身份验证功能,参考 [{{nebula.name}}用户手册](../../7.data-security/1.authentication/1.authentication.md "单击前往{{nebula.name}}官网")。 4. 在连接服务节点页面完成以下配置: @@ -31,7 +31,7 @@ !!! notice - 如果用户 SSH 账号没有操作 NebulaGraph 的权限,但是可以免密执行`sudo`命令,需要选择**使用 sudo**。 + 如果用户 SSH 账号没有操作{{nebula.name}}的权限,但是可以免密执行`sudo`命令,需要选择**使用 sudo**。 - **批量授权**需要上传 CSV 文件。请根据下载的 CSV 文件,编辑每个节点授权信息,尽量确保节点信息正确,否则容易造成上传失败。 diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/1.overview.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/1.overview.md index 44927710dc8..5d85fd61ce9 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/1.overview.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/1.overview.md @@ -1,12 +1,12 @@ # 集群总览 -本文主要介绍 Dashboard 的集群总览页面。 +本文主要介绍{{dashboard_ent.name}的集群总览页面。 -在 Dashboard 页面顶部,单击**集群管理**,然后在集群列表右侧,单击**详情**,即可进入指定集群的集群总览页面。 +在{{dashboard_ent.name}页面顶部,单击**集群管理**,然后在集群列表右侧,单击**详情**,即可进入指定集群的集群总览页面。 ## 概览 -Dashboard 的集群总览页面分为五个部分: +{{dashboard_ent.name}的集群总览页面分为五个部分: - 集群概况 - 告警 @@ -29,16 +29,16 @@ Dashboard 的集群总览页面分为五个部分: **集群信息**区域显示**集群名称**、**创建时间**、**过期时间**、**创建用户**、和**版本**的信息。 -- **集群名称**:显示 NebulaGraph 集群的名称。 -- **创建时间**:显示 NebulaGraph 集群的创建时间。 -- **过期时间**:显示 NebulaGraph 集群对应的 License 的过期时间。 +- **集群名称**:显示{{nebula.name}}集群的名称。 +- **创建时间**:显示{{nebula.name}}集群的创建时间。 +- **过期时间**:显示{{nebula.name}}集群对应的 License 的过期时间。 !!! enterpriseonly - 只有当创建或导入的集群为 NebulaGraph 企业版时,才会显示过期时间。 + 只有当创建或导入的集群为{{nebula.name}}企业版时,才会显示过期时间。 -- **创建用户**:显示创建或导入的 NebulaGraph 集群时使用的 Dashboard 用户名。 -- **版本**:显示 NebulaGraph 集群的版本信息。右侧有版本升级按钮,方便快速跳转至[版本升级](operator/version-upgrade.md)页面。 +- **创建用户**:显示创建或导入的{{nebula.name}}集群时使用的{{dashboard_ent.name}用户名。 +- **版本**:显示{{nebula.name}}集群的版本信息。右侧有版本升级按钮,方便快速跳转至[版本升级](operator/version-upgrade.md)页面。 在**集群信息**区域右上方,单击![watch](https://docs-cdn.nebula-graph.com.cn/figures/watch_cn.png)进入集群信息详情页面,查看集群的详细信息,包括名字、创建时间、创建用户、版本、创建用户的角色。 @@ -46,7 +46,7 @@ Dashboard 的集群总览页面分为五个部分: {{ ent.ent_begin }} !!! enterpriseonly - 针对 NebulaGraph 企业版集群,页面还会显示**证书**区域: + 针对{{nebula.name}}企业版集群,页面还会显示**证书**区域: - 显示集群使用的 License 的详细信息,包括集群 License 的状态、认证对象、生效时间、过期时间、支持创建的集群版本、证书类型。 diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/2.monitor.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/2.monitor.md index 73ec53121ea..8f553f743db 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/2.monitor.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/2.monitor.md @@ -1,8 +1,8 @@ # 集群监控 -本文主要介绍 Dashboard 的集群监控中的节点监控、服务监控以及可视化的监控大屏。 +本文主要介绍{{dashboard_ent.name}的集群监控中的节点监控、服务监控以及可视化的监控大屏。 -在 Dashboard 顶部导航栏,单击**集群管理**,在目标集群右侧单击**详情**,在左侧导航栏的**集群监控**下包含**节点监控**、**服务监控**和**监控大屏**。 +在{{dashboard_ent.name}顶部导航栏,单击**集群管理**,在目标集群右侧单击**详情**,在左侧导航栏的**集群监控**下包含**节点监控**、**服务监控**和**监控大屏**。 ## 节点监控 @@ -59,13 +59,13 @@ 服务监控页面还可以监控图空间级别指标。**只有当图空间指标的行为被触发后,用户才能指定图空间查看对应的图空间指标的信息**。图空间的监控指标记录不同图空间的数据。目前,只有 Graph 服务支持基于图空间的监控指标。 -Dashboard 支持的图空间指标,参见[图空间](../7.monitor-parameter.md)。 +{{dashboard_ent.name}支持的图空间指标,参见[图空间](../7.monitor-parameter.md)。 ![graph-metrics](https://docs-cdn.nebula-graph.com.cn/figures/space_level_metrics_cn.png) ## 可视化监控大屏 -Dashboard 企业版的可视化监控大屏帮助用户一目了然地把握集群的健康状态、服务及节点信息。 +{{dashboard_ent.name}的可视化监控大屏帮助用户一目了然地把握集群的健康状态、服务及节点信息。 单击**集群监控**->**监控大屏**进入监控大屏页面。 diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/5.operation-record.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/5.operation-record.md index f0a1902cd3d..48bf6255be1 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/5.operation-record.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/5.operation-record.md @@ -1,7 +1,7 @@ # 操作记录 -本文主要介绍 Dashboard 的操作记录。 +本文主要介绍{{dashboard_ent.name}的操作记录。 -在 Dashboard 顶部导航栏,单击**集群管理**,单击目标集群右侧**详情**,然后在左侧导航栏,单击**操作记录**进入操作记录页面。 +在{{dashboard_ent.name}顶部导航栏,单击**集群管理**,单击目标集群右侧**详情**,然后在左侧导航栏,单击**操作记录**进入操作记录页面。 在操作页面可以看到 1 小时、6 小时、12 小时、1 天、3 天、7 天和 14 天的操作记录,操作人、操作、时间、集群的信息。 \ No newline at end of file diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/6.settings.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/6.settings.md index 1a1df20b75a..918ccf8173c 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/6.settings.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/6.settings.md @@ -1,19 +1,19 @@ # 其他设置 -本文主要介绍 Dashboard 的其他设置。 +本文主要介绍{{dashboard_ent.name}的其他设置。 -在 Dashboard 顶部导航栏,单击**集群管理**,单击目标集群右侧**详情**,然后在左侧导航栏,单击**其他设置**进入其他设置页面。 +在{{dashboard_ent.name}顶部导航栏,单击**集群管理**,单击目标集群右侧**详情**,然后在左侧导航栏,单击**其他设置**进入其他设置页面。 - 集群信息:显示集群名称、创建时间、创建用户信息、集群所有者名称。 -- 解除绑定:解除绑定后从平台移除该集群的信息,对集群的服务和 NebulaGraph 数据不做任何操作。 +- 解除绑定:解除绑定后从平台移除该集群的信息,对集群的服务和{{nebula.name}}数据不做任何操作。 !!! note 在执行该操作时,用户需要输入集群名称确定解除绑定。 -- 删除集群:删除集群会停止集群服务同时保留 NebulaGraph 数据,并解除与平台的信息绑定,请谨慎操作。 +- 删除集群:删除集群会停止集群服务同时保留{{nebula.name}}数据,并解除与平台的信息绑定,请谨慎操作。 !!! note diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/9.notification.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/9.notification.md index 3ee67601054..161ce79781e 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/9.notification.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/9.notification.md @@ -1,8 +1,8 @@ # 通知 -通知是监控 NebulaGraph 集群的监控指标进行报警的服务。用户可以查看告警信息,设置告警规则和告警接收方。 +通知是监控{{nebula.name}}集群的监控指标进行报警的服务。用户可以查看告警信息,设置告警规则和告警接收方。 -在 Dashboard 顶部导航栏,单击**集群管理**,在目标集群右侧单击**详情**,在左侧导航栏的**通知**下包含**告警信息**、**告警规则**和**接收人设置**。 +在{{dashboard_ent.name}}顶部导航栏,单击**集群管理**,在目标集群右侧单击**详情**,在左侧导航栏的**通知**下包含**告警信息**、**告警规则**和**接收人设置**。 ![Alerts](https://docs-cdn.nebula-graph.com.cn/figures/alerts_cn.gif) @@ -20,17 +20,17 @@ - 支持根据信息的严重级别、类型、状态,筛选告警信息。用户可单击**重置**置空所有的筛选项。 - 用户可标记告警信息的处理状态,告警信息处理状态默认为`unsolved`,用户可手动标记为`处理中`和`已解决`状态。 -用户不可删除告警信息,但可在`nebula-dashboard-ent/config/config.yaml`文件中,通过修改`messageStore`参数的值来设置保存告警信息的天数。NebulaGraph Dashboard 默认保存 90 天内的信息。具体操作,参见[部署 Dashboard](../2.deploy-connect-dashboard-ent.md)。 +用户不可删除告警信息,但可在`nebula-dashboard-ent/config/config.yaml`文件中,通过修改`messageStore`参数的值来设置保存告警信息的天数。{{dashboard_ent.name}}默认保存 90 天内的信息。具体操作,参见[部署{{dashboard_ent.name}}](../2.deploy-connect-dashboard-ent.md)。 ## 告警规则 -对集群监控指标进行告警前,需要设置告警规则。用户可以自定义告警规则或者使用 Dashboard 内置的规则。 +对集群监控指标进行告警前,需要设置告警规则。用户可以自定义告警规则或者使用{{dashboard_ent.name}}内置的规则。 ### 创建自定义规则 用户创建自定义规则的步骤如下: -1. 在 Dashboard 顶部导航栏中,单击**集群管理**,然后在目标集群右侧,单击**详情**。 +1. 在{{dashboard_ent.name}}顶部导航栏中,单击**集群管理**,然后在目标集群右侧,单击**详情**。 2. 在**集群管理**页面左侧导航栏中,单击**通知**->**告警规则**。 3. 在**告警规则**页面,单击**自定义规则**,然后单击右侧的**创建规则**。 4. 设置创建规则的所需的信息。 @@ -79,7 +79,7 @@ ### 内置规则 -内置规则是 Dashboard 为用户提供的默认规则。用户可打开和关闭内置规则,开启状态显示 **active**,关闭状态显示 **disable**。 +内置规则是{{dashboard_ent.name}}为用户提供的默认规则。用户可打开和关闭内置规则,开启状态显示 **active**,关闭状态显示 **disable**。 !!! note 内置规则不可被修改和删除。 @@ -92,7 +92,7 @@ 用户可为目标集群设置接收告警消息的邮箱,并且查看 Webhook 的地址及 Webhook 的开启状态。有关 Webhook 的介绍,参见[通知设置](../system-settings/notification-endpoint.md)。 -1. 在 Dashboard 顶部导航栏中,单击**集群管理**,然后在目标集群右侧,单击**详情**。 +1. 在{{dashboard_ent.name}}顶部导航栏中,单击**集群管理**,然后在目标集群右侧,单击**详情**。 2. 在**集群管理**页面左侧导航栏中,单击**通知**->**接收人设置**。 3. 在**接收人设置**页面: diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/analysis-diagnosis/cluster-diagnosis.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/analysis-diagnosis/cluster-diagnosis.md index d148bfec64e..2bcfcde5140 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/analysis-diagnosis/cluster-diagnosis.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/analysis-diagnosis/cluster-diagnosis.md @@ -10,7 +10,7 @@ ## 入口 -1. 在 Dashboard 企业版顶部导航栏,单击**集群管理**。 +1. 在{{dashboard_ent.name}}顶部导航栏,单击**集群管理**。 2. 单击目标集群右侧**详情**。 3. 在左侧导航栏,单击**分析诊断**->**集群诊断**。 diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/analysis-diagnosis/slow-query-analyst.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/analysis-diagnosis/slow-query-analyst.md index ac68e144dca..0af37d98030 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/analysis-diagnosis/slow-query-analyst.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/analysis-diagnosis/slow-query-analyst.md @@ -1,6 +1,6 @@ # 慢查询分析 -在 DBA 的日常工作中,需要对集群的查询语句执行情况进行分析和治理,NebulaGraph Dashboard 支持查看慢查询的情况,包括语句、耗时、类型、执行计划等。 +在 DBA 的日常工作中,需要对集群的查询语句执行情况进行分析和治理,{{dashboard_ent.name}}支持查看慢查询的情况,包括语句、耗时、类型、执行计划等。 ## 功能介绍 @@ -9,11 +9,11 @@ ## 前提条件 -NebulaGraph 的 Graph 配置文件中,已设置`enable_record_slow_query`=`true`。详情参见 [Graph 服务配置](../../../5.configurations-and-logs/1.configurations/3.graph-config.md)。 +{{nebula.name}}的 Graph 配置文件中,已设置`enable_record_slow_query`=`true`。详情参见 [Graph 服务配置](../../../5.configurations-and-logs/1.configurations/3.graph-config.md)。 ## 入口 -1. 在 Dashboard 企业版顶部导航栏,单击**集群管理**。 +1. 在{{dashboard_ent.name}}顶部导航栏,单击**集群管理**。 2. 单击目标集群右侧的**详情**。 3. 在左侧导航栏,单击**分析诊断**->**慢查询分析**。 diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/cluster-information/audit-log.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/cluster-information/audit-log.md index a482a536f42..2f31c512341 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/cluster-information/audit-log.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/cluster-information/audit-log.md @@ -1,14 +1,14 @@ # 审计日志 -NebulaGraph 的审计日志功能可以将 Graph 服务接受到的所有操作进行分类存储,Dashboard 可以快速查看审计日志。 +{{nebula.name}}的审计日志功能可以将 Graph 服务接受到的所有操作进行分类存储,{{dashboard_ent.name}}可以快速查看审计日志。 !!! enterpriseonly - 仅企业版 NebulaGraph 支持审计日志。 + 仅企业版{{nebula.name}}支持审计日志。 ## 入口 -1. 在 Dashboard 企业版顶部导航栏,单击**集群管理**。 +1. 在{{dashboard_ent.name}}顶部导航栏,单击**集群管理**。 2. 单击目标集群右侧**详情**。 3. 在左侧导航栏,单击**集群信息**->**审计日志**。 diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/cluster-information/job-management.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/cluster-information/job-management.md index 0b250734726..f7ede0f0399 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/cluster-information/job-management.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/cluster-information/job-management.md @@ -1,6 +1,6 @@ # 集群作业管理 -Dashboard 可以管理指定图空间中的作业,包括查看、停止、恢复图空间内的作业,并支持查看单个作业的详情。 +{{dashboard_ent.name}}可以管理指定图空间中的作业,包括查看、停止、恢复图空间内的作业,并支持查看单个作业的详情。 !!! note @@ -8,14 +8,14 @@ Dashboard 可以管理指定图空间中的作业,包括查看、停止、恢 ## 前提条件 -NebulaGraph 集群版本需要为企业版 3.4.0 及以上或 NebulaGraph 社区版 3.3.0 及以上。 +{{nebula.name}}集群版本需要为企业版 3.4.0 及以上或{{nebula.name}}社区版 3.3.0 及以上。 ## 入口 -1. 在 Dashboard 企业版顶部导航栏,单击**集群管理**。 +1. 在{{dashboard_ent.name}}顶部导航栏,单击**集群管理**。 2. 单击目标集群右侧**详情**。 3. 在左侧导航栏,单击**集群信息**->**作业管理**。 -4. 选择任意一个在线的 Graph 服务地址,输入登录 NebulaGraph 的账号(非 Dashboard 登录账号)和对应密码。 +4. 选择任意一个在线的 Graph 服务地址,输入登录{{nebula.name}}的账号(非{{dashboard_ent.name}}登录账号)和对应密码。 5. 在左上角选择目标图空间。 ## 查看作业 diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/cluster-information/overview-info.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/cluster-information/overview-info.md index 4cf6629eade..aed4b2a30c8 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/cluster-information/overview-info.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/cluster-information/overview-info.md @@ -1,16 +1,16 @@ # 信息总览 -用户可以在**信息总览**页面查看 NebulaGraph 内核相关信息,包括 Storage 服务信息、Storage Leader 分布、NebulaGraph 各个服务的版本信息及所在节点信息、分片的分布情况及详细信息。 +用户可以在**信息总览**页面查看{{nebula.name}}内核相关信息,包括 Storage 服务信息、Storage Leader 分布、{{nebula.name}}各个服务的版本信息及所在节点信息、分片的分布情况及详细信息。 ## 入口 -1. 在 Dashboard 企业版顶部导航栏,单击**集群管理**。 +1. 在{{dashboard_ent.name}}顶部导航栏,单击**集群管理**。 2. 单击目标集群右侧**详情**。 3. 在左侧导航栏,单击**集群信息**->**信息总览**。 !!! note - 在查看集群信息之前,用户需要选择任意一个在线的 Graph 服务地址,输入登录 NebulaGraph 的账号(非 Dashboard 登录账号)和对应密码。 + 在查看集群信息之前,用户需要选择任意一个在线的 Graph 服务地址,输入登录{{nebula.name}}的账号(非{{dashboard_ent.name}}登录账号)和对应密码。 ![coreinfo](https://docs-cdn.nebula-graph.com.cn/figures/clustercore-info_2022-04-11_cn.png) @@ -18,13 +18,13 @@ 显示 Leader 数量及 Leader 的分布。 -- 单击右上角的 **Balance Leader** 按钮可以快速在 NebulaGraph 集群中均衡分布 Leader。关于 Leader 的详细信息,参见 [Storage 服务](../../../1.introduction/3.nebula-graph-architecture/4.storage-service.md)。 +- 单击右上角的 **Balance Leader** 按钮可以快速在{{nebula.name}}集群中均衡分布 Leader。关于 Leader 的详细信息,参见 [Storage 服务](../../../1.introduction/3.nebula-graph-architecture/4.storage-service.md)。 - 单击右上角的**详情**,查看 Leader 分布的详细信息。 ## 版本 -显示 NebulaGraph 所有服务版本及服务地址。单击右上角的**详情**,查看更多信息。 +显示{{nebula.name}}所有服务版本及服务地址。单击右上角的**详情**,查看更多信息。 ## 服务信息 diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/cluster-information/runtime-log.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/cluster-information/runtime-log.md index 909abdf82b2..28e11765669 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/cluster-information/runtime-log.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/cluster-information/runtime-log.md @@ -1,10 +1,10 @@ # 运行日志 -运行日志通常提供给 DBA 或开发人员查看,当系统出现故障,DBA 或开发人员可以根据运行日志定位问题。Dashboard 可以快速查看运行日志。 +运行日志通常提供给 DBA 或开发人员查看,当系统出现故障,DBA 或开发人员可以根据运行日志定位问题。{{dashboard_ent.name}}可以快速查看运行日志。 ## 入口 -1. 在 Dashboard 企业版顶部导航栏,单击**集群管理**。 +1. 在{{dashboard_ent.name}}顶部导航栏,单击**集群管理**。 2. 单击目标集群右侧**详情**。 3. 在左侧导航栏,单击**集群信息**->**运行日志**。 diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/backup-and-restore.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/backup-and-restore.md index d987bf9a781..a8eb568cada 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/backup-and-restore.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/backup-and-restore.md @@ -1,6 +1,6 @@ -# 使用 NebulaGraph Dashboard 备份和恢复 NebulaGraph 数据 +# 使用{{dashboard_ent.name}}备份和恢复{{nebula.name}}数据 -为了防止操作失误或者系统故障导致数据丢失,我们需要经常对数据进行备份,NebulaGraph 提供 Backup & Restore(BR)工具可帮助用户备份和恢复图数据。NebulaGraph Dashboard 企业版集成了 BR 能力并提供简单的 UI,用户只需几步即可进行数据备份和恢复操作。本文介绍如何使用 NebulaGraph Dashboard 备份和恢复 NebulaGraph 数据。 +为了防止操作失误或者系统故障导致数据丢失,我们需要经常对数据进行备份,{{nebula.name}}提供{{br_ent.name}}工具可帮助用户备份和恢复图数据。{{dashboard_ent.name}}集成了{{br_ent.name}}能力并提供简单的 UI,用户只需几步即可进行数据备份和恢复操作。本文介绍如何使用{{dashboard_ent.name}}备份和恢复{{nebula.name}}数据。 ## 使用限制 @@ -17,14 +17,14 @@ ## 前提条件 -- [使用 Dashboard 创建 NebulaGraph 集群](../../3.create-import-dashboard/1.create-cluster.md)。 +- [使用{{dashboard_ent.name}}创建{{nebula.name}}集群](../../3.create-import-dashboard/1.create-cluster.md)。 - 开通兼容 S3 协议的云存储服务并创建存储桶。具体操作,参见对应云存储服务的文档。 ## 操作步骤 ### 入口 -1. 在 NebulaGraph Dashboard 企业版顶部导航栏,单击**集群管理**。 +1. 在{{dashboard_ent.name}}顶部导航栏,单击**集群管理**。 2. 在目标集群右侧**详情**。 3. 在左侧导航栏,单击**集群操作**->**备份恢复**。 @@ -63,13 +63,13 @@ 环境检查包括: - - NebulaGraph 需正常运行。 + - {{nebula.name}}需正常运行。 - 登录云存储服务的密钥未过期。 - 业务流量。仅检查用户业务的 QPS 是否为 0,当 QPS 不为 0 时,页面提示用户在业务流量低峰期进行备份操作。 !!! note - 如果 NebulaGraph 运行异常或者云存储服务的登录信息有误,用户将无法提交备份。 + 如果{{nebula.name}}运行异常或者云存储服务的登录信息有误,用户将无法提交备份。 7. 在备份列表中查看创建的备份文件。 @@ -108,13 +108,13 @@ 环境检查包括: - - NebulaGraph 需正常运行。 + - {{nebula.name}}需正常运行。 - 登录云存储服务的密钥未过期。 - 业务流量。仅检查用户业务的 QPS 是否为 0,当 QPS 不为 0 时,页面提示用户在业务流量低峰期进行备份操作。 !!! note - 如果 NebulaGraph 运行异常或者云存储服务的登录信息有误,用户将无法提交备份。 + 如果{{nebula.name}}运行异常或者云存储服务的登录信息有误,用户将无法提交备份。 ### 恢复数据 @@ -134,7 +134,7 @@ 环境检查包括: - - NebulaGraph 需正常运行。 + - {{nebula.name}}需正常运行。 - 登录云存储服务的密钥未过期。 - 无业务流量的进入。 diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/member-management.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/member-management.md index e051e6ddccc..d25bae48c93 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/member-management.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/member-management.md @@ -4,7 +4,7 @@ ## 入口 -1. 在 Dashboard 企业版顶部导航栏,单击**集群管理**。 +1. 在{{dashboard_ent.name}}顶部导航栏,单击**集群管理**。 2. 单击目标集群右侧**详情**。 3. 在左侧导航栏,单击**集群操作**->**成员管理**。 @@ -14,7 +14,7 @@ !!! note - 集群管理员必需是用户创建的 Dashboard 企业版账户。关于如何创建账户,参见[权限管理](../../5.account-management.md)。 + 集群管理员必需是用户创建的{{dashboard_ent.name}}账户。关于如何创建账户,参见[权限管理](../../5.account-management.md)。 - 删除集群管理员:在集群管理员右侧操作列单击![delete](https://docs-cdn.nebula-graph.com.cn/figures/alert_delete_cn.png),然后单击**确认**。 diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/node.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/node.md index e2273f5289b..23a0dc43757 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/node.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/node.md @@ -4,7 +4,7 @@ ## 入口 -1. 在 Dashboard 企业版顶部导航栏,单击**集群管理**。 +1. 在{{dashboard_ent.name}}顶部导航栏,单击**集群管理**。 2. 单击目标集群右侧**详情**。 3. 在左侧导航栏,单击**集群操作**->**节点管理**。 @@ -16,7 +16,7 @@ - SSH 密码:输入 SSH 用户对应的密码。 -- SSH 密钥:单击**上传**,选择节点的私钥文件。需要提前在待添加节点上生成密钥文件,并将私钥发送给当前电脑(非 Dashboard 机器)。如果设置了短密码(passphrase),也需要填写。 +- SSH 密钥:单击**上传**,选择节点的私钥文件。需要提前在待添加节点上生成密钥文件,并将私钥发送给当前电脑(非{{dashboard_ent.name}}机器)。如果设置了短密码(passphrase),也需要填写。 !!! note diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/scale.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/scale.md index 92dfb2c4205..cd3858bde4a 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/scale.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/scale.md @@ -4,11 +4,11 @@ !!! enterpriseonly - 仅企业版 NebulaGraph 支持扩缩容。 + 仅企业版{{nebula.name}}支持扩缩容。 ## 入口 -1. 在 Dashboard 企业版顶部导航栏,单击**集群管理**。 +1. 在{{dashboard_ent.name}}顶部导航栏,单击**集群管理**。 2. 单击目标集群右侧**详情**。 3. 在左侧导航栏,单击**集群操作**->**扩缩容**。 diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/service.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/service.md index 5bc2f72a40e..ef9dabcc94c 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/service.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/service.md @@ -4,7 +4,7 @@ ## 入口 -1. 在 Dashboard 企业版顶部导航栏,单击**集群管理**。 +1. 在{{dashboard_ent.name}}顶部导航栏,单击**集群管理**。 2. 单击目标集群右侧**详情**。 3. 在左侧导航栏,单击**集群操作**->**服务管理**。 diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/update-config.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/update-config.md index 7433061da7f..8896129b651 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/update-config.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/update-config.md @@ -4,7 +4,7 @@ ## 入口 -1. 在 Dashboard 企业版顶部导航栏,单击**集群管理**。 +1. 在{{dashboard_ent.name}}顶部导航栏,单击**集群管理**。 2. 单击目标集群右侧**详情**。 3. 在左侧导航栏,单击**集群操作**->**更新配置**。 diff --git a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/version-upgrade.md b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/version-upgrade.md index bd3aa4cf03d..d485377dde0 100644 --- a/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/version-upgrade.md +++ b/docs-2.0/nebula-dashboard-ent/4.cluster-operator/operator/version-upgrade.md @@ -1,6 +1,6 @@ # 版本升级 -Dashboard 企业版支持升级现有 NebulaGraph 集群的版本。 +{{dashboard_ent.name}}支持升级现有{{nebula.name}}集群的版本。 !!! caution @@ -10,32 +10,32 @@ Dashboard 企业版支持升级现有 NebulaGraph 集群的版本。 !!! note - - 仅支持升级版本不低于 **3.0.0** 的 NebulaGraph 集群,且最高升级至 **3.2.1** 版本。如需升级至 **3.3.0**,请参见[手动升级文档](../../..//4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-from-300-to-latest.md)。 + - 仅支持升级版本不低于 **3.0.0** 的{{nebula.name}}集群,且最高升级至 **3.2.1** 版本。如需升级至 **3.3.0**,请参见[手动升级文档](../../..//4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-from-300-to-latest.md)。 - 不支持跨大版本升级集群。 - 支持社区版升级为企业版(需要上传校验 License)或企业版升级为社区版。 - 支持升级为当前大版本内的任意小版本(包括比当前版本低的小版本)。 ## 操作说明 -1. 在 Dashboard 企业版顶部导航栏,单击**集群管理**。 +1. 在{{dashboard_ent.name}}顶部导航栏,单击**集群管理**。 2. 在目标集群右侧,单击**详情**。 3. 在左侧导航栏,单击**集群操作**->**版本升级**。 -4. 在**版本升级**页面确认**当前NebulaGraph版本**,选择**待升级目标版本**。 +4. 在**版本升级**页面确认**当前{{nebula.name}}版本**,选择**待升级目标版本**。 !!! note 如果没有找到合适的版本,单击**包管理中心**,下载或上传所需的版本安装包。详情参见[安装包管理](../../system-settings/manage-package.md)。 -5. 单击**上传证书**上传 Dashboard 企业版 License(如升级社区版 NebulaGraph 集群,忽略此步)。 +5. 单击**上传证书**上传{{dashboard_ent.name}} License(如升级社区版{{nebula.name}}集群,忽略此步)。 !!! enterpriseonly - 此步骤仅针对升级企业版 NebulaGraph 集群。 + 此步骤仅针对升级企业版{{nebula.name}}集群。 6. 单击**下一步**,进行升级检查,然后再单击**下一步**。 集群在升级期间将会停机,升级完成后会自动重启服务。升级前您可以通过**查看诊断报告**了解集群线上运行情况,从而帮助您判断当前集群停机升级是否合适。 -7. 再次确认升级信息,包括**集群名称**、**当前NebulaGraph版本**和**待升级NebulaGraph版本**,然后单击**升级**。 +7. 再次确认升级信息,包括**集群名称**、**当前{{nebula.name}}版本**和**待升级{{nebula.name}}版本**,然后单击**升级**。 用户可以在在[任务中心](../../10.tasks.md)查看升级任务信息,类型为`version update`。 diff --git a/docs-2.0/nebula-dashboard-ent/5.account-management.md b/docs-2.0/nebula-dashboard-ent/5.account-management.md index 426f7dffcd1..f20f5382a69 100644 --- a/docs-2.0/nebula-dashboard-ent/5.account-management.md +++ b/docs-2.0/nebula-dashboard-ent/5.account-management.md @@ -1,6 +1,6 @@ # 权限管理 -用户可以使用不同账户登录 NebulaGraph Dashboard 企业版,不同账户拥有不同权限。本文介绍账户类型、账户角色及角色权限等。 +用户可以使用不同账户登录{{dashboard_ent.name},不同账户拥有不同权限。本文介绍账户类型、账户角色及角色权限等。 !!! note @@ -8,11 +8,11 @@ ## 账户类型 -Dashboard 企业版的初始化账户名为`nebula`和密码为`nebula`。使用初始化账户名和密码登录 Dashboard 企业版后,即可创建不同类型的账户:LDAP 账户、OAuth2.0 账户和普通账户。 +{{dashboard_ent.name}的初始化账户名为`nebula`和密码为`nebula`。使用初始化账户名和密码登录{{dashboard_ent.name}后,即可创建不同类型的账户:LDAP 账户、OAuth2.0 账户和普通账户。 ### LDAP 账户 -Dashboard 企业版通过对接 [LDAP(Lightweight Directory Access Protocol)](https://ldap.com/),使得用户可以使用企业内部账户体系登录 Dashboard 企业版。 +{{dashboard_ent.name}通过对接 [LDAP(Lightweight Directory Access Protocol)](https://ldap.com/),使得用户可以使用企业内部账户体系登录{{dashboard_ent.name}。 ### OAuth2.0 账户 @@ -20,15 +20,15 @@ Dashboard 企业版通过对接 [LDAP(Lightweight Directory Access Protocol) 该功能仍处于测试中,后续会继续进行调整优化。 -Dashboard 企业版基于 [OAuth2.0](https://oauth.net/2/) 协议,使用 access_token 来授权第三方应用访问受保护的信息。 +{{dashboard_ent.name}基于 [OAuth2.0](https://oauth.net/2/) 协议,使用 access_token 来授权第三方应用访问受保护的信息。 ### 普通账户 -Dashboard 企业版支持用户自行创建本地账号。 +{{dashboard_ent.name}支持用户自行创建本地账号。 ## 账户角色 -用户可以为账户设置不同的角色,不同的角色拥有的权限不同。Dashboard 企业版中的账户角色有两种类型:系统角色(`admin`和`user`)和集群角色(`owner`和`operator`)。 +用户可以为账户设置不同的角色,不同的角色拥有的权限不同。{{dashboard_ent.name}中的账户角色有两种类型:系统角色(`admin`和`user`)和集群角色(`owner`和`operator`)。 系统角色和集群角色的关系及介绍如下。 @@ -53,14 +53,14 @@ Dashboard 企业版支持用户自行创建本地账号。 角色为`admin`的账户可以创建账户。步骤如下: -1. 在 Dashboard 企业版页面的顶部,单击**权限管理**,然后单击**创建**。 +1. 在{{dashboard_ent.name}页面的顶部,单击**权限管理**,然后单击**创建**。 2. 选择创建方式并填入信息,然后单击**确定**。 - - 邀请(LDAP 或 OAuth2.0 账户):设置被邀请人的账号类型、企业邮箱和角色。被邀请人单击邮件中的 **Accept** 按钮激活账户后,然后单击**登录**自动跳转至 Dashboard 企业版登录页面。被邀请人使用企业邮箱账号和邮箱密码即可登录 Dashboard 企业版。 + - 邀请(LDAP 或 OAuth2.0 账户):设置被邀请人的账号类型、企业邮箱和角色。被邀请人单击邮件中的 **Accept** 按钮激活账户后,然后单击**登录**自动跳转至{{dashboard_ent.name}登录页面。被邀请人使用企业邮箱账号和邮箱密码即可登录{{dashboard_ent.name}。 !!! note - 开启 LDAP 后还支持自动注册。在登录页面选择 LDAP 方式输入未注册账号登录时,Dashboard 会自动注册该账号,但是角色权限为`user`。 + 开启 LDAP 后还支持自动注册。在登录页面选择 LDAP 方式输入未注册账号登录时,{{dashboard_ent.name}会自动注册该账号,但是角色权限为`user`。 - 创建账户(普通账户):设置新账户的登录名称、密码、角色。关于角色的详情,参见上文。 diff --git a/docs-2.0/nebula-dashboard-ent/7.monitor-parameter.md b/docs-2.0/nebula-dashboard-ent/7.monitor-parameter.md index b46e43a9929..08100fbc62e 100644 --- a/docs-2.0/nebula-dashboard-ent/7.monitor-parameter.md +++ b/docs-2.0/nebula-dashboard-ent/7.monitor-parameter.md @@ -1,6 +1,6 @@ # 监控指标说明 -本文介绍 Dashboard 中展示的 NebulaGraph 监控指标。 +本文介绍{{dashboard_ent.name}中展示的{{nebula.name}}监控指标。 ## 机器 @@ -8,7 +8,7 @@ - 以下机器指标适用于 Linux 操作系统。 - 磁盘容量和流量的默认单位为字节(Byte),页面显示时单位会随着数据量级而变化,例如流量低于 1 KB/s 时单位为 Bytes/s。 - - 对于所有版本的企业版 Dashboard,机器的 Buff 和 Cache 所占的内存没有被计算在内存使用率中。 + - 对于所有版本的{{dashboard_ent.name},机器的 Buff 和 Cache 所占的内存没有被计算在内存使用率中。 ### CPU |参数|说明| @@ -16,8 +16,8 @@ |`cpu_utilization`| CPU 已使用百分比。| |`cpu_idle`| CPU 空闲百分比。| |`cpu_wait`| 等待 IO 操作的 CPU 百分比。| -|`cpu_user`| 用户空间(非 NebulaGraph 图空间)占用的 CPU 百分比。| -|`cpu_system`| 内核空间(非 NebulaGraph 内核空间)占用的 CPU 百分比。| +|`cpu_user`| 用户空间(非{{nebula.name}}图空间)占用的 CPU 百分比。| +|`cpu_system`| 内核空间(非{{nebula.name}}内核空间)占用的 CPU 百分比。| ### 内存 @@ -79,7 +79,7 @@ !!! note - 以下为 Dashboard 获取内核的全量指标,但 Dashboard 仅展示重要的指标。 + 以下为{{dashboard_ent.name}获取内核的全量指标,但{{dashboard_ent.name}仅展示重要的指标。 {% include "/source-monitoring-metrics.md" %} diff --git a/docs-2.0/nebula-dashboard-ent/8.faq.md b/docs-2.0/nebula-dashboard-ent/8.faq.md index 23455e2fe6c..c8679580409 100644 --- a/docs-2.0/nebula-dashboard-ent/8.faq.md +++ b/docs-2.0/nebula-dashboard-ent/8.faq.md @@ -1,12 +1,12 @@ # 常见问题 FAQ -本文列出了使用 Dashboard 时可能遇到的常见问题,用户可以使用文档中心或者浏览器的搜索功能查找相应问题。 +本文列出了使用{{dashboard_ent.name}时可能遇到的常见问题,用户可以使用文档中心或者浏览器的搜索功能查找相应问题。 ## 什么是集群、节点和服务? -- 集群:Dashboard 集群特指由多个 NebulaGraph 服务所在的节点组成的一组系统。 -- 节点:特指承载运行 NebulaGraph 服务的物理或虚拟机。 -- 服务:特指 NebulaGraph 服务,包括 Metad,Storaged 和 Graphd。 +- 集群:{{dashboard_ent.name}集群特指由多个{{nebula.name}}服务所在的节点组成的一组系统。 +- 节点:特指承载运行{{nebula.name}}服务的物理或虚拟机。 +- 服务:特指{{nebula.name}}服务,包括 Metad,Storaged 和 Graphd。 ## 什么是集群的状态? @@ -18,32 +18,32 @@ ## 为什么要授权节点? -由于集群的管理操作需要获取对应节点的 SSH 信息,因此 Dashboard 在执行操作前,需要先拥有最少可执行权限的 SSH 账号密码信息。 +由于集群的管理操作需要获取对应节点的 SSH 信息,因此{{dashboard_ent.name}在执行操作前,需要先拥有最少可执行权限的 SSH 账号密码信息。 ## 什么是扩缩容? -NebulaGraph 是分布式图数据库,可以支持运行时动态扩展和缩减服务。也可以通过 Dashboard 可视化的动态扩展或缩减 Storage 和 Graph 服务(不可以扩缩容 Metad)。 +{{nebula.name}}是分布式图数据库,可以支持运行时动态扩展和缩减服务。也可以通过{{dashboard_ent.name}可视化的动态扩展或缩减 Storage 和 Graph 服务(不可以扩缩容 Metad)。 ## 为什么不能操作 Meta 服务? -Meta 服务主要存储 NebulaGraph 数据库中的元数据。一旦 Meta 服务出现问题,整个集群会面临瘫痪风险。且 Meta 处理的数据量较少,一般不会出现扩缩容场景,因此我们直接在 Dashboard 中禁用了操作 Meta,防止出现用户误操作导致集群不可用的情况。 +Meta 服务主要存储{{nebula.name}}数据库中的元数据。一旦 Meta 服务出现问题,整个集群会面临瘫痪风险。且 Meta 处理的数据量较少,一般不会出现扩缩容场景,因此我们直接在{{dashboard_ent.name}中禁用了操作 Meta,防止出现用户误操作导致集群不可用的情况。 ## 扩缩容之后对数据有什么影响? -- 扩容 Storage:Dashboard 会在指定的机器上创建并运行 Storage 服务,对已有数据不会造成影响,可以在左侧导航栏**集群信息**->**信息总览**中的`Storage Leader 分布`和 `Partition`分布区域,根据自身需求选择进行`Balance Leader`或者`Balance Data`操作。 +- 扩容 Storage:{{dashboard_ent.name}会在指定的机器上创建并运行 Storage 服务,对已有数据不会造成影响,可以在左侧导航栏**集群信息**->**信息总览**中的`Storage Leader 分布`和 `Partition`分布区域,根据自身需求选择进行`Balance Leader`或者`Balance Data`操作。 - 缩容 Storage:如果 Storage 上有分片的话,无法直接缩容。用户需要先在左侧导航栏**集群信息**->**信息总览**中的`Partition 分布`区域单击`Balance Data Remove`,将指定的 Storage 服务中的所有分片迁移至其他 Storage 服务中。 - 扩缩容 Graph 对数据不会有影响。 -## 为什么无法启动 Dashboard(企业版)? +## 为什么无法启动{{dashboard_ent.name}? -- 确保 License 已拷贝至 Dashboard 目录中,且执行了`sudo ./dashboard.service start all`命令。 +- 确保 License 已拷贝至{{dashboard_ent.name}目录中,且执行了`sudo ./dashboard.service start all`命令。 - 确保 License 未过期。 -用户也可以在 Dashboard 目录中执行`cat logs/webserver.log`查看各个模块的启动信息。如果满足以上条件,仍无法启动 Dashboard,请前往 [NebulaGraph 官方论坛](https://discuss.nebula-graph.com.cn/ "点击前往 NebulaGraph 官方论坛")咨询。 +用户也可以在{{dashboard_ent.name}目录中执行`cat logs/webserver.log`查看各个模块的启动信息。如果满足以上条件,仍无法启动{{dashboard_ent.name},请前往 [{{nebula.name}}官方论坛](https://discuss.nebula-graph.com.cn/ "点击前往{{nebula.name}}官方论坛")咨询。 -## 是否可以手动添加 NebulaGraph 安装包? +## 是否可以手动添加{{nebula.name}}安装包? -Dashboard 支持手动添加安装包,可以点击[如何获取 NebulaGraph](https://nebula-graph.com.cn/download/) 下载所需系统和版本的 RPM 包或 DEB 包,添加到`nebula-dashboard-ent/download/nebula-graph`路径下。在创建、扩容集群时,可选择添加的包进行部署。 +{{dashboard_ent.name}支持手动添加安装包,可以点击[如何获取{{nebula.name}}](https://nebula-graph.com.cn/download/) 下载所需系统和版本的 RPM 包或 DEB 包,添加到`nebula-dashboard-ent/download/nebula-graph`路径下。在创建、扩容集群时,可选择添加的包进行部署。 -- NebulaGraph:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 +- {{nebula.name}}:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 ## 前提条件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署 NebulaGraph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: +- 已经[安装部署{{nebula.name}}](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有 NebulaGraph 写权限的用户名和密码。 + - 拥有{{nebula.name}}写权限的用户名和密码。 - 已经编译 Exchange。详情请参见[编译 Exchange](../ex-ug-compile.md)。本示例中使用 Exchange {{exchange.release}}。 - 已经安装 Spark。 -- 了解 NebulaGraph 中创建的 Schema 信息,包括 Tag 和 Edge type 的名称、属性等。 +- 了解{{nebula.name}}中创建的 Schema 信息,包括 Tag 和 Edge type 的名称、属性等。 - 已经安装并开启 Hadoop 服务。 ## 操作步骤 -### 步骤 1:在 NebulaGraph 中创建 Schema +### 步骤 1:在{{nebula.name}}中创建 Schema -分析数据,按以下步骤在 NebulaGraph 中创建 Schema: +分析数据,按以下步骤在{{nebula.name}}中创建 Schema: -1. 确认 Schema 要素。NebulaGraph 中的 Schema 要素如下表所示。 +1. 确认 Schema 要素。{{nebula.name}}中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -97,7 +97,7 @@ oracle> desc serve; | Edge Type | `follow` | `degree int` | | Edge Type | `serve` | `start_year int, end_year int` | -2. 在 NebulaGraph 中创建一个图空间 **basketballplayer**,并创建一个 Schema,如下所示。 +2. 在{{nebula.name}}中创建一个图空间 **basketballplayer**,并创建一个 Schema,如下所示。 ```ngql ## 创建图空间 @@ -144,21 +144,21 @@ oracle> desc serve; } } -# NebulaGraph 相关配置 +# {{nebula.name}} 相关配置 nebula: { address:{ - # 以下为 NebulaGraph 的 Graph 服务和 Meta 服务所在机器的 IP 地址及端口。 + # 以下为 {{nebula.name}} 的 Graph 服务和 Meta 服务所在机器的 IP 地址及端口。 # 如果有多个地址,格式为 "ip1:port","ip2:port","ip3:port"。 # 不同地址之间以英文逗号 (,) 隔开。 graph:["127.0.0.1:9669"] #任意一个 Meta 服务的地址。 - #如果您的 NebulaGraph 在虚拟网络中,如k8s,请配置 Leader Meta的地址。 + #如果您的 {{nebula.name}} 在虚拟网络中,如k8s,请配置 Leader Meta的地址。 meta:["127.0.0.1:9559"] } - # 填写的账号必须拥有 NebulaGraph 相应图空间的写数据权限。 + # 填写的账号必须拥有 {{nebula.name}} 相应图空间的写数据权限。 user: root pswd: nebula - # 填写 NebulaGraph 中需要写入数据的图空间名称。 + # 填写 {{nebula.name}} 中需要写入数据的图空间名称。 space: basketballplayer connection: { timeout: 3000 @@ -179,12 +179,12 @@ oracle> desc serve; # 处理点 tags: [ { - # NebulaGraph 中对应的 Tag 名称。 + # {{nebula.name}} 中对应的 Tag 名称。 name: player type: { # 指定数据源文件格式,设置为 Oracle。 source: oracle - # 指定如何将点数据导入 NebulaGraph:Client 或 SST。 + # 指定如何将点数据导入{{nebula.name}}:Client 或 SST。 sink: client } @@ -196,18 +196,18 @@ oracle> desc serve; table: "basketball.player" sentence: "select playerid, name, age from player" - # 在 fields 里指定 player 表中的列名称,其对应的 value 会作为 NebulaGraph 中指定属性。 + # 在 fields 里指定 player 表中的列名称,其对应的 value 会作为{{nebula.name}}中指定属性。 # fields 和 nebula.fields 里的配置必须一一对应。 # 如果需要指定多个列名称,用英文逗号(,)隔开。 fields: [age,name] nebula.fields: [age,name] - # 指定表中某一列数据为 NebulaGraph 中点 VID 的来源。 + # 指定表中某一列数据为{{nebula.name}}中点 VID 的来源。 vertex: { field:playerid } - # 单批次写入 NebulaGraph 的数据条数。 + # 单批次写入{{nebula.name}}的数据条数。 batch: 256 # Spark 分区数量 @@ -243,15 +243,15 @@ oracle> desc serve; edges: [ # 设置 Edge type follow 相关信息 { - # NebulaGraph 中对应的 Edge type 名称。 + # {{nebula.name}}中对应的 Edge type 名称。 name: follow type: { # 指定数据源文件格式,设置为 Oracle。 source: oracle - # 指定边数据导入 NebulaGraph 的方式, - # 指定如何将点数据导入 NebulaGraph:Client 或 SST。 + # 指定边数据导入 {{nebula.name}} 的方式, + # 指定如何将点数据导入{{nebula.name}}:Client 或 SST。 sink: client } @@ -262,7 +262,7 @@ oracle> desc serve; table: "basketball.follow" sentence: "select src_player, dst_player, degree from follow" - # 在 fields 里指定 follow 表中的列名称,其对应的 value 会作为 NebulaGraph 中指定属性。 + # 在 fields 里指定 follow 表中的列名称,其对应的 value 会作为{{nebula.name}}中指定属性。 # fields 和 nebula.fields 里的配置必须一一对应。 # 如果需要指定多个列名称,用英文逗号(,)隔开。 fields: [degree] @@ -281,7 +281,7 @@ oracle> desc serve; # 指定一个列作为 rank 的源(可选)。 #ranking: rank - # 单批次写入 NebulaGraph 的数据条数。 + # 单批次写入{{nebula.name}}的数据条数。 batch: 256 # Spark 分区数量 @@ -322,9 +322,9 @@ oracle> desc serve; } ``` -### 步骤 3:向 NebulaGraph 导入数据 +### 步骤 3:向{{nebula.name}}导入数据 -运行如下命令将 Oracle 数据导入到 NebulaGraph 中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 +运行如下命令将 Oracle 数据导入到{{nebula.name}}中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 ```bash ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c @@ -344,7 +344,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.excha ### 步骤 4:(可选)验证数据 -用户可以在 NebulaGraph 客户端(例如 NebulaGraph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在{{nebula.name}}客户端(例如 NebulaGraph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql LOOKUP ON player YIELD id(vertex); @@ -352,6 +352,6 @@ LOOKUP ON player YIELD id(vertex); 用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md) 查看统计数据。 -### 步骤 5:(如有)在 NebulaGraph 中重建索引 +### 步骤 5:(如有)在{{nebula.name}}中重建索引 -导入数据后,用户可以在 NebulaGraph 中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 +导入数据后,用户可以在{{nebula.name}}中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-orc.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-orc.md index 0ea775d3184..963062378fc 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-orc.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-orc.md @@ -2,7 +2,7 @@ 本文以一个示例说明如何使用 Exchange 将存储在 HDFS 或本地的 ORC 文件数据导入 NebulaGraph。 -如果要向 NebulaGraph 导入本地 ORC 文件,请参见 [NebulaGraph Importer](https://github.com/vesoft-inc/nebula-importer "Click to go to GitHub")。 +如果要向{{nebula.name}}导入本地 ORC 文件,请参见 [NebulaGraph Importer](https://github.com/vesoft-inc/nebula-importer "Click to go to GitHub")。 ## 数据集 @@ -20,35 +20,35 @@ - Hadoop:2.9.2 伪分布式部署 -- NebulaGraph:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 +- {{nebula.name}}:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 ## 前提条件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署 NebulaGraph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: +- 已经[安装部署{{nebula.name}}](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有 NebulaGraph 写权限的用户名和密码。 + - 拥有{{nebula.name}}写权限的用户名和密码。 - 已经编译 Exchange。详情请参见[编译 Exchange](../ex-ug-compile.md)。本示例中使用 Exchange {{exchange.release}}。 - 已经安装 Spark。 -- 了解 NebulaGraph 中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 +- 了解{{nebula.name}}中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 - 如果文件存储在 HDFS 上,需要确认 Hadoop 服务运行正常。 -- 如果文件存储在本地且 NebulaGraph 是集群架构,需要在集群每台机器本地相同目录下放置文件。 +- 如果文件存储在本地且{{nebula.name}}是集群架构,需要在集群每台机器本地相同目录下放置文件。 ## 操作步骤 -### 步骤 1:在 NebulaGraph 中创建 Schema +### 步骤 1:在{{nebula.name}}中创建 Schema -分析 ORC 文件中的数据,按以下步骤在 NebulaGraph 中创建 Schema: +分析 ORC 文件中的数据,按以下步骤在{{nebula.name}}中创建 Schema: -1. 确认 Schema 要素。NebulaGraph 中的 Schema 要素如下表所示。 +1. 确认 Schema 要素。{{nebula.name}}中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -116,7 +116,7 @@ } } - # NebulaGraph 相关配置 + # {{nebula.name}}相关配置 nebula: { address:{ # 指定 Graph 服务和所有 Meta 服务的 IP 地址和端口。 @@ -124,11 +124,11 @@ # 格式:"ip1:port","ip2:port","ip3:port" graph:["127.0.0.1:9669"] #任意一个 Meta 服务的地址。 - #如果您的 NebulaGraph 在虚拟网络中,如k8s,请配置 Leader Meta的地址。 + #如果您的{{nebula.name}}在虚拟网络中,如k8s,请配置 Leader Meta的地址。 meta:["127.0.0.1:9559"] } - # 指定拥有 NebulaGraph 写权限的用户名和密码。 + # 指定拥有{{nebula.name}}写权限的用户名和密码。 user: root pswd: nebula @@ -155,13 +155,13 @@ tags: [ # 设置 Tag player 相关信息。 { - # 指定 NebulaGraph 中定义的 Tag 名称。 + # 指定{{nebula.name}}中定义的 Tag 名称。 name: player type: { # 指定数据源,使用 ORC。 source: orc - # 指定如何将点数据导入 NebulaGraph:Client 或 SST。 + # 指定如何将点数据导入{{nebula.name}}:Client 或 SST。 sink: client } @@ -170,22 +170,22 @@ # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.orc"。 path: "hdfs://192.168.*.*:9000/data/vertex_player.orc" - # 在 fields 里指定 ORC 文件中 key 名称,其对应的 value 会作为 NebulaGraph 中指定属性的数据源。 + # 在 fields 里指定 ORC 文件中 key 名称,其对应的 value 会作为{{nebula.name}}中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [age,name] - # 指定 NebulaGraph 中定义的属性名称。 + # 指定{{nebula.name}}中定义的属性名称。 # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [age, name] # 指定一个列作为 VID 的源。 # vertex 的值必须与 ORC 文件中的字段保持一致。 - # 目前,NebulaGraph {{nebula.release}}仅支持字符串或整数类型的 VID。 + # 目前,{{nebula.name}} {{nebula.release}}仅支持字符串或整数类型的 VID。 vertex: { field:id } - # 指定单批次写入 NebulaGraph 的最大点数量。 + # 指定单批次写入{{nebula.name}}的最大点数量。 batch: 256 # 指定 Spark 分片数量。 @@ -194,13 +194,13 @@ # 设置 Tag team 相关信息。 { - # 指定 NebulaGraph 中定义的 Tag 名称。 + # 指定{{nebula.name}}中定义的 Tag 名称。 name: team type: { # 指定数据源,使用 ORC。 source: orc - # 指定如何将点数据导入 NebulaGraph:Client 或 SST。 + # 指定如何将点数据导入{{nebula.name}}:Client 或 SST。 sink: client } @@ -209,22 +209,22 @@ # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.orc"。 path: "hdfs://192.168.*.*:9000/data/vertex_team.orc" - # 在 fields 里指定 ORC 文件中 key 名称,其对应的 value 会作为 NebulaGraph 中指定属性的数据源。 + # 在 fields 里指定 ORC 文件中 key 名称,其对应的 value 会作为{{nebula.name}}中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [name] - # 指定 NebulaGraph 中定义的属性名称。 + # 指定{{nebula.name}}中定义的属性名称。 # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [name] # 指定一个列作为 VID 的源。 # vertex 的值必须与 ORC 文件中的字段保持一致。 - # 目前,NebulaGraph {{nebula.release}}仅支持字符串或整数类型的 VID。 + # 目前,{{nebula.name}} {{nebula.release}}仅支持字符串或整数类型的 VID。 vertex: { field:id } - # 指定单批次写入 NebulaGraph 的最大点数量。 + # 指定单批次写入{{nebula.name}}的最大点数量。 batch: 256 # 指定 Spark 分片数量。 @@ -237,13 +237,13 @@ edges: [ # 设置 Edge type follow 相关信息。 { - # 指定 NebulaGraph 中定义的 Edge type 名称。 + # 指定{{nebula.name}}中定义的 Edge type 名称。 name: follow type: { # 指定数据源,使用 ORC。 source: orc - # 指定如何将点数据导入 NebulaGraph:Client 或 SST。 + # 指定如何将点数据导入{{nebula.name}}:Client 或 SST。 sink: client } @@ -252,17 +252,17 @@ # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.orc"。 path: "hdfs://192.168.*.*:9000/data/edge_follow.orc" - # 在 fields 里指定 ORC 文件中 key 名称,其对应的 value 会作为 NebulaGraph 中指定属性的数据源。 + # 在 fields 里指定 ORC 文件中 key 名称,其对应的 value 会作为{{nebula.name}}中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [degree] - # 指定 NebulaGraph 中定义的属性名称。 + # 指定{{nebula.name}}中定义的属性名称。 # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [degree] # 指定一个列作为起始点和目的点的源。 # vertex 的值必须与 ORC 文件中的字段保持一致。 - # 目前,NebulaGraph {{nebula.release}}仅支持字符串或整数类型的 VID。 + # 目前,{{nebula.name}} {{nebula.release}}仅支持字符串或整数类型的 VID。 source: { field: src } @@ -273,7 +273,7 @@ # 指定一个列作为 rank 的源(可选)。 #ranking: rank - # 指定单批次写入 NebulaGraph 的最大边数量。 + # 指定单批次写入{{nebula.name}}的最大边数量。 batch: 256 # 指定 Spark 分片数量。 @@ -282,13 +282,13 @@ # 设置 Edge type serve 相关信息。 { - # 指定 NebulaGraph 中定义的 Edge type 名称。 + # 指定{{nebula.name}}中定义的 Edge type 名称。 name: serve type: { # 指定数据源,使用 ORC。 source: orc - # 指定如何将点数据导入 NebulaGraph:Client 或 SST。 + # 指定如何将点数据导入{{nebula.name}}:Client 或 SST。 sink: client } @@ -297,17 +297,17 @@ # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.orc"。 path: "hdfs://192.168.*.*:9000/data/edge_serve.orc" - # 在 fields 里指定 ORC 文件中 key 名称,其对应的 value 会作为 NebulaGraph 中指定属性的数据源。 + # 在 fields 里指定 ORC 文件中 key 名称,其对应的 value 会作为{{nebula.name}}中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [start_year,end_year] - # 指定 NebulaGraph 中定义的属性名称。 + # 指定{{nebula.name}}中定义的属性名称。 # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [start_year, end_year] # 指定一个列作为起始点和目的点的源。 # vertex 的值必须与 ORC 文件中的字段保持一致。 - # 目前,NebulaGraph {{nebula.release}}仅支持字符串或整数类型的 VID。 + # 目前,{{nebula.name}} {{nebula.release}}仅支持字符串或整数类型的 VID。 source: { field: src } @@ -318,7 +318,7 @@ # 指定一个列作为 rank 的源(可选)。 #ranking: _c5 - # 指定单批次写入 NebulaGraph 的最大边数量。 + # 指定单批次写入{{nebula.name}}的最大边数量。 batch: 256 # 指定 Spark 分片数量。 @@ -330,9 +330,9 @@ } ``` -### 步骤 4:向 NebulaGraph 导入数据 +### 步骤 4:向{{nebula.name}}导入数据 -运行如下命令将 ORC 文件数据导入到 NebulaGraph 中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 +运行如下命令将 ORC 文件数据导入到{{nebula.name}}中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 ```bash ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c @@ -352,7 +352,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.excha ### 步骤 5:(可选)验证数据 -用户可以在 NebulaGraph 客户端(例如 NebulaGraph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在{{nebula.name}}客户端(例如 NebulaGraph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql LOOKUP ON player YIELD id(vertex); @@ -360,6 +360,6 @@ LOOKUP ON player YIELD id(vertex); 用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md) 查看统计数据。 -### 步骤 6:(如有)在 NebulaGraph 中重建索引 +### 步骤 6:(如有)在{{nebula.name}}中重建索引 -导入数据后,用户可以在 NebulaGraph 中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 +导入数据后,用户可以在{{nebula.name}}中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-parquet.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-parquet.md index 79294c01400..9c92218c65a 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-parquet.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-parquet.md @@ -1,8 +1,8 @@ # 导入 Parquet 文件数据 -本文以一个示例说明如何使用 Exchange 将存储在 HDFS 或本地的 Parquet 文件数据导入 NebulaGraph。 +本文以一个示例说明如何使用 Exchange 将存储在 HDFS 或本地的 Parquet 文件数据导入{{nebula.name}}。 -如果要向 NebulaGraph 导入本地 Parquet 文件,请参见 [NebulaGraph Importer](https://github.com/vesoft-inc/nebula-importer "Click to go to GitHub")。 +如果要向{{nebula.name}}导入本地 Parquet 文件,请参见 [NebulaGraph Importer](https://github.com/vesoft-inc/nebula-importer "Click to go to GitHub")。 ## 数据集 @@ -20,35 +20,35 @@ - Hadoop:2.9.2 伪分布式部署 -- NebulaGraph:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 +- {{nebula.name}}:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 ## 前提条件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署 NebulaGraph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: +- 已经[安装部署{{nebula.name}}](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有 NebulaGraph 写权限的用户名和密码。 + - 拥有{{nebula.name}}写权限的用户名和密码。 - 已经编译 Exchange。详情请参见[编译 Exchange](../ex-ug-compile.md)。本示例中使用 Exchange {{exchange.release}}。 - 已经安装 Spark。 -- 了解 NebulaGraph 中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 +- 了解{{nebula.name}}中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 - 如果文件存储在 HDFS 上,需要确认 Hadoop 服务运行正常。 -- 如果文件存储在本地且 NebulaGraph 是集群架构,需要在集群每台机器本地相同目录下放置文件。 +- 如果文件存储在本地且{{nebula.name}}是集群架构,需要在集群每台机器本地相同目录下放置文件。 ## 操作步骤 -### 步骤 1:在 NebulaGraph 中创建 Schema +### 步骤 1:在{{nebula.name}}中创建 Schema -分析 Parquet 文件中的数据,按以下步骤在 NebulaGraph 中创建 Schema: +分析 Parquet 文件中的数据,按以下步骤在{{nebula.name}}中创建 Schema: -1. 确认 Schema 要素。NebulaGraph 中的 Schema 要素如下表所示。 +1. 确认 Schema 要素。{{nebula.name}}中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -116,7 +116,7 @@ } } - # NebulaGraph 相关配置 + #{{nebula.name}}相关配置 nebula: { address:{ # 指定 Graph 服务和所有 Meta 服务的 IP 地址和端口。 @@ -124,11 +124,11 @@ # 格式:"ip1:port","ip2:port","ip3:port" graph:["127.0.0.1:9669"] #任意一个 Meta 服务的地址。 - #如果您的 NebulaGraph 在虚拟网络中,如k8s,请配置 Leader Meta的地址。 + #如果您的{{nebula.name}}在虚拟网络中,如k8s,请配置 Leader Meta的地址。 meta:["127.0.0.1:9559"] } - # 指定拥有 NebulaGraph 写权限的用户名和密码。 + # 指定拥有{{nebula.name}}写权限的用户名和密码。 user: root pswd: nebula @@ -155,13 +155,13 @@ tags: [ # 设置 Tag player 相关信息。 { - # 指定 NebulaGraph 中定义的 Tag 名称。 + # 指定{{nebula.name}}中定义的 Tag 名称。 name: player type: { # 指定数据源,使用 Parquet。 source: parquet - # 指定如何将点数据导入 NebulaGraph:Client 或 SST。 + # 指定如何将点数据导入{{nebula.name}}:Client 或 SST。 sink: client } @@ -170,22 +170,22 @@ # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.csv"。 path: "hdfs://192.168.11.139000/data/vertex_player.parquet" - # 在 fields 里指定 Parquet 文件中 key 名称,其对应的 value 会作为 NebulaGraph 中指定属性的数据源。 + # 在 fields 里指定 Parquet 文件中 key 名称,其对应的 value 会作为{{nebula.name}}中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [age,name] - # 指定 NebulaGraph 中定义的属性名称。 + # 指定{{nebula.name}}中定义的属性名称。 # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [age, name] # 指定一个列作为 VID 的源。 # vertex 的值必须与 Parquet 文件中的字段保持一致。 - # 目前,NebulaGraph {{nebula.release}}仅支持字符串或整数类型的 VID。 + # 目前,{{nebula.name}} {{nebula.release}}仅支持字符串或整数类型的 VID。 vertex: { field:id } - # 指定单批次写入 NebulaGraph 的最大点数量。 + # 指定单批次写入{{nebula.name}}的最大点数量。 batch: 256 # 指定 Spark 分片数量。 @@ -194,13 +194,13 @@ # 设置 Tag team 相关信息。 { - # 指定 NebulaGraph 中定义的 Tag 名称。 + # 指定{{nebula.name}}中定义的 Tag 名称。 name: team type: { # 指定数据源,使用 Parquet。 source: parquet - # 指定如何将点数据导入 NebulaGraph:Client 或 SST。 + # 指定如何将点数据导入{{nebula.name}}:Client 或 SST。 sink: client } @@ -209,22 +209,22 @@ # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.csv"。 path: "hdfs://192.168.11.13:9000/data/vertex_team.parquet" - # 在 fields 里指定 Parquet 文件中 key 名称,其对应的 value 会作为 NebulaGraph 中指定属性的数据源。 + # 在 fields 里指定 Parquet 文件中 key 名称,其对应的 value 会作为{{nebula.name}}中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [name] - # 指定 NebulaGraph 中定义的属性名称。 + # 指定{{nebula.name}}中定义的属性名称。 # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [name] # 指定一个列作为 VID 的源。 # vertex 的值必须与 Parquet 文件中的字段保持一致。 - # 目前,NebulaGraph {{nebula.release}}仅支持字符串或整数类型的 VID。 + # 目前,{{nebula.name}} {{nebula.release}}仅支持字符串或整数类型的 VID。 vertex: { field:id } - # 指定单批次写入 NebulaGraph 的最大点数量。 + # 指定单批次写入{{nebula.name}}的最大点数量。 batch: 256 # 指定 Spark 分片数量。 @@ -237,13 +237,13 @@ edges: [ # 设置 Edge type follow 相关信息。 { - # 指定 NebulaGraph 中定义的 Edge type 名称。 + # 指定{{nebula.name}}中定义的 Edge type 名称。 name: follow type: { # 指定数据源,使用 Parquet。 source: parquet - # 指定如何将点数据导入 NebulaGraph:Client 或 SST。 + # 指定如何将点数据导入{{nebula.name}}:Client 或 SST。 sink: client } @@ -252,17 +252,17 @@ # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.csv"。 path: "hdfs://192.168.11.13:9000/data/edge_follow.parquet" - # 在 fields 里指定 Parquet 文件中 key 名称,其对应的 value 会作为 NebulaGraph 中指定属性的数据源。 + # 在 fields 里指定 Parquet 文件中 key 名称,其对应的 value 会作为{{nebula.name}}中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [degree] - # 指定 NebulaGraph 中定义的属性名称。 + # 指定{{nebula.name}}中定义的属性名称。 # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [degree] # 指定一个列作为起始点和目的点的源。 # vertex 的值必须与 Parquet 文件中的字段保持一致。 - # 目前,NebulaGraph {{nebula.release}}仅支持字符串或整数类型的 VID。 + # 目前,{{nebula.name}} {{nebula.release}}仅支持字符串或整数类型的 VID。 source: { field: src } @@ -273,7 +273,7 @@ # 指定一个列作为 rank 的源(可选)。 #ranking: rank - # 指定单批次写入 NebulaGraph 的最大边数量。 + # 指定单批次写入{{nebula.name}}的最大边数量。 batch: 256 # 指定 Spark 分片数量。 @@ -282,13 +282,13 @@ # 设置 Edge type serve 相关信息。 { - # 指定 NebulaGraph 中定义的 Edge type 名称。 + # 指定{{nebula.name}}中定义的 Edge type 名称。 name: serve type: { # 指定数据源,使用 Parquet。 source: parquet - # 指定如何将点数据导入 NebulaGraph:Client 或 SST。 + # 指定如何将点数据导入{{nebula.name}}:Client 或 SST。 sink: client } @@ -297,17 +297,17 @@ # 如果文件存储在本地,用双引号括起路径,以 file://开头,例如"file:///tmp/xx.csv"。 path: "hdfs://192.168.11.13:9000/data/edge_serve.parquet" - # 在 fields 里指定 Parquet 文件中 key 名称,其对应的 value 会作为 NebulaGraph 中指定属性的数据源。 + # 在 fields 里指定 Parquet 文件中 key 名称,其对应的 value 会作为{{nebula.name}}中指定属性的数据源。 # 如果需要指定多个值,用英文逗号(,)隔开。 fields: [start_year,end_year] - # 指定 NebulaGraph 中定义的属性名称。 + # 指定{{nebula.name}}中定义的属性名称。 # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [start_year, end_year] # 指定一个列作为起始点和目的点的源。 # vertex 的值必须与 Parquet 文件中的字段保持一致。 - # 目前,NebulaGraph {{nebula.release}}仅支持字符串或整数类型的 VID。 + # 目前,{{nebula.name}} {{nebula.release}}仅支持字符串或整数类型的 VID。 source: { field: src } @@ -318,7 +318,7 @@ # 指定一个列作为 rank 的源(可选)。 #ranking: _c5 - # 指定单批次写入 NebulaGraph 的最大边数量。 + # 指定单批次写入{{nebula.name}}的最大边数量。 batch: 256 # 指定 Spark 分片数量。 @@ -330,9 +330,9 @@ } ``` -### 步骤 4:向 NebulaGraph 导入数据 +### 步骤 4:向{{nebula.name}}导入数据 -运行如下命令将 Parquet 文件数据导入到 NebulaGraph 中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 +运行如下命令将 Parquet 文件数据导入到{{nebula.name}}中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 ```bash ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c @@ -352,7 +352,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.excha ### 步骤 5:(可选)验证数据 -用户可以在 NebulaGraph 客户端(例如 NebulaGraph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在{{nebula.name}}客户端(例如 NebulaGraph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql LOOKUP ON player YIELD id(vertex); @@ -360,6 +360,6 @@ LOOKUP ON player YIELD id(vertex); 用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md) 查看统计数据。 -### 步骤 6:(如有)在 NebulaGraph 中重建索引 +### 步骤 6:(如有)在{{nebula.name}}中重建索引 -导入数据后,用户可以在 NebulaGraph 中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 +导入数据后,用户可以在{{nebula.name}}中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-pulsar.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-pulsar.md index e8e8ecfd6d6..3bd8a18329a 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-pulsar.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-pulsar.md @@ -1,6 +1,6 @@ # 导入 Pulsar 数据 -本文简单说明如何使用 Exchange 将存储在 Pulsar 上的数据导入 NebulaGraph。 +本文简单说明如何使用 Exchange 将存储在 Pulsar 上的数据导入{{nebula.name}}。 ## 环境配置 @@ -12,33 +12,33 @@ - Spark:2.4.7,单机版 -- NebulaGraph:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 +- {{nebula.name}}:{{nebula.release}}。使用 [Docker Compose 部署](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md)。 ## 前提条件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署 NebulaGraph](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: +- 已经[安装部署{{nebula.name}}](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有 NebulaGraph 写权限的用户名和密码。 + - 拥有{{nebula.name}}写权限的用户名和密码。 - 已经编译 Exchange。详情请参见[编译 Exchange](../ex-ug-compile.md)。本示例中使用 Exchange {{exchange.release}}。 - 已经安装 Spark。 -- 了解 NebulaGraph 中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 +- 了解{{nebula.name}}中创建 Schema 的信息,包括 Tag 和 Edge type 的名称、属性等。 - 已经安装并开启 Pulsar 服务。 ## 操作步骤 -### 步骤 1:在 NebulaGraph 中创建 Schema +### 步骤 1:在{{nebula.name}}中创建 Schema -分析数据,按以下步骤在 NebulaGraph 中创建 Schema: +分析数据,按以下步骤在{{nebula.name}}中创建 Schema: -1. 确认 Schema 要素。NebulaGraph 中的 Schema 要素如下表所示。 +1. 确认 Schema 要素。{{nebula.name}}中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -47,7 +47,7 @@ | Edge Type | `follow` | `degree int` | | Edge Type | `serve` | `start_year int, end_year int` | -2. 在 NebulaGraph 中创建一个图空间** basketballplayer**,并创建一个 Schema,如下所示。 +2. 在{{nebula.name}}中创建一个图空间** basketballplayer**,并创建一个 Schema,如下所示。 ```ngql ## 创建图空间 @@ -94,21 +94,21 @@ } } - # NebulaGraph 相关配置 + #{{nebula.name}}相关配置 nebula: { address:{ - # 以下为 NebulaGraph 的 Graph 服务和 Meta 服务所在机器的 IP 地址及端口。 + # 以下为{{nebula.name}}的 Graph 服务和 Meta 服务所在机器的 IP 地址及端口。 # 如果有多个地址,格式为 "ip1:port","ip2:port","ip3:port"。 # 不同地址之间以英文逗号 (,) 隔开。 graph:["127.0.0.1:9669"] #任意一个 Meta 服务的地址。 - #如果您的 NebulaGraph 在虚拟网络中,如k8s,请配置 Leader Meta的地址。 + #如果您的{{nebula.name}}在虚拟网络中,如k8s,请配置 Leader Meta的地址。 meta:["127.0.0.1:9559"] } - # 填写的账号必须拥有 NebulaGraph 相应图空间的写数据权限。 + # 填写的账号必须拥有{{nebula.name}}相应图空间的写数据权限。 user: root pswd: nebula - # 填写 NebulaGraph 中需要写入数据的图空间名称。 + # 填写{{nebula.name}}中需要写入数据的图空间名称。 space: basketballplayer connection: { timeout: 3000 @@ -130,12 +130,12 @@ tags: [ # 设置 Tag player 相关信息。 { - # NebulaGraph 中对应的 Tag 名称。 + #{{nebula.name}}中对应的 Tag 名称。 name: player type: { # 指定数据源文件格式,设置为 Pulsar。 source: pulsar - # 指定如何将点数据导入 NebulaGraph:Client 或 SST。 + # 指定如何将点数据导入{{nebula.name}}:Client 或 SST。 sink: client } # Pulsar 服务器地址。 @@ -147,18 +147,18 @@ topics: "topic1,topic2" } - # 在 fields 里指定 player 表中的列名称,其对应的 value 会作为 NebulaGraph 中指定属性。 + # 在 fields 里指定 player 表中的列名称,其对应的 value 会作为{{nebula.name}}中指定属性。 # fields 和 nebula.fields 里的配置必须一一对应。 # 如果需要指定多个列名称,用英文逗号(,)隔开。 fields: [age,name] nebula.fields: [age,name] - # 指定表中某一列数据为 NebulaGraph 中点 VID 的来源。 + # 指定表中某一列数据为{{nebula.name}}中点 VID 的来源。 vertex:{ field:playerid } - # 单批次写入 NebulaGraph 的数据条数。 + # 单批次写入{{nebula.name}}的数据条数。 batch: 10 # Spark 分区数量 @@ -194,15 +194,15 @@ edges: [ # 设置 Edge type follow 相关信息 { - # NebulaGraph 中对应的 Edge type 名称。 + #{{nebula.name}}中对应的 Edge type 名称。 name: follow type: { # 指定数据源文件格式,设置为 Pulsar。 source: pulsar - # 指定边数据导入 NebulaGraph 的方式, - # 指定如何将点数据导入 NebulaGraph:Client 或 SST。 + # 指定边数据导入{{nebula.name}}的方式, + # 指定如何将点数据导入{{nebula.name}}:Client 或 SST。 sink: client } @@ -215,7 +215,7 @@ topics: "topic1,topic2" } - # 在 fields 里指定 follow 表中的列名称,其对应的 value 会作为 NebulaGraph 中指定属性。 + # 在 fields 里指定 follow 表中的列名称,其对应的 value 会作为{{nebula.name}}中指定属性。 # fields 和 nebula.fields 里的配置必须一一对应。 # 如果需要指定多个列名称,用英文逗号(,)隔开。 fields: [degree] @@ -234,7 +234,7 @@ # 指定一个列作为 rank 的源(可选)。 #ranking: rank - # 单批次写入 NebulaGraph 的数据条数。 + # 单批次写入{{nebula.name}}的数据条数。 batch: 10 # Spark 分区数量 @@ -278,9 +278,9 @@ } ``` -### 步骤 3:向 NebulaGraph 导入数据 +### 步骤 3:向{{nebula.name}}导入数据 -运行如下命令将 Pulsar 数据导入到 NebulaGraph 中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 +运行如下命令将 Pulsar 数据导入到{{nebula.name}}中。关于参数的说明,请参见[导入命令参数](../parameter-reference/ex-ug-para-import-command.md)。 ```bash ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.exchange.Exchange -c @@ -300,7 +300,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --class com.vesoft.nebula.excha ### 步骤 4:(可选)验证数据 -用户可以在 NebulaGraph 客户端(例如 NebulaGraph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在{{nebula.name}}客户端(例如 NebulaGraph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql LOOKUP ON player YIELD id(vertex); @@ -308,6 +308,6 @@ LOOKUP ON player YIELD id(vertex); 用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md) 查看统计数据。 -### 步骤 5:(如有)在 NebulaGraph 中重建索引 +### 步骤 5:(如有)在{{nebula.name}}中重建索引 -导入数据后,用户可以在 NebulaGraph 中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 \ No newline at end of file +导入数据后,用户可以在{{nebula.name}}中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 \ No newline at end of file diff --git a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-sst.md b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-sst.md index 29ecc381238..57b1d5c57a7 100644 --- a/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-sst.md +++ b/docs-2.0/nebula-exchange/use-exchange/ex-ug-import-from-sst.md @@ -1,6 +1,6 @@ # 导入 SST 文件数据 -本文以一个示例说明如何将数据源的数据生成 SST(Sorted String Table)文件并保存在 HDFS 上,然后导入 NebulaGraph,示例数据源是 CSV 文件。 +本文以一个示例说明如何将数据源的数据生成 SST(Sorted String Table)文件并保存在 HDFS 上,然后导入{{nebula.name}},示例数据源是 CSV 文件。 ## 注意事项 @@ -14,9 +14,9 @@ Exchange 支持两种数据导入模式: -- 直接将数据源的数据通过** nGQL **语句的形式导入 NebulaGraph。 +- 直接将数据源的数据通过** nGQL **语句的形式导入{{nebula.name}}。 -- 将数据源的数据生成 SST 文件,然后借助 Console 将 SST 文件导入 NebulaGraph。 +- 将数据源的数据生成 SST 文件,然后借助 Console 将 SST 文件导入{{nebula.name}}。 下文将介绍生成 SST 文件并用其导入数据的适用场景、实现方法、前提条件、操作步骤等内容。 @@ -32,17 +32,17 @@ Exchange 支持两种数据导入模式: ## 实现方法 -NebulaGraph 底层使用 RocksDB 作为键值型存储引擎。RocksDB 是基于硬盘的存储引擎,提供了一系列 API 用于创建及导入 SST 格式的文件,有助于快速导入海量数据。 +{{nebula.name}}底层使用 RocksDB 作为键值型存储引擎。RocksDB 是基于硬盘的存储引擎,提供了一系列 API 用于创建及导入 SST 格式的文件,有助于快速导入海量数据。 SST 文件是一个内部包含了任意长度的有序键值对集合的文件,用于高效地存储大量键值型数据。生成 SST 文件的整个过程主要由 Exchange 的 Reader、sstProcessor 和 sstWriter 完成。整个数据处理过程如下: 1. Reader 从数据源中读取数据。 -2. sstProcessor 根据 NebulaGraph 的 Schema 信息生成 SST 文件,然后上传至 HDFS。SST 文件的格式请参见[数据存储格式](../../1.introduction/3.nebula-graph-architecture/4.storage-service.md)。 +2. sstProcessor 根据{{nebula.name}}的 Schema 信息生成 SST 文件,然后上传至 HDFS。SST 文件的格式请参见[数据存储格式](../../1.introduction/3.nebula-graph-architecture/4.storage-service.md)。 3. sstWriter 打开一个文件并插入数据。生成 SST 文件时,Key 必须按照顺序写入。 -4. 生成 SST 文件之后,RocksDB 通过`IngestExternalFile()`方法将 SST 文件导入到 NebulaGraph 中。例如: +4. 生成 SST 文件之后,RocksDB 通过`IngestExternalFile()`方法将 SST 文件导入到{{nebula.name}}中。例如: ``` IngestExternalFileOptions ifo; @@ -73,17 +73,17 @@ SST 文件是一个内部包含了任意长度的有序键值对集合的文件 - Hadoop:2.9.2 伪分布式部署 -- NebulaGraph:{{nebula.release}}。 +- {{nebula.name}}:{{nebula.release}}。 ## 前提条件 开始导入数据之前,用户需要确认以下信息: -- 已经[安装部署 NebulaGraph {{nebula.release}}](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: +- 已经[安装部署 {{nebula.name}} {{nebula.release}}](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/2.install-nebula-graph-by-rpm-or-deb.md) 并获取如下信息: - Graph 服务和 Meta 服务的的 IP 地址和端口。 - - 拥有 NebulaGraph 写权限的用户名和密码。 + - 拥有{{nebula.name}}写权限的用户名和密码。 - Meta 服务配置文件中的`--ws_storage_http_port`和 Storage 服务配置文件中的`--ws_http_port`一致。例如都为`19779`。 @@ -105,15 +105,15 @@ SST 文件是一个内部包含了任意长度的有序键值对集合的文件 - 如果只需要生成 SST 文件,不需要在部署 Storage 服务的机器上安装 Hadoop 服务。 - - 如需在 INGEST(数据导入)结束后自动移除 SST 文件,在 Storage 服务配置文件中增加`--move_files=true`,该配置会让 NebulaGraph 在 INGEST 后将 SST 文件移动(`mv`)到`data`目录下。`--move_files`的默认值为`false`,此时 NebulaGraph 会复制(`cp`)SST 文件而不是移动。 + - 如需在 INGEST(数据导入)结束后自动移除 SST 文件,在 Storage 服务配置文件中增加`--move_files=true`,该配置会让{{nebula.name}}在 INGEST 后将 SST 文件移动(`mv`)到`data`目录下。`--move_files`的默认值为`false`,此时{{nebula.name}}会复制(`cp`)SST 文件而不是移动。 ## 操作步骤 -### 步骤 1:在 NebulaGraph 中创建 Schema +### 步骤 1:在{{nebula.name}}中创建 Schema -分析 CSV 文件中的数据,按以下步骤在 NebulaGraph 中创建 Schema: +分析 CSV 文件中的数据,按以下步骤在{{nebula.name}}中创建 Schema: -1. 确认 Schema 要素。NebulaGraph 中的 Schema 要素如下表所示。 +1. 确认 Schema 要素。{{nebula.name}}中的 Schema 要素如下表所示。 | 要素 | 名称 | 属性 | | :--- | :--- | :--- | @@ -189,12 +189,12 @@ SST 文件是一个内部包含了任意长度的有序键值对集合的文件 } } - # NebulaGraph 相关配置 + #{{nebula.name}}相关配置 nebula: { address:{ graph:["127.0.0.1:9669"] #任意一个 Meta 服务的地址。 - #如果您的 NebulaGraph 在虚拟网络中,如k8s,请配置 Leader Meta的地址。 + #如果您的{{nebula.name}}在虚拟网络中,如k8s,请配置 Leader Meta的地址。 meta:["127.0.0.1:9559"] } user: root @@ -226,7 +226,7 @@ SST 文件是一个内部包含了任意长度的有序键值对集合的文件 output: /tmp/errors } - # 使用Google Guava RateLimiter 来限制发送到 NebulaGraph 的请求。 + # 使用Google Guava RateLimiter 来限制发送到{{nebula.name}}的请求。 rate: { # RateLimiter 的稳定吞吐量。 limit: 1024 @@ -240,13 +240,13 @@ SST 文件是一个内部包含了任意长度的有序键值对集合的文件 tags: [ # 设置 Tag player 相关信息。 { - # 指定 NebulaGraph 中定义的 Tag 名称。 + # 指定{{nebula.name}}中定义的 Tag 名称。 name: player type: { # 指定数据源,使用 CSV。 source: csv - # 指定如何将点数据导入 NebulaGraph:Client 或 SST。 + # 指定如何将点数据导入{{nebula.name}}:Client 或 SST。 sink: sst } @@ -258,13 +258,13 @@ SST 文件是一个内部包含了任意长度的有序键值对集合的文件 # 如果 CSV 文件有表头,则使用实际的列名。 fields: [_c1, _c2] - # 指定 NebulaGraph 中定义的属性名称。 + # 指定{{nebula.name}}中定义的属性名称。 # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [age, name] # 指定一个列作为 VID 的源。 # vertex 的值必须与上述 fields 或者 csv.fields 中的列名保持一致。 - # 目前,NebulaGraph {{nebula.release}}仅支持字符串或整数类型的 VID。 + # 目前,{{nebula.name}} {{nebula.release}}仅支持字符串或整数类型的 VID。 vertex: { field:_c0 } @@ -276,25 +276,25 @@ SST 文件是一个内部包含了任意长度的有序键值对集合的文件 # 如果 CSV 文件没有表头,请将 header 设置为 false。默认值为 false。 header: false - # 指定单批次写入 NebulaGraph 的最大点数量。 + # 指定单批次写入{{nebula.name}}的最大点数量。 batch: 256 # 指定 Spark 分片数量。 partition: 32 - # 生成 SST 文件时是否要基于 NebulaGraph 中图空间的 partition 进行数据重分区。 + # 生成 SST 文件时是否要基于{{nebula.name}}中图空间的 partition 进行数据重分区。 repartitionWithNebula: false } # 设置 Tag team 相关信息。 { - # 指定 NebulaGraph 中定义的 Tag 名称。 + # 指定{{nebula.name}}中定义的 Tag 名称。 name: team type: { # 指定数据源,使用 CSV。 source: csv - # 指定如何将点数据导入 NebulaGraph:Client 或 SST。 + # 指定如何将点数据导入{{nebula.name}}:Client 或 SST。 sink: sst } @@ -306,13 +306,13 @@ SST 文件是一个内部包含了任意长度的有序键值对集合的文件 # 如果 CSV 文件有表头,则使用实际的列名。 fields: [_c1] - # 指定 NebulaGraph 中定义的属性名称。 + # 指定{{nebula.name}}中定义的属性名称。 # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [name] # 指定一个列作为 VID 的源。 # vertex 的值必须与上述 fields 或者 csv.fields 中的列名保持一致。 - # 目前,NebulaGraph {{nebula.release}}仅支持字符串或整数类型的 VID。 + # 目前,{{nebula.name}} {{nebula.release}}仅支持字符串或整数类型的 VID。 vertex: { field:_c0 } @@ -324,13 +324,13 @@ SST 文件是一个内部包含了任意长度的有序键值对集合的文件 # 如果 CSV 文件没有表头,请将 header 设置为 false。默认值为 false。 header: false - # 指定单批次写入 NebulaGraph 的最大点数量。 + # 指定单批次写入{{nebula.name}}的最大点数量。 batch: 256 # 指定 Spark 分片数量。 partition: 32 - # 生成 SST 文件时是否要基于 NebulaGraph 中图空间的 partition 进行数据重分区。 + # 生成 SST 文件时是否要基于{{nebula.name}}中图空间的 partition 进行数据重分区。 repartitionWithNebula: false } @@ -340,13 +340,13 @@ SST 文件是一个内部包含了任意长度的有序键值对集合的文件 edges: [ # 设置 Edge type follow 相关信息。 { - # 指定 NebulaGraph 中定义的 Edge type 名称。 + # 指定{{nebula.name}}中定义的 Edge type 名称。 name: follow type: { # 指定数据源,使用 CSV。 source: csv - # 指定如何将点数据导入 NebulaGraph:Client 或 SST。 + # 指定如何将点数据导入{{nebula.name}}:Client 或 SST。 sink: sst } @@ -358,13 +358,13 @@ SST 文件是一个内部包含了任意长度的有序键值对集合的文件 # 如果 CSV 文件有表头,则使用实际的列名。 fields: [_c2] - # 指定 NebulaGraph 中定义的属性名称。 + # 指定{{nebula.name}}中定义的属性名称。 # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [degree] # 指定一个列作为起始点和目的点的源。 # vertex 的值必须与上述 fields 或者 csv.fields 中的列名保持一致。 - # 目前,NebulaGraph {{nebula.release}}仅支持字符串或整数类型的 VID。 + # 目前,{{nebula.name}} {{nebula.release}}仅支持字符串或整数类型的 VID。 source: { field: _c0 } @@ -383,25 +383,25 @@ SST 文件是一个内部包含了任意长度的有序键值对集合的文件 # 如果 CSV 文件没有表头,请将 header 设置为 false。默认值为 false。 header: false - # 指定单批次写入 NebulaGraph 的最大边数量。 + # 指定单批次写入{{nebula.name}}的最大边数量。 batch: 256 # 指定 Spark 分片数量。 partition: 32 - # 生成 SST 文件时是否要基于 NebulaGraph 中图空间的 partition 进行数据重分区。 + # 生成 SST 文件时是否要基于{{nebula.name}}中图空间的 partition 进行数据重分区。 repartitionWithNebula: false } # 设置 Edge type serve 相关信息。 { - # 指定 NebulaGraph 中定义的 Edge type 名称。 + # 指定{{nebula.name}}中定义的 Edge type 名称。 name: serve type: { # 指定数据源,使用 CSV。 source: csv - # 指定如何将点数据导入 NebulaGraph:Client 或 SST。 + # 指定如何将点数据导入{{nebula.name}}:Client 或 SST。 sink: sst } @@ -413,13 +413,13 @@ SST 文件是一个内部包含了任意长度的有序键值对集合的文件 # 如果 CSV 文件有表头,则使用实际的列名。 fields: [_c2,_c3] - # 指定 NebulaGraph 中定义的属性名称。 + # 指定{{nebula.name}}中定义的属性名称。 # fields 与 nebula.fields 的顺序必须一一对应。 nebula.fields: [start_year, end_year] # 指定一个列作为起始点和目的点的源。 # vertex 的值必须与上述 fields 或者 csv.fields 中的列名保持一致。 - # 目前,NebulaGraph {{nebula.release}}仅支持字符串或整数类型的 VID。 + # 目前,{{nebula.name}} {{nebula.release}}仅支持字符串或整数类型的 VID。 source: { field: _c0 } @@ -437,13 +437,13 @@ SST 文件是一个内部包含了任意长度的有序键值对集合的文件 # 如果 CSV 文件没有表头,请将 header 设置为 false。默认值为 false。 header: false - # 指定单批次写入 NebulaGraph 的最大边数量。 + # 指定单批次写入{{nebula.name}}的最大边数量。 batch: 256 # 指定 Spark 分片数量。 partition: 32 - # 生成 SST 文件时是否要基于 NebulaGraph 中图空间的 partition 进行数据重分区。 + # 生成 SST 文件时是否要基于{{nebula.name}}中图空间的 partition 进行数据重分区。 repartitionWithNebula: false } @@ -492,7 +492,7 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --conf spark.sql.shuffle.partit - Graph 服务配置文件中的`--ws_meta_http_port`(如果没有,请手动添加)和 Meta 服务配置文件中的`--ws_http_port`一致。例如都为`19559`。 -使用客户端工具连接 NebulaGraph 数据库,按如下操作导入 SST 文件: +使用客户端工具连接{{nebula.name}},按如下操作导入 SST 文件: 1. 执行命令选择之前创建的图空间。 @@ -520,13 +520,13 @@ ${SPARK_HOME}/bin/spark-submit --master "local" --conf spark.sql.shuffle.partit !!! note - - 如果需要重新下载,请在 NebulaGraph 安装路径内的`data/storage/nebula`目录内,将对应 Space ID 目录内的`download`文件夹删除,然后重新下载 SST 文件。如果图空间是多副本,保存副本的所有机器都需要删除`download`文件夹。 + - 如果需要重新下载,请在{{nebula.name}}安装路径内的`data/storage/nebula`目录内,将对应 Space ID 目录内的`download`文件夹删除,然后重新下载 SST 文件。如果图空间是多副本,保存副本的所有机器都需要删除`download`文件夹。 - 如果导入时出现问题需要重新导入,重新执行`SUBMIT JOB INGEST;`即可。 ### 步骤 6:(可选)验证数据 -用户可以在 NebulaGraph 客户端(例如 NebulaGraph Studio)中执行查询语句,确认数据是否已导入。例如: +用户可以在{{nebula.name}}客户端(例如 NebulaGraph Studio)中执行查询语句,确认数据是否已导入。例如: ```ngql LOOKUP ON player YIELD id(vertex); @@ -534,6 +534,6 @@ LOOKUP ON player YIELD id(vertex); 用户也可以使用命令 [`SHOW STATS`](../../3.ngql-guide/7.general-query-statements/6.show/14.show-stats.md) 查看统计数据。 -### 步骤 7:(如有)在 NebulaGraph 中重建索引 +### 步骤 7:(如有)在{{nebula.name}}中重建索引 -导入数据后,用户可以在 NebulaGraph 中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 +导入数据后,用户可以在{{nebula.name}}中重新创建并重建索引。详情请参见[索引介绍](../../3.ngql-guide/14.native-index-statements/README.md)。 diff --git a/docs-2.0/nebula-explorer/12.query-visually.md b/docs-2.0/nebula-explorer/12.query-visually.md index 2576887f35c..61c7d1c46b4 100644 --- a/docs-2.0/nebula-explorer/12.query-visually.md +++ b/docs-2.0/nebula-explorer/12.query-visually.md @@ -4,11 +4,11 @@ !!! compatibility - 不兼容 3.0.0 以下版本的 NebulaGraph。 + 不兼容 3.0.0 以下版本的{{nebula.name}}。 !!! note - Explorer 的可视化查询功能目前处于测试阶段。 + {{explorer.name}}的可视化查询功能目前处于测试阶段。 ## 前提条件 @@ -19,7 +19,7 @@ ![visual_overview](https://docs-cdn.nebula-graph.com.cn/figures/visual-query-20220718-cn.png) -在 Explorer 页面顶部,单击 **Visual Query** 进入可视化查询页面。在**可视化查询**页面左侧可以看到图空间对应的所有 Tag (如 player 和 team) 和名为**任意标签** Tag。 +在{{explorer.name}}页面顶部,单击 **Visual Query** 进入可视化查询页面。在**可视化查询**页面左侧可以看到图空间对应的所有 Tag (如 player 和 team) 和名为**任意标签** Tag。 !!! note diff --git a/docs-2.0/nebula-explorer/about-explorer/ex-ug-what-is-explorer.md b/docs-2.0/nebula-explorer/about-explorer/ex-ug-what-is-explorer.md index 327c847e632..add30c3b3e5 100644 --- a/docs-2.0/nebula-explorer/about-explorer/ex-ug-what-is-explorer.md +++ b/docs-2.0/nebula-explorer/about-explorer/ex-ug-what-is-explorer.md @@ -1,15 +1,15 @@ -# 什么是 NebulaGraph Explorer +# 什么是{{explorer.name}} -NebulaGraph Explorer (简称 Explorer)是一款可以通过 Web 访问的可视化图探索工具,搭配 NebulaGraph 内核使用,用于与图数据进行可视化交互。即使没有图数据操作经验,用户也可以快速成为图专家。 +{{explorer.name}}是一款可以通过 Web 访问的可视化图探索工具,搭配{{nebula.name}}内核使用,用于与图数据进行可视化交互。即使没有图数据操作经验,用户也可以快速成为图专家。 !!! enterpriseonly - - 如需购买 Nebula Explorer,请[联系我们](https://www.nebula-graph.com.cn/contact)。 - - 新用户可以[申请 30 天试用](https://wj.qq.com/s2/10158890/69a8)。你也可以[在线体验 Explorer](https://explorer.nebula-graph.com.cn/) 部分功能。 + - 如需购买{{explorer.name}},请[联系我们](https://www.nebula-graph.com.cn/contact)。 + - 新用户可以[申请 30 天试用](https://wj.qq.com/s2/10158890/69a8)。你也可以[在线体验{{explorer.name}}](https://explorer.nebula-graph.com.cn/) 部分功能。 ## 适用场景 -如果有以下任一需求,都可以使用 Explorer: +如果有以下任一需求,都可以使用{{explorer.name}}: - 从复杂关系中快速查找友邻关系、分析可疑目标,需要以可视化的方式展示图数据。 @@ -29,23 +29,23 @@ NebulaGraph Explorer (简称 Explorer)是一款可以通过 Web 访问的可 - [数据存储](../canvas-operations/canvas-snapshot.md):支持保存和导入画布数据。 -- [内联框架](../iframe.md):支持在第三方页面中嵌入 Explorer 画布。 +- [内联框架](../iframe.md):支持在第三方页面中嵌入{{explorer.name}}画布。 ## 身份验证 -NebulaGraph 默认不启用身份验证,一般情况下用户可以使用`root`账号和任意密码登录 Explorer。 +{{nebula.name}}默认不启用身份验证,一般情况下用户可以使用`root`账号和任意密码登录{{explorer.name}}。 -NebulaGraph 启用了身份验证后,用户只能使用指定的账号和密码登录 Explorer。 +{{nebula.name}}启用了身份验证后,用户只能使用指定的账号和密码登录{{explorer.name}}。 -关于 NebulaGraph 的身份验证功能,参考 [NebulaGraph 用户手册](../../7.data-security/1.authentication/1.authentication.md "点击前往 NebulaGraph 官网")。 +关于{{nebula.name}}的身份验证功能,参考 [{{nebula.name}}用户手册](../../7.data-security/1.authentication/1.authentication.md "点击前往{{nebula.name}}官网")。 ## 版本兼容性 -NebulaGraph 的版本和 Explorer 版本对应关系如下。 +{{nebula.name}}的版本和{{explorer.name}}版本对应关系如下。 -| NebulaGraph 版本 | Explorer 版本 | +|{{nebula.name}}版本 | {{explorer.name}}版本 | | --- | --- | | 3.4.0 ~ 3.4.1 | 3.4.0、3.2.1、3.2.0 | | 3.3.0 | 3.2.1、3.2.0| diff --git a/docs-2.0/nebula-explorer/canvas-operations/canvas-overview.md b/docs-2.0/nebula-explorer/canvas-operations/canvas-overview.md index 43c217d255a..acb14fad6ea 100644 --- a/docs-2.0/nebula-explorer/canvas-operations/canvas-overview.md +++ b/docs-2.0/nebula-explorer/canvas-operations/canvas-overview.md @@ -37,7 +37,7 @@ ## 多布局 -Explorer 支持 6 种布局方式展示画布上的数据之间的关系。 +{{explorer.name}}支持 6 种布局方式展示画布上的数据之间的关系。 | 力导向图 | 层次图 | 环形图 | 网格 | 神经网络 | 辐射 | | -------- | ------ | ------ | ----- | -------- | ----- | diff --git a/docs-2.0/nebula-explorer/canvas-operations/canvas-snapshot.md b/docs-2.0/nebula-explorer/canvas-operations/canvas-snapshot.md index 0c892cb36b2..ce0b6c62048 100644 --- a/docs-2.0/nebula-explorer/canvas-operations/canvas-snapshot.md +++ b/docs-2.0/nebula-explorer/canvas-operations/canvas-snapshot.md @@ -1,6 +1,6 @@ # 管理快照 -Explorer 的快照功能可保存图探索得到的可视化结果,以便再次打开浏览器时还原保存的图数据。 +{{explorer.name}}的快照功能可保存图探索得到的可视化结果,以便再次打开浏览器时还原保存的图数据。 ## 创建快照 @@ -19,7 +19,7 @@ Explorer 的快照功能可保存图探索得到的可视化结果,以便再 - 目前最多存储 50 个历史快照。 - 历史快照存储在浏览器本地,清理浏览器可能造成快照数据丢失。 -在 Explorer 页面左侧导航栏,单击![snapshot_history](https://docs-cdn.nebula-graph.com.cn/figures/snapshot-history.png)图标进入快照列表页面。用户可切换图空间查看相应图空间的历史快照,还可以导入历史快照至画布,下载历史快照至本地,以及删除快照。 +在{{explorer.name}}页面左侧导航栏,单击![snapshot_history](https://docs-cdn.nebula-graph.com.cn/figures/snapshot-history.png)图标进入快照列表页面。用户可切换图空间查看相应图空间的历史快照,还可以导入历史快照至画布,下载历史快照至本地,以及删除快照。 在目标历史快照右侧的**操作**列下: diff --git a/docs-2.0/nebula-explorer/canvas-operations/visualization-mode.md b/docs-2.0/nebula-explorer/canvas-operations/visualization-mode.md index d5db283852a..aab47b46b3c 100644 --- a/docs-2.0/nebula-explorer/canvas-operations/visualization-mode.md +++ b/docs-2.0/nebula-explorer/canvas-operations/visualization-mode.md @@ -1,6 +1,6 @@ # 可视化模式 -Explorer 支持 **2D** 和 **3D** 两种可视化模式探索数据。2D 模式支持数据查看和图操作;3D 模式通过不同视角对图数据进行探索,适用于数据量级比较高或者需要演示的场合。 +{{explorer.name}}支持 **2D** 和 **3D** 两种可视化模式探索数据。2D 模式支持数据查看和图操作;3D 模式通过不同视角对图数据进行探索,适用于数据量级比较高或者需要演示的场合。 !!! note diff --git a/docs-2.0/nebula-explorer/db-management/10.create-schema.md b/docs-2.0/nebula-explorer/db-management/10.create-schema.md index 0206cc6c8b2..4ec654602ff 100644 --- a/docs-2.0/nebula-explorer/db-management/10.create-schema.md +++ b/docs-2.0/nebula-explorer/db-management/10.create-schema.md @@ -1,6 +1,6 @@ # Schema 管理 -Explorer 支持界面化方式管理 Schema。 +{{explorer.name}}支持界面化方式管理 Schema。 !!! Note @@ -9,7 +9,7 @@ Explorer 支持界面化方式管理 Schema。 ## 前提条件 -- 账号拥有 GOD、ADMIN 或 DBA 权限。详情参见 [NebulaGraph 内置角色](../../7.data-security/1.authentication/3.role-list.md)。 +- 账号拥有 GOD、ADMIN 或 DBA 权限。详情参见 [{{nebula.name}}内置角色](../../7.data-security/1.authentication/3.role-list.md)。 - 已经规划 Schema 的要素。 diff --git a/docs-2.0/nebula-explorer/db-management/11.import-data.md b/docs-2.0/nebula-explorer/db-management/11.import-data.md index a6b51a6dd62..34417210369 100644 --- a/docs-2.0/nebula-explorer/db-management/11.import-data.md +++ b/docs-2.0/nebula-explorer/db-management/11.import-data.md @@ -1,14 +1,14 @@ # 数据导入 -Explorer 支持界面化地将 CSV 格式数据导入至 NebulaGraph 中。 +{{explorer.name}}支持界面化地将 CSV 格式数据导入至{{nebula.name}}中。 ## 前提条件 -- NebulaGraph 数据库里已经创建 Schema。 +-{{nebula.name}}里已经创建 Schema。 - CSV 文件符合 Schema 要求。 -- 账号拥有 GOD、ADMIN 或 DBA 权限。详情参见 [NebulaGraph 内置角色](../../7.data-security/1.authentication/3.role-list.md)。 +- 账号拥有 GOD、ADMIN 或 DBA 权限。详情参见 [{{nebula.name}}内置角色](../../7.data-security/1.authentication/3.role-list.md)。 ## 入口 @@ -46,6 +46,6 @@ Explorer 支持界面化地将 CSV 格式数据导入至 NebulaGraph 中。 ![导入任务](https://docs-cdn.nebula-graph.com.cn/figures/import_task_221111_cn.png) -2. 完成设置后,单击**导入**,输入 NebulaGraph 账号的密码并确认。 +2. 完成设置后,单击**导入**,输入{{nebula.name}}账号的密码并确认。 可以在**导入数据**页签内查看日志、下载日志、下载配置文件、删除任务等操作。 diff --git a/docs-2.0/nebula-explorer/db-management/dbuser_management.md b/docs-2.0/nebula-explorer/db-management/dbuser_management.md index 9aafacb4040..c0c2f880b31 100644 --- a/docs-2.0/nebula-explorer/db-management/dbuser_management.md +++ b/docs-2.0/nebula-explorer/db-management/dbuser_management.md @@ -1,10 +1,10 @@ # 数据库用户管理 -NebulaGraph Explorer 支持管理数据库用户,包括创建用户、删除用户、修改密码等。 +{{explorer.name}}支持管理数据库用户,包括创建用户、删除用户、修改密码等。 ## 前提条件 -登录 Explorer 的用户需要拥有相关操作的权限。例如`God`权限的用户可以执行所有操作,`Admin`权限的用户可以将权限内的图空间授权给其他用户。关于角色权限详情,参见[角色权限](../..//7.data-security/1.authentication/3.role-list.md)。 +登录{{explorer.name}}的用户需要拥有相关操作的权限。例如`God`权限的用户可以执行所有操作,`Admin`权限的用户可以将权限内的图空间授权给其他用户。关于角色权限详情,参见[角色权限](../..//7.data-security/1.authentication/3.role-list.md)。 ## 入口 @@ -24,7 +24,7 @@ NebulaGraph Explorer 支持管理数据库用户,包括创建用户、删除 |:--|:--| |账号|用户名。| |密码|用户名对应密码。| - |IP 白名单|用户只有通过列表内的 IP 才能连接 NebulaGraph。多个 IP 之间用英文逗号(,)分隔。仅 NebulaGraph 企业版支持该参数。| + |IP 白名单|用户只有通过列表内的 IP 才能连接 NebulaGraph。多个 IP 之间用英文逗号(,)分隔。仅{{nebula.name}}企业版支持该参数。| !!! note diff --git a/docs-2.0/nebula-explorer/db-management/draft.md b/docs-2.0/nebula-explorer/db-management/draft.md index d6b1b25b309..06a5ac504b3 100644 --- a/docs-2.0/nebula-explorer/db-management/draft.md +++ b/docs-2.0/nebula-explorer/db-management/draft.md @@ -1,6 +1,6 @@ # Schema 草图 -Explorer 支持 Schema 草图功能。用户可以在画板上自行设计 Schema,可以直观展示点边关系,设计完成后可以将 Schema 应用到指定图空间。 +{{explorer.name}}支持 Schema 草图功能。用户可以在画板上自行设计 Schema,可以直观展示点边关系,设计完成后可以将 Schema 应用到指定图空间。 ## 功能说明 diff --git a/docs-2.0/nebula-explorer/db-management/explorer-console.md b/docs-2.0/nebula-explorer/db-management/explorer-console.md index e66984d063c..89b3553fc6b 100644 --- a/docs-2.0/nebula-explorer/db-management/explorer-console.md +++ b/docs-2.0/nebula-explorer/db-management/explorer-console.md @@ -1,6 +1,6 @@ # 控制台 -Explorer 的控制台功能允许用户手动输入 nGQL 语句,并可视化地呈现查询结果。本文介绍控制台的界面。 +{{explorer.name}}的控制台功能允许用户手动输入 nGQL 语句,并可视化地呈现查询结果。本文介绍控制台的界面。 ## 入口 diff --git a/docs-2.0/nebula-explorer/db-management/ngql-template.md b/docs-2.0/nebula-explorer/db-management/ngql-template.md index 2c25ef8108a..cf3518e74d3 100644 --- a/docs-2.0/nebula-explorer/db-management/ngql-template.md +++ b/docs-2.0/nebula-explorer/db-management/ngql-template.md @@ -1,10 +1,10 @@ # 查询语句模板 -NebulaGraph Explorer 支持将常用 nGQL 语句保存为模板,方便自己或他人使用。nGQL 语句中的文本还支持参数化,可根据需要填写参数值。 +{{explorer.name}}支持将常用 nGQL 语句保存为模板,方便自己或他人使用。nGQL 语句中的文本还支持参数化,可根据需要填写参数值。 ## 前提条件 -NebulaGraph 数据库里已经创建 Schema。 +{{nebula.name}}里已经创建 Schema。 ## 入口 diff --git a/docs-2.0/nebula-explorer/deploy-connect/3.explorer-license.md b/docs-2.0/nebula-explorer/deploy-connect/3.explorer-license.md index 44c406eb4e9..81e57902e4d 100644 --- a/docs-2.0/nebula-explorer/deploy-connect/3.explorer-license.md +++ b/docs-2.0/nebula-explorer/deploy-connect/3.explorer-license.md @@ -1,11 +1,11 @@ -# NebulaGraph Explorer 企业版 License +# {{explorer.name}} License -License 是为用户提供的软件授权证书。用户在部署 NebulaGraph Explorer 企业版时,需要设置 License 才能正常启动 NebulaGraph Explorer 企业版。本文介绍 NebulaGraph Explorer 企业版的 License 相关信息。 +License 是为用户提供的软件授权证书。用户在部署{{explorer.name}}时,需要设置 License 才能正常启动。本文介绍{{explorer.name}}的 License 相关信息。 ## 注意事项 -- 没有设置 License 时,NebulaGraph Explorer 企业版无法启动。 +- 没有设置 License 时,{{explorer.name}}无法启动。 - 请勿修改 License,否则会导致 License 失效。 @@ -21,15 +21,15 @@ License 是为用户提供的软件授权证书。用户在部署 NebulaGraph Ex ## 获取方式 -[联系我们](https://www.nebula-graph.com.cn/contact)申请 NebulaGraph Explorer 企业版 License。 +[联系我们](https://www.nebula-graph.com.cn/contact)申请{{explorer.name}} License。 !!! note - 填写 [NebulaGraph Explorer 试用申请](https://wj.qq.com/s2/10158890/69a8)可获取 30 天免费试用的 License。 + 填写 [{{explorer.name}}试用申请](https://wj.qq.com/s2/10158890/69a8)可获取 30 天免费试用的 License。 -## NebulaGraph Explorer 企业版 License 说明 +## {{explorer.name}} License 说明 -NebulaGraph Explorer 企业版 License 是一个名为`nebula.license`的文件,内容示例如下: +{{explorer.name}} License 是一个名为`nebula.license`的文件,内容示例如下: ```bash ----------License Content Start---------- @@ -59,7 +59,7 @@ License 文件包含生效时间、过期时间等信息。说明如下。 |`organization`| 用户名称。| |`issuedDate`| License 生效时间。| |`expirationDate`| License 过期时间。| -|`product`| 产品类型。NebulaGraph Explorer 企业版的产品类型为`nebula_graph_explorer`。| +|`product`| 产品类型。{{explorer.name}}的产品类型为`nebula_graph_explorer`。| |`version`| 版本支持的信息。| |`licenseType`| License 类型(预留参数)。包括`enterprise`、`samll_bussiness`、`pro`、`individual`。| |`gracePeriod`| 证书过期后可继续使用服务的缓冲时间(单位天),超过缓冲期后停止服务。试用版的 License 过期后无缓冲期,默认值为 0。 | @@ -67,15 +67,15 @@ License 文件包含生效时间、过期时间等信息。说明如下。 ## 使用方式 -关于如何使用 NebulaGraph Explorer,参见[部署 NebulaGraph Explorer](ex-ug-deploy.md)。 +关于如何使用{{explorer.name}},参见[部署{{explorer.name}}](ex-ug-deploy.md)。 ## 续期操作 -按照以下操作续期 NebulaGraph Explorer License。 +按照以下操作续期{{explorer.name}} License。 -1. [联系我们](https://www.nebula-graph.com.cn/contact)申请新的 NebulaGraph Explorer License 文件`nebula.license`。 -2. 在 NebulaGraph Explorer 的安装目录下(例如,`/usr/local/nebula-explorer`),使用新的 License 文件替换旧的 License 文件。 +1. [联系我们](https://www.nebula-graph.com.cn/contact)申请新的{{explorer.name}} License 文件`nebula.license`。 +2. 在{{explorer.name}}的安装目录下(例如,`/usr/local/nebula-explorer`),使用新的 License 文件替换旧的 License 文件。 !!! note - NebulaGraph Explorer license 过期后,用户无法登录 Explorer。为了保证业务正常运行,请及时更新 License。 \ No newline at end of file + License 过期后,用户无法登录{{explorer.name}}。为了保证业务正常运行,请及时更新 License。 \ No newline at end of file diff --git a/docs-2.0/nebula-explorer/deploy-connect/ex-ug-connect.md b/docs-2.0/nebula-explorer/deploy-connect/ex-ug-connect.md index 92590cbc12e..5342505e83a 100644 --- a/docs-2.0/nebula-explorer/deploy-connect/ex-ug-connect.md +++ b/docs-2.0/nebula-explorer/deploy-connect/ex-ug-connect.md @@ -1,16 +1,16 @@ # 连接数据库 -在成功启动 Explorer 后,用户需要配置连接 NebulaGraph。默认情况下可以直接连接数据库。为保证数据安全,还支持 OAuth2.0 认证,认证通过后才可以连接数据库。 +在成功启动{{explorer.name}}后,用户需要配置连接{{nebula.name}}。默认情况下可以直接连接数据库。为保证数据安全,还支持 OAuth2.0 认证,认证通过后才可以连接数据库。 ## 前提条件 -在连接 NebulaGraph 数据库前,用户需要确认以下信息: +在连接{{nebula.name}}前,用户需要确认以下信息: -- 已经安装部署了 Explorer。详细信息,参见[部署 Explorer](../deploy-connect/ex-ug-deploy.md)。 +- 已经安装部署了{{explorer.name}}。详细信息,参见[部署{{explorer.name}}](../deploy-connect/ex-ug-deploy.md)。 -- NebulaGraph 的 Graph 服务本机 IP 地址以及服务所用端口。默认端口为 `9669`。 +- {{nebula.name}} 的 Graph 服务本机 IP 地址以及服务所用端口。默认端口为 `9669`。 -- NebulaGraph 数据库登录账号信息,包括用户名和密码。 +-{{nebula.name}}登录账号信息,包括用户名和密码。 - 建议使用 Chrome 89 及以上的版本的 Chrome 浏览器,否则可能有兼容问题。 @@ -24,7 +24,7 @@ 如果想直接连接数据库,请参见后文**连接数据库**部分。 -如果需要开启 OAuth2.0 认证,需要在 Explorer 安装目录内修改配置文件。路径为`config/app-config.yaml`。 +如果需要开启 OAuth2.0 认证,需要在{{explorer.name}}安装目录内修改配置文件。路径为`config/app-config.yaml`。 OAuth 部分的配置说明如下。 @@ -33,7 +33,7 @@ OAuth 部分的配置说明如下。 |`Enable`|`false`|是否开启 OAuth2.0 认证。| |`ClientID` | `4953xxx-mmnoge13xx.apps.googleusercontent.com`| 应用的 ClientId。 | |`ClientSecret` | `GOCxxx-xaytomFexxx` | 应用的 ClientSecret。 | -|`RedirectURL` | `http://dashboard.vesoft-inc.com/login` |重定向到 Dashboard 的 URL。 | +|`RedirectURL` | `http://dashboard.vesoft-inc.com/login` |重定向到{{dashboard_ent.name}}的 URL。 | |`AuthURL` | `https://accounts.google.com/o/oauth2/auth` | 认证 URL。 | |`TokenURL` | `https://oauth2.googleapis.com/token`| 获取 access_token 的 URL。 | |`UserInfoURL` | `https://www.googleapis.com/oauth2/v1/userinfo`| 获取用户信息的 URL。 | @@ -43,34 +43,34 @@ OAuth 部分的配置说明如下。 |`Scope`| `email`| OAuth 的权限范围。权限范围需要是厂商 OAuth2.0 平台配置的 scope 的子集,否则请求会失败。请求的 scope 需要能获取到`UsernameKey`的值。| |`AvatarKey`|`picture`|用户信息里的 Avatar Key。| -配置完成后重启 Explorer 服务,登录页面会先展示 OAuth 认证页面,通过后才能继续连接数据库。 +配置完成后重启{{explorer.name}}服务,登录页面会先展示 OAuth 认证页面,通过后才能继续连接数据库。 ## 连接数据库 -按以下步骤连接 NebulaGraph 数据库: +按以下步骤连接{{nebula.name}}: 1. 在浏览器地址栏输入 `http://:7002`。 - 在浏览器窗口中看到以下登录界面表示已经成功部署并启动了 Explorer。 + 在浏览器窗口中看到以下登录界面表示已经成功部署并启动了{{explorer.name}}。 - ![Nebula Explorer 登录页面](https://docs-cdn.nebula-graph.com.cn/figures/explorer_connect_230116_cn.png) + ![{{explorer.name}}登录页面](https://docs-cdn.nebula-graph.com.cn/figures/explorer_connect_230116_cn.png) !!! note - 首次登录 Nebula Explorer 的时候,页面显示*最终用户许可协议*的内容,请仔细阅读并单击**同意**。 + 首次登录{{explorer.name}}的时候,页面显示*最终用户许可协议*的内容,请仔细阅读并单击**同意**。 -2. 在 Explorer 的**配置数据库**页面上,输入以下信息: +2. 在{{explorer.name}}的**配置数据库**页面上,输入以下信息: - - **Graphd IP 地址**:填写 NebulaGraph 的 Graph 服务本机 IP 地址。例如`192.168.10.100`。 + - **Graphd IP 地址**:填写{{nebula.name}}的 Graph 服务本机 IP 地址。例如`192.168.10.100`。 !!! Note - - 即使 NebulaGraph 数据库与 Explorer 部署在同一台机器上,用户也必须填写这台机器的本机 IP 地址,而不是 `127.0.0.1` 或者 `localhost`。 - - 在新的标签页连接另一个 NebulaGraph 数据库时,会覆盖旧标签页的会话。如果需要同时登录多个 NebulaGraph 数据库,可以用不同的浏览器或者无痕模式。 + - 即使{{nebula.name}}与{{explorer.name}}部署在同一台机器上,用户也必须填写这台机器的本机 IP 地址,而不是 `127.0.0.1` 或者 `localhost`。 + - 在新的标签页连接另一个{{nebula.name}}时,会覆盖旧标签页的会话。如果需要同时登录多个{{nebula.name}},可以用不同的浏览器或者无痕模式。 - **Port**:Graphd 服务的端口。默认为`9669`。 - - **用户名**和**密码**:根据 NebulaGraph 的[身份验证](../../7.data-security/1.authentication/1.authentication.md)设置填写登录账号和密码。 + - **用户名**和**密码**:根据{{nebula.name}}的[身份验证](../../7.data-security/1.authentication/1.authentication.md)设置填写登录账号和密码。 - 如果未启用身份验证,可以填写默认用户名 `root` 和任意密码。 - 如果已启用身份验证,但是未创建账号信息,用户只能以 GOD 角色登录,必须填写用户名 `root` 和密码 `nebula`。 - 如果已启用身份验证,同时又创建了不同的用户并分配了角色,不同角色的用户使用自己的账号和密码登录。 @@ -89,4 +89,4 @@ OAuth 部分的配置说明如下。 在页面右上角,选择![icon](https://docs-cdn.nebula-graph.com.cn/figures/image-icon10.png)图标 > 清空连接。 -如果浏览器上显示**配置数据库**页面,表示 Explorer 已经成功断开了与 NebulaGraph 数据库的连接。 +如果浏览器上显示**配置数据库**页面,表示{{explorer.name}}已经成功断开了与{{nebula.name}}的连接。 diff --git a/docs-2.0/nebula-explorer/deploy-connect/ex-ug-deploy.md b/docs-2.0/nebula-explorer/deploy-connect/ex-ug-deploy.md index 4428acd49dc..01b0528b339 100644 --- a/docs-2.0/nebula-explorer/deploy-connect/ex-ug-deploy.md +++ b/docs-2.0/nebula-explorer/deploy-connect/ex-ug-deploy.md @@ -1,29 +1,29 @@ -# 部署 Explorer +# 部署{{explorer.name}} -本文介绍如何在本地通过 RPM、DEB 和 TAR 包部署 Explorer。 +本文介绍如何在本地通过 RPM、DEB 和 TAR 包部署{{explorer.name}}。 ## 前提条件 -在部署 Explorer 之前,用户需要确认以下信息: +在部署{{explorer.name}}之前,用户需要确认以下信息: -- NebulaGraph 服务已经部署并启动。详细信息参考 [NebulaGraph 安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往 NebulaGraph 安装部署")。 +- {{nebula.name}} 服务已经部署并启动。详细信息参考 [{{nebula.name}}安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往{{nebula.name}}安装部署")。 - 以下端口未被使用。 | 端口号 | 说明 | | :---- | :---- | - | 7002 | Explorer 提供的 web 服务 | + | 7002 | {{explorer.name}}提供的 web 服务 | !!! caution - Explorer 默认使用的端口号为 7002,用户可以在安装目录下的 `conf/app.conf` 文件中修改 `httpport`,并重启服务。 + {{explorer.name}}默认使用的端口号为 7002,用户可以在安装目录下的 `conf/app.conf` 文件中修改 `httpport`,并重启服务。 - 使用的 Linux 发行版为 CentOS。 - [准备 License](3.explorer-license.md)。 !!! enterpriseonly - License 仅在企业版提供,申请 License 需填写 [Nebula Explorer 试用申请](https://wj.qq.com/s2/10158890/69a8)。 + License 仅在企业版提供,申请 License 需填写 [{{explorer.name}}试用申请](https://wj.qq.com/s2/10158890/69a8)。 - 如果需要使用图计算,需要部署 HDFS。namenode 默认使用 8020 端口,datanode 默认使用 50010 端口。 @@ -33,7 +33,7 @@ ## 注意事项 -Explorer 从 3.2.0 版本开始内置了 Dag Controller 安装包,用于提供图计算服务。用户可以自行决定是否启动 Dag Controller 服务。如果没有启动 Dag Controller 服务, Explorer 中的 **Workflow** 菜单将显示为灰色无法点击。 +{{explorer.name}}从 3.2.0 版本开始内置了 Dag Controller 安装包,用于提供图计算服务。用户可以自行决定是否启动 Dag Controller 服务。如果没有启动 Dag Controller 服务,{{explorer.name}}中的 **Workflow** 菜单将显示为灰色无法点击。 ## RPM 部署 @@ -43,11 +43,11 @@ Explorer 从 3.2.0 版本开始内置了 Dag Controller 安装包,用于提供 !!! enterpriseonly - 用户可以[在线申请](https://wj.qq.com/s2/10158890/69a8)试用 Explorer 企业版;如需购买,请[联系我们](https://www.nebula-graph.com.cn/contact)。点击[定价](https://nebula-graph.com.cn/pricing/)查看更多。 + 用户可以[在线申请](https://wj.qq.com/s2/10158890/69a8)试用{{explorer.name}};如需购买,请[联系我们](https://www.nebula-graph.com.cn/contact)。点击[定价](https://nebula-graph.com.cn/pricing/)查看更多。 2. 使用`sudo rpm -i `命令安装 RPM 包。 - 例如,安装 Explorer 需要运行以下命令,默认安装路径为`/usr/local/nebula-explorer`: + 例如,安装{{explorer.name}}需要运行以下命令,默认安装路径为`/usr/local/nebula-explorer`: ```bash sudo rpm -i nebula-explorer-.x86_64.rpm @@ -76,7 +76,7 @@ Explorer 从 3.2.0 版本开始内置了 Dag Controller 安装包,用于提供 ```bash cd nebula-explorer - # 启动 Explorer。 + # 启动{{explorer.name}}。 sudo ./scripts/start.sh # (可选)启动 Dag Controller。 @@ -96,15 +96,15 @@ systemctl start nebula-explorer #启动服务 也可以在安装目录下使用以下命令,手动启动或停止服务。 ```bash -sudo ./scripts/start.sh #启动 Explorer 服务 -sudo ./scripts/stop.sh #停止 Explorer 服务 +sudo ./scripts/start.sh #启动{{explorer.name}}服务 +sudo ./scripts/stop.sh #停止{{explorer.name}}服务 sudo ./dag-ctrl/scripts/start.sh #启动 Dag Controller 服务 sudo ./dag-ctrl/scripts/stop.sh #停止 Dag Controller 服务 ``` ### 卸载 -使用以下的命令卸载 Explorer。 +使用以下的命令卸载{{explorer.name}}。 ```bash sudo rpm -e nebula-explorer-.x86_64 @@ -118,12 +118,12 @@ sudo rpm -e nebula-explorer-.x86_64 !!! enterpriseonly - 用户可以[在线申请](https://wj.qq.com/s2/10158890/69a8)试用 Explorer 企业版;如需购买,请[联系我们](https://www.nebula-graph.com.cn/contact)。点击[定价](https://nebula-graph.com.cn/pricing/)查看更多。 + 用户可以[在线申请](https://wj.qq.com/s2/10158890/69a8)试用{{explorer.name}};如需购买,请[联系我们](https://www.nebula-graph.com.cn/contact)。点击[定价](https://nebula-graph.com.cn/pricing/)查看更多。 2. 使用`sudo dpkg -i `命令安装 DEB 包。 - 例如,安装 Explorer 需要运行以下命令,默认安装路径为`/usr/local/nebula-explorer`: + 例如,安装{{explorer.name}}需要运行以下命令,默认安装路径为`/usr/local/nebula-explorer`: ```bash sudo dpkg -i nebula-explorer-{{explorer.release}}.x86_64.deb @@ -131,7 +131,7 @@ sudo rpm -e nebula-explorer-.x86_64 !!! note - 使用 DEB 包安装 Explorer 时不支持自定义安装路径。 + 使用 DEB 包安装{{explorer.name}}时不支持自定义安装路径。 3. 拷贝 License 至`nebula-explorer`目录下。 @@ -151,7 +151,7 @@ sudo rpm -e nebula-explorer-.x86_64 ```bash cd nebula-explorer - # 启动 Explorer。 + # 启动{{explorer.name}}。 sudo ./lib/start.sh # (可选)启动 Dag Controller。 @@ -172,7 +172,7 @@ sudo systemctl stop nebula-explorer.service ### 卸载 -使用以下的命令卸载 Explorer。 +使用以下的命令卸载{{explorer.name}}。 ```bash sudo dpkg -r nebula-explorer @@ -186,7 +186,7 @@ sudo dpkg -r nebula-explorer !!! enterpriseonly - Explorer 仅在企业版提供,点击[定价](https://nebula-graph.com.cn/pricing/)查看更多。 + {{explorer.name}}仅在企业版提供,点击[定价](https://nebula-graph.com.cn/pricing/)查看更多。 2. 使用 `tar -xvf` 解压 tar 包。 @@ -212,10 +212,10 @@ sudo dpkg -r nebula-explorer ```bash cd nebula-explorer - # 启动 Explorer 和 Dag Controller。 + # 启动{{explorer.name}}和 Dag Controller。 sudo ./scripts/start.sh - # 单独启动 Explorer。 + # 单独启动{{explorer.name}}。 sudo nohup ./nebula-explorer-server > explorer.log 2>&1 & ``` @@ -231,13 +231,13 @@ kill $(lsof -t -i :7002) Dag Controller 是一款任务编排调度工具,可以编排调度有向无环图(DAG)类型的作业,该作业由多个任务组成,且任务之间存在先后关系,组成一个有向无环图(DAG)。 -Dag Controller 可以结合 NebulaGraph Analytics 进行复杂的图计算。例如 Dag Controller 将算法调用请求发送给 NebulaGraph Analytics ,NebulaGraph Analytics 保存结果至 NebulaGraph 或 HDFS,Dag Controller 再将上次的计算结果作为下一个算法任务的输入创建新的任务。 +Dag Controller 可以结合{{plato.name}}进行复杂的图计算。例如 Dag Controller 将算法调用请求发送给{{plato.name}},{{plato.name}}保存结果至{{nebula.name}}或 HDFS,Dag Controller 再将上次的计算结果作为下一个算法任务的输入创建新的任务。 ### 配置步骤 -1. 配置 Dag Controller 机器 SSH 免密登录 NebulaGraph Analytics 机器,以及 NebulaGraph Analytics 集群内所有节点间的 SSH 相互免密登录。 +1. 配置 Dag Controller 机器 SSH 免密登录{{plato.name}}机器,以及{{plato.name}}集群内所有节点间的 SSH 相互免密登录。 - 例如机器 A(Dag Controller)通过 SSH 免密登录至 NebulaGraph Analytics 集群 B 中的机器 B-1。请在机器 A 上执行如下命令: + 例如机器 A(Dag Controller)通过 SSH 免密登录至{{plato.name}}集群 B 中的机器 B-1。请在机器 A 上执行如下命令: ``` //执行后按提示生成密钥,默认按回车即可。 @@ -255,7 +255,7 @@ Dag Controller 可以结合 NebulaGraph Analytics 进行复杂的图计算。例 ssh-agent是密钥管理器,用来管理多个密钥,并为其他需要使用 SSH 密钥对的程序提供代理。 -3. 配置`dag-ctrl-api.yaml`文件,路径为`dag-ctrl/etc/dag-ctrl-api.yaml`。配置 NebulaGraph Analytics 机器的用户名及端口,如果有多台机器,请确保使用相同用户名和端口。 +3. 配置`dag-ctrl-api.yaml`文件,路径为`dag-ctrl/etc/dag-ctrl-api.yaml`。配置{{plato.name}}机器的用户名及端口,如果有多台机器,请确保使用相同用户名和端口。 ```yaml # 配置名称。 @@ -272,7 +272,7 @@ Dag Controller 可以结合 NebulaGraph Analytics 进行复杂的图计算。例 Level: info # 保存级别。 Compress: false # 是否压缩。 - # NebulaGraph Analytics 机器的用户名以及 SSH 端口。 + # {{plato.name}}机器的用户名以及 SSH 端口。 SSH: UserName: vesoft Port: 22 @@ -291,7 +291,7 @@ Dag Controller 可以结合 NebulaGraph Analytics 进行复杂的图计算。例 Debug: Enable: false #是否开启 Debug。 - # Explorer 和 Dag Controller 通信的密钥。无需修改。 + # {{explorer.name}}和 Dag Controller 通信的密钥。无需修改。 RsaPriKey: | -----BEGIN RSA PRIVATE KEY----- MIICXAIBAAKBgQDcR0keIMmmV... @@ -306,7 +306,7 @@ Dag Controller 可以结合 NebulaGraph Analytics 进行复杂的图计算。例 !!! note - - 算法文件在 NebulaGraph Analytics 安装路径下的`scripts`目录内。 + - 算法文件在{{plato.name}}安装路径下的`scripts`目录内。 - 如果有多台机器,请确保算法文件路径一致。 - 其它参数是算法的执行参数,后续在[可视化工作流页面](../workflow/2.create-workflow.md)配置。 @@ -316,4 +316,4 @@ Dag Controller 可以结合 NebulaGraph Analytics 进行复杂的图计算。例 ## 后续操作 -[连接 Explorer](ex-ug-connect.md) \ No newline at end of file +[连接{{explorer.name}}](ex-ug-connect.md) \ No newline at end of file diff --git a/docs-2.0/nebula-explorer/ex-ug-page-overview.md b/docs-2.0/nebula-explorer/ex-ug-page-overview.md index 73b47468bb7..3db3c39b4bc 100644 --- a/docs-2.0/nebula-explorer/ex-ug-page-overview.md +++ b/docs-2.0/nebula-explorer/ex-ug-page-overview.md @@ -1,8 +1,8 @@ # 页面概览 -本文介绍 NebulaGraph Explorer 的基本组成,帮忙用户了解 NebulaGraph Explorer 的各功能。 +本文介绍{{explorer.name}}的基本组成,帮忙用户了解{{explorer.name}}的各功能。 -NebulaGraph Explorer 由顶部导航栏、左侧导航栏、和画布三大模块组成。 +{{explorer.name}}由顶部导航栏、左侧导航栏、和画布三大模块组成。 ![explorer-overview](https://docs-cdn.nebula-graph.com.cn/figures/ex-overview-230105-cn.png) @@ -10,27 +10,27 @@ NebulaGraph Explorer 由顶部导航栏、左侧导航栏、和画布三大模 | 图标/元素 | 说明 | | ------------------------------------------------------------ | ---------------------------------------------------- | -| **Explorer** | 可视化探索及分析数据。详情参见[开始探索](graph-explorer/ex-ug-query-exploration.md)、[节点筛选](graph-explorer/node-filtering.md)、[探索拓展](graph-explorer/ex-ug-graph-exploration.md)、[图计算](graph-explorer/graph-algorithm.md)。 | +| **{{explorer.name}}** | 可视化探索及分析数据。详情参见[开始探索](graph-explorer/ex-ug-query-exploration.md)、[节点筛选](graph-explorer/node-filtering.md)、[探索拓展](graph-explorer/ex-ug-graph-exploration.md)、[图计算](graph-explorer/graph-algorithm.md)。 | | **Visual Query** | 可视化构造场景进行数据查询。详情参见[可视化查询](12.query-visually.md)。 | | **Workflow** | 可视化构造自定义工作流进行复杂图计算。需要在 ![setting](https://docs-cdn.nebula-graph.com.cn/figures/navbar-setting-0105.png) 里开启工作流才能显示 Workflow 页面。详情参见[工作流简介](workflow/workflows.md)。| | ![Schema_drafting](https://docs-cdn.nebula-graph.com.cn/figures/schema_drafting_221110.png) | 在画板上自行设计 Schema,可以直观展示点边关系。详情参见[Schema 草图](db-management/draft.md)。| -| ![create_schema](https://docs-cdn.nebula-graph.com.cn/figures/studio-nav-schema.png) | 对 NebulaGraph 图空间进行管理。详情参见[创建 Schema](db-management/10.create-schema.md)。 | -| ![import_data](https://docs-cdn.nebula-graph.com.cn/figures/studio-btn-download.png) | 将数据批量导入 NebulaGraph。详情参见[导入数据](db-management/11.import-data.md)。 | -| ![Console](https://docs-cdn.nebula-graph.com.cn/figures/nav-console2.png) | 对 NebulaGraph 内的数据使用 nGQL 进行查询操作。详情参见[控制台](db-management/explorer-console.md)。 | +| ![create_schema](https://docs-cdn.nebula-graph.com.cn/figures/studio-nav-schema.png) | 对{{nebula.name}}图空间进行管理。详情参见[创建 Schema](db-management/10.create-schema.md)。 | +| ![import_data](https://docs-cdn.nebula-graph.com.cn/figures/studio-btn-download.png) | 将数据批量导入{{nebula.name}}。详情参见[导入数据](db-management/11.import-data.md)。 | +| ![Console](https://docs-cdn.nebula-graph.com.cn/figures/nav-console2.png) | 对{{nebula.name}}内的数据使用 nGQL 进行查询操作。详情参见[控制台](db-management/explorer-console.md)。 | | ![Template](https://docs-cdn.nebula-graph.com.cn/figures/icon-navbar-queryTemplate.png)| nGQL 语句的模板列表。详情参见[查询语句模板](db-management/ngql-template.md)。| | ![db_user_management](https://docs-cdn.nebula-graph.com.cn/figures/db_user_management_221024.png) | 数据库用户管理。详情参见[数据库用户管理](db-management/dbuser_management.md)。 | -| ![setting](https://docs-cdn.nebula-graph.com.cn/figures/navbar-setting-0105.png) | 全局设置。可以设置 Explorer 页面的语言、开启 Beta 功能、画布查询结果最大数量等。 | -| ![help](https://docs-cdn.nebula-graph.com.cn/figures/navbar-help.png) | 帮助页面,指导和帮忙用户使用 NebulaGraph。 | -| ![feedback](https://docs-cdn.nebula-graph.com.cn/figures/navbar-feedback-230105.png) | 反馈页面。可以反馈故障、提交建议、参与调研或联系 NebulaGraph 团队。 | +| ![setting](https://docs-cdn.nebula-graph.com.cn/figures/navbar-setting-0105.png) | 全局设置。可以设置{{explorer.name}}页面的语言、开启 Beta 功能、画布查询结果最大数量等。 | +| ![help](https://docs-cdn.nebula-graph.com.cn/figures/navbar-help.png) | 帮助页面,指导和帮忙用户使用{{nebula.name}}。 | +| ![feedback](https://docs-cdn.nebula-graph.com.cn/figures/navbar-feedback-230105.png) | 反馈页面。可以反馈故障、提交建议、参与调研或联系{{nebula.name}}团队。 | | ![clear_connection](https://docs-cdn.nebula-graph.com.cn/figures/session_221024.png) | 显示连接信息和版本信息。支持修改密码和退出登录。 | ## 左侧导航栏 !!! note - 登录 Explorer 后,用户需选择并单击一个目标图空间,然后才可解锁左侧导航栏的查询及分析功能。详情参见[选择图空间](graph-explorer/13.choose-graphspace.md)。 + 登录{{explorer.name}}后,用户需选择并单击一个目标图空间,然后才可解锁左侧导航栏的查询及分析功能。详情参见[选择图空间](graph-explorer/13.choose-graphspace.md)。 -用户可以通过单击 Explorer 页面左侧的图标进行图数据导入、图数据分析与探索等操作。左侧导航栏的图标及描述如下: +用户可以通过单击{{explorer.name}}页面左侧的图标进行图数据导入、图数据分析与探索等操作。左侧导航栏的图标及描述如下: | 图标 | 说明 | | ----- | ---- | @@ -49,9 +49,9 @@ NebulaGraph Explorer 由顶部导航栏、左侧导航栏、和画布三大模 !!! note - 登录 Explorer 后,用户需选择并单击一个目标图空间,才可进入画布页面。详情参见[选择图空间](graph-explorer/13.choose-graphspace.md)。 + 登录{{explorer.name}}后,用户需选择并单击一个目标图空间,才可进入画布页面。详情参见[选择图空间](graph-explorer/13.choose-graphspace.md)。 -图数据可视化地展示在画布中。Explorer 的画布由以下部分组成: +图数据可视化地展示在画布中。{{explorer.name}}的画布由以下部分组成: - 顶部页签 - 可视化模式 diff --git a/docs-2.0/nebula-explorer/ex-ug-shortcuts.md b/docs-2.0/nebula-explorer/ex-ug-shortcuts.md index 93fe5831bf4..2e198257aa4 100644 --- a/docs-2.0/nebula-explorer/ex-ug-shortcuts.md +++ b/docs-2.0/nebula-explorer/ex-ug-shortcuts.md @@ -1,6 +1,6 @@ # 基本操作和快捷键 -本文列出了 Explorer 的基本操作及快捷键。 +本文列出了{{explorer.name}}的基本操作及快捷键。 ## 基本操作 diff --git a/docs-2.0/nebula-explorer/faq.md b/docs-2.0/nebula-explorer/faq.md index b68302e2fc0..c96a082e101 100644 --- a/docs-2.0/nebula-explorer/faq.md +++ b/docs-2.0/nebula-explorer/faq.md @@ -1,10 +1,10 @@ # 常见问题 FAQ -本文列出了使用 Explorer 时可能遇到的常见问题,用户可以使用文档中心或者浏览器的搜索功能查找相应问题。 +本文列出了使用{{explorer.name}}时可能遇到的常见问题,用户可以使用文档中心或者浏览器的搜索功能查找相应问题。 ## 如果 Graph 服务返回的查询结果数据量过大,会导致 Dag Controller 服务崩溃吗? -Dag Controller 服务仅仅提供调度功能,不会崩溃,但是数据量过大可能会导致 NebulaGraph Analytics 服务读写 HDFS 或者 NebulaGraph 时内存不足而崩溃。 +Dag Controller 服务仅仅提供调度功能,不会崩溃,但是数据量过大可能会导致{{plato.name}}服务读写 HDFS 或者{{nebula.name}}时内存不足而崩溃。 ## 如果一个作业中的某个任务失败,能否从失败的任务开始重新执行? @@ -12,7 +12,7 @@ Dag Controller 服务仅仅提供调度功能,不会崩溃,但是数据量 ## 如果任务结果保存很慢,或任务间数据传输很慢,如何加速? -Dag Controller 包含图查询组件和图计算组件。图查询是发送请求给 Graph 进程进行查询,因此只能增大 Graph 服务的内存进行加速;图计算是由 NebulaGraph Analytics 提供的分布式节点进行计算,可以增大计算集群规模进行加速。 +Dag Controller 包含图查询组件和图计算组件。图查询是发送请求给 Graph 进程进行查询,因此只能增大 Graph 服务的内存进行加速;图计算是由{{plato.name}}提供的分布式节点进行计算,可以增大计算集群规模进行加速。 ## HDFS 服务器无法连接时,任务状态一直为`running`怎么办? @@ -56,7 +56,7 @@ Dag Controller 包含图查询组件和图计算组件。图查询是发送请 !!! note - Dag Controller 和 Analytics 在同一台机器时,也需要配置免密登录。 + Dag Controller 和{{plato.name}}在同一台机器时,也需要配置免密登录。 2. 检查 Dag Controller 的配置文件。 diff --git a/docs-2.0/nebula-explorer/graph-explorer/13.choose-graphspace.md b/docs-2.0/nebula-explorer/graph-explorer/13.choose-graphspace.md index f9e52dea814..02a0aa03f19 100644 --- a/docs-2.0/nebula-explorer/graph-explorer/13.choose-graphspace.md +++ b/docs-2.0/nebula-explorer/graph-explorer/13.choose-graphspace.md @@ -1,20 +1,20 @@ # 选择图空间 -用户使用 Explorer 的功能前,需要先选择一个图空间,然后才能对图空间中的数据进行查询和分析。本文介绍如何选择图空间。 +用户使用{{explorer.name}}的功能前,需要先选择一个图空间,然后才能对图空间中的数据进行查询和分析。本文介绍如何选择图空间。 ## 前提条件 -已连接 Explorer。具体操作,参见[连接 Explorer](../deploy-connect/ex-ug-connect.md)。 +已连接{{explorer.name}}。具体操作,参见[连接{{explorer.name}}](../deploy-connect/ex-ug-connect.md)。 ## 操作步骤 -登录 Explorer 后,系统首先会显示图空间选择页面,用户只需选择目标图空间即可。 +登录{{explorer.name}}后,系统首先会显示图空间选择页面,用户只需选择目标图空间即可。 ![Create_graphspace](https://docs-cdn.nebula-graph.com.cn/figures/select-space-220718-cn.png) 之后如果要再次选择图空间,可以通过以下方式: -1. 在 Explorer 页面左侧的导航栏中,单击图空间![graphSpace](https://docs-cdn.nebula-graph.com.cn/figures/nav-graphSpace.png)图标。 +1. 在{{explorer.name}}页面左侧的导航栏中,单击图空间![graphSpace](https://docs-cdn.nebula-graph.com.cn/figures/nav-graphSpace.png)图标。 2. 选择目标图空间。 !!! note diff --git a/docs-2.0/nebula-explorer/graph-explorer/ex-ug-query-exploration.md b/docs-2.0/nebula-explorer/graph-explorer/ex-ug-query-exploration.md index e3a84183f41..4090edee545 100644 --- a/docs-2.0/nebula-explorer/graph-explorer/ex-ug-query-exploration.md +++ b/docs-2.0/nebula-explorer/graph-explorer/ex-ug-query-exploration.md @@ -12,7 +12,7 @@ ## 操作步骤 -在 Explorer 页面左侧单击**开始**图标![query](https://docs-cdn.nebula-graph.com.cn/figures/nav-query2_cn.png)然后查询数据。查询到的数据会显示在画布中。查询方式如下: +在{{explorer.name}}页面左侧单击**开始**图标![query](https://docs-cdn.nebula-graph.com.cn/figures/nav-query2_cn.png)然后查询数据。查询到的数据会显示在画布中。查询方式如下: - VID 查询 - Tag 查询 diff --git a/docs-2.0/nebula-explorer/iframe.md b/docs-2.0/nebula-explorer/iframe.md index 04d989d3de5..4bd15700fc5 100644 --- a/docs-2.0/nebula-explorer/iframe.md +++ b/docs-2.0/nebula-explorer/iframe.md @@ -1,19 +1,19 @@ # 内联框架 -NebulaGraph Explorer 支持内联框架(iframe),可以将画布嵌入至第三方页面中使用。本文介绍如何嵌入画布。 +{{explorer.name}}支持内联框架(iframe),可以将画布嵌入至第三方页面中使用。本文介绍如何嵌入画布。 ## 前提条件 -已安装 Explorer。 +已安装{{explorer.name}}。 ## 注意事项 -- 嵌入的 Explorer 页面默认直接访问目标图空间,因此会屏蔽部分页面及功能。例如上方导航栏、左侧导航栏中的模板查询和切换图空间等。如果需要访问多个图空间,可以在多个页面中分别嵌入。 +- 嵌入的{{explorer.name}}页面默认直接访问目标图空间,因此会屏蔽部分页面及功能。例如上方导航栏、左侧导航栏中的模板查询和切换图空间等。如果需要访问多个图空间,可以在多个页面中分别嵌入。 - 暂不支持切换语言,默认为中文页面。 ## 步骤 -1. 在 Explorer 安装目录内修改配置文件`config/app-config.yaml`。需要修改的内容如下。 +1. 在{{explorer.name}}安装目录内修改配置文件`config/app-config.yaml`。需要修改的内容如下。 ```bash # 取消 CertFile 和 KeyFile 参数的注释。 @@ -43,7 +43,7 @@ NebulaGraph Explorer 支持内联框架(iframe),可以将画布嵌入至 - `-out`:指定生成的证书请求或者自签名证书名称。 - `-keyout`:指定自动生成的密钥名称。 -3. 用户自行开发,在第三方页面中通过 iframe 方式嵌入 Explorer。 +3. 用户自行开发,在第三方页面中通过 iframe 方式嵌入{{explorer.name}}。 4. 在父页面通过 postMessage 方法传递登录消息,格式如下: @@ -58,20 +58,20 @@ NebulaGraph Explorer 支持内联框架(iframe),可以将画布嵌入至 - type:方法类型必须为`NebulaGraphExploreLogin`。 - data: - - `authorization`:NebulaGraph 账号和密码组成数组并序列化,然后进行 Base64 编码。数组格式为`['账号', '密码']`,示例为`['root', 'nebula']`,编码后为`WyJyb290IiwibmVidWxhIl0=`。 - - `host`:NebulaGraph 的 Graph 服务地址。 + - `authorization`:{{nebula.name}}账号和密码组成数组并序列化,然后进行 Base64 编码。数组格式为`['账号', '密码']`,示例为`['root', 'nebula']`,编码后为`WyJyb290IiwibmVidWxhIl0=`。 + - `host`:{{nebula.name}}的 Graph 服务地址。 - `space`:目标图空间名称。 -5. 启动 Explorer 服务。 +5. 启动{{explorer.name}}服务。 !!! note - 如果是 RPM/DEB 安装的 Explorer,请执行命令`sudo ./nebula-explorer-server &`。 + 如果是 RPM/DEB 安装的{{explorer.name}},请执行命令`sudo ./nebula-explorer-server &`。 ```bash ./scripts/start.sh ``` -6. 访问第三方页面,检查是否可以查看到嵌入的 Explorer 页面。示例页面中第一个页面展示`basketballplayer`图空间,第二个和第三个页面展示其他图空间。 +6. 访问第三方页面,检查是否可以查看到嵌入的{{explorer.name}}页面。示例页面中第一个页面展示`basketballplayer`图空间,第二个和第三个页面展示其他图空间。 ![iframe_example](https://docs-cdn.nebula-graph.com.cn/figures/explorer_iframe_example_221025.png) \ No newline at end of file diff --git a/docs-2.0/nebula-explorer/workflow/1.prepare-resources.md b/docs-2.0/nebula-explorer/workflow/1.prepare-resources.md index 88db8488c24..25b7dbeeadc 100644 --- a/docs-2.0/nebula-explorer/workflow/1.prepare-resources.md +++ b/docs-2.0/nebula-explorer/workflow/1.prepare-resources.md @@ -1,15 +1,15 @@ # 资源配置 -使用工作流之前,需要进行资源配置,包括 NebulaGraph 配置、HDFS 配置和 NebulaGraph Analytics 配置。 +使用工作流之前,需要进行资源配置,包括{{nebula.name}}配置、HDFS 配置和{{plato.name}}配置。 ## 前提条件 -- 已部署 {{plato.release}} 或以上版本的 NebulaGraph Analytics。详情参见[NebulaGraph Analytics](../..//graph-computing/nebula-analytics.md)。 -- 已配置并启动 Dag Controller。详情参见[部署 Explorer](../deploy-connect/ex-ug-deploy.md)。 +- 已部署 {{plato.release}} 或以上版本的{{plato.name}}。详情参见[{{plato.name}}](../..//graph-computing/nebula-analytics.md)。 +- 已配置并启动 Dag Controller。详情参见[部署{{explorer.name}}](../deploy-connect/ex-ug-deploy.md)。 ## 操作步骤 -1. 在 Explorer 页面顶部的导航栏中,单击 **Workflow**。 +1. 在{{explorer.name}}页面顶部的导航栏中,单击 **Workflow**。 2. 在**工作流**标签页单击**配置**。 @@ -19,8 +19,8 @@ |类型|说明| |:--|:--| - |NebulaGraph 配置| 执行图查询或写入图计算结果的 Graph 服务地址。默认为登录 Explorer 使用的 Graph 服务,无法修改。可以设置三种服务的超时时间。| - |HDFS 配置| 存储结果的 HDFS 地址。单击**添加**新增地址,设置 HDFS 名称、HDFS 路径(`fs.defaultFS`配置)、HDFS 用户名。HDFS 路径支持配置保存路径,例如`hdfs://192.168.8.100:9000/test`。需要先在 Analytics 所在机器上安装 HDFS 客户端,该配置才能生效。| - |NebulaGraph Analytics 配置| 执行图计算的 NebulaGraph Analytics 地址。单击**添加**新增地址。| + |{{nebula.name}}配置| 执行图查询或写入图计算结果的 Graph 服务地址。默认为登录{{explorer.name}}使用的 Graph 服务,无法修改。可以设置三种服务的超时时间。| + |HDFS 配置| 存储结果的 HDFS 地址。单击**添加**新增地址,设置 HDFS 名称、HDFS 路径(`fs.defaultFS`配置)、HDFS 用户名。HDFS 路径支持配置保存路径,例如`hdfs://192.168.8.100:9000/test`。需要先在{{plato.name}}所在机器上安装 HDFS 客户端,该配置才能生效。| + |{{plato.name}}配置| 执行图计算的{{plato.name}}地址。单击**添加**新增地址。| 4. 配置完成后,单击**确认**。 diff --git a/docs-2.0/nebula-explorer/workflow/2.create-workflow.md b/docs-2.0/nebula-explorer/workflow/2.create-workflow.md index 6754677d65a..69ca750a334 100644 --- a/docs-2.0/nebula-explorer/workflow/2.create-workflow.md +++ b/docs-2.0/nebula-explorer/workflow/2.create-workflow.md @@ -4,7 +4,7 @@ ## 前提条件 -- 已有数据源。数据源可以是 NebulaGraph 中的数据或者 HDFS 上的 CSV 文件。 +- 已有数据源。数据源可以是{{nebula.name}}中的数据或者 HDFS 上的 CSV 文件。 - 已完成[资源配置](1.prepare-resources.md)。 @@ -12,7 +12,7 @@ 以 MATCH 语句`MATCH (v1:player)--(v2) RETURN id(v1), id(v2);`的结果做为 PageRank 算法的输入,介绍如何创建一个简单的工作流。 -1. 在 Explorer 页面顶部的导航栏中,单击 **Workflow**。 +1. 在{{explorer.name}}页面顶部的导航栏中,单击 **Workflow**。 2. 在**工作流**标签页单击**新建工作流**,进入流程画布页面。 @@ -51,7 +51,7 @@ |参数配置|设置图算法特有的参数。不同算法的参数不同,部分参数可以从任意上游组件获取,此时锚点显示为黄色。| |输出|显示图计算结果的列名,无法修改。| |执行配置|**机器数量**表示将要执行算法的机器数量。
**进程数量**表示将要执行算法的总进程数,会根据机器数量平均分配到各个机器。
**线程数量**表示每个进程会启动多少个线程。| - |结果|设置结果的保存位置。可以保存在 HDFS 或 NebulaGraph 中。
保存为 HDFS 时只需要选择 HDFS ,保存路径无需修改,会根据作业和任务 ID 自动生成。
保存为 NebulaGraph 时,需要预先在相应图空间中创建 Tag 用于保存结果。Tag 的属性说明请参见[算法简介](../../graph-computing/algorithm-description.md)。
部分算法只支持保存在 HDFS 上。| + |结果|设置结果的保存位置。可以保存在 HDFS 或{{nebula.name}}中。
保存为 HDFS 时只需要选择 HDFS ,保存路径无需修改,会根据作业和任务 ID 自动生成。
保存为{{nebula.name}}时,需要预先在相应图空间中创建 Tag 用于保存结果。Tag 的属性说明请参见[算法简介](../../graph-computing/algorithm-description.md)。
部分算法只支持保存在 HDFS 上。| 6. 在画布左上角自动生成的工作流名称旁单击![pencil](https://docs-cdn.nebula-graph.com.cn/figures/workflow-edit.png)修改工作流名称,然后在画布右上角单击**运行**,会自动跳转至作业页面显示作业进度,耐心等待作业完成即可查看结果。详情参见[作业管理](4.jobs-management.md)。 diff --git a/docs-2.0/nebula-explorer/workflow/3.workflow-management.md b/docs-2.0/nebula-explorer/workflow/3.workflow-management.md index 895937fbe1f..305b663d890 100644 --- a/docs-2.0/nebula-explorer/workflow/3.workflow-management.md +++ b/docs-2.0/nebula-explorer/workflow/3.workflow-management.md @@ -4,7 +4,7 @@ ## 操作步骤 -1. 在 Explorer 页面顶部的导航栏中,单击 **Workflow**。 +1. 在{{explorer.name}}页面顶部的导航栏中,单击 **Workflow**。 2. 在**工作流**标签页可以查看所有已保存的工作流,页面显示工作流名称、创建时间、最近一次修改时间、包含的图算法。 diff --git a/docs-2.0/nebula-explorer/workflow/4.jobs-management.md b/docs-2.0/nebula-explorer/workflow/4.jobs-management.md index 3e9583033f6..c92d983a14d 100644 --- a/docs-2.0/nebula-explorer/workflow/4.jobs-management.md +++ b/docs-2.0/nebula-explorer/workflow/4.jobs-management.md @@ -4,7 +4,7 @@ ## 操作步骤 -1. 在 Explorer 页面顶部的导航栏中,单击 **Workflow**。 +1. 在{{explorer.name}}页面顶部的导航栏中,单击 **Workflow**。 2. 在**作业**标签页可以查看所有执行的作业,页面显示作业 ID、作业名称、状态、创建时间、结束时间、工作流版本。 @@ -16,7 +16,7 @@ - 在列表的**操作**列,可以执行如下操作: - - **在Explorer中打开**:对于执行成功的作业,可以选择图空间和组件,查看组件的输出结果。支持将结果导出为 CSV 文件。 + - **在{{explorer.name}}中打开**:对于执行成功的作业,可以选择图空间和组件,查看组件的输出结果。支持将结果导出为 CSV 文件。 - **重跑**:对于执行失败的作业,可以重跑该作业。 diff --git a/docs-2.0/nebula-explorer/workflow/workflow-api/workflow-api-overview.md b/docs-2.0/nebula-explorer/workflow/workflow-api/workflow-api-overview.md index 901e05f7600..dc36d0758dc 100644 --- a/docs-2.0/nebula-explorer/workflow/workflow-api/workflow-api-overview.md +++ b/docs-2.0/nebula-explorer/workflow/workflow-api/workflow-api-overview.md @@ -1,6 +1,6 @@ # 工作流 API 概览 -NebulaGraph Explorer 提供 API 接口使用工作流的部分功能。 +{{explorer.name}}提供 API 接口使用工作流的部分功能。 当前支持的 API 接口如下: @@ -23,9 +23,9 @@ curl http://:/?{} - ``:curl 支持大量选项,工作流使用较多的是`-X`、`-H`、`-d`。关于选项的详细说明,参见 [curl 官方文档](https://curl.se/docs/manpage.html)。 -- ``:NebulaGraph Explorer 访问地址。 +- ``:{{explorer.name}}访问地址。 -- ``:NebulaGraph Explorer 访问端口。 +- ``:{{explorer.name}}访问端口。 - ``:API 的调用路径。例如`api-open/v1/jobs`。 @@ -39,11 +39,11 @@ curl http://:/?{} curl -i -X POST -H "Content-Type: application/json" -H "Authorization: Bearer " -d '{"address":"","port":}' http://:/api-open/v1/connect ``` -- ``:Base64 编码后的 NebulaGraph 账号和密码字符串。以用户名`root`、密码`123`为例,序列化后的字符串为`["root","123"]`,Base64 编码后为`WyJyb290IiwiMTIzIl0=`。 -- ``:NebulaGraph 访问地址。 -- ``:NebulaGraph 访问端口。 -- ``:NebulaGraph Explorer 访问地址。 -- ``:NebulaGraph Explorer 访问端口。 +- ``:Base64 编码后的{{nebula.name}}账号和密码字符串。以用户名`root`、密码`123`为例,序列化后的字符串为`["root","123"]`,Base64 编码后为`WyJyb290IiwiMTIzIl0=`。 +- ``:{{nebula.name}}访问地址。 +- ``:{{nebula.name}}访问端口。 +- ``:{{explorer.name}}访问地址。 +- ``:{{explorer.name}}访问端口。 示例: diff --git a/docs-2.0/nebula-explorer/workflow/workflows.md b/docs-2.0/nebula-explorer/workflow/workflows.md index e78dc655cfc..7ae32a773f0 100644 --- a/docs-2.0/nebula-explorer/workflow/workflows.md +++ b/docs-2.0/nebula-explorer/workflow/workflows.md @@ -1,14 +1,14 @@ # 工作流简介 -Nebula Explorer 支持用自定义工作流进行可视化的复杂图计算。 +{{explorer.name}}支持用自定义工作流进行可视化的复杂图计算。 ## 背景信息 -Nebula Explorer 提供多种**组件**(Component),包括图查询组件和图计算组件,用户可以基于编排调度工具 Dag Controller 自由组合这些组件,例如将图查询组件的输出作为图计算组件的输入,最终形成一个有向无环的**工作流**(Workflow)。 +{{explorer.name}}提供多种**组件**(Component),包括图查询组件和图计算组件,用户可以基于编排调度工具 Dag Controller 自由组合这些组件,例如将图查询组件的输出作为图计算组件的输入,最终形成一个有向无环的**工作流**(Workflow)。 ![workflow-example](https://docs-cdn.nebula-graph.com.cn/figures/ex-workflow-example-220621.png) -需要进行图计算时再将工作流实例化,组件实例化后称为**任务**(Task),工作流实例化后称为**作业**(Job)。一个作业可以由多个任务构成。Explorer 将作业发送给 Nebula Analytics 进行图计算,完成后可以在作业列表查看对应的图计算结果。 +需要进行图计算时再将工作流实例化,组件实例化后称为**任务**(Task),工作流实例化后称为**作业**(Job)。一个作业可以由多个任务构成。{{explorer.name}}将作业发送给{{plato.name}}进行图计算,完成后可以在作业列表查看对应的图计算结果。 ## 功能说明 @@ -21,18 +21,18 @@ Nebula Explorer 提供多种**组件**(Component),包括图查询组件和 - 需要在 ![setting](https://docs-cdn.nebula-graph.com.cn/figures/navbar-setting-0105.png) 里开启工作流才能显示 Workflow 页面。 -- 使用工作流需要额外部署 Dag Controller 和 Nebula Analytics。详情参见[NebulaGraph Analytics](../..//graph-computing/nebula-analytics.md)和[部署 Explorer](../deploy-connect/ex-ug-deploy.md)。 +- 使用工作流需要额外部署 Dag Controller 和{{plato.name}}。详情参见[{{plato.name}}](../..//graph-computing/nebula-analytics.md)和[部署{{explorer.name}}](../deploy-connect/ex-ug-deploy.md)。 - 图查询组件的输入只能是查询语言。 - 图查询组件的结果仅支持保存在 HDFS,方便被多个算法调用。 -- 图计算组件的输入可以是 NebulaGraph 或 HDFS 的指定数据,也可以依赖于图查询组件的结果。 +- 图计算组件的输入可以是{{nebula.name}}或 HDFS 的指定数据,也可以依赖于图查询组件的结果。 如果依赖于前一个图查询组件的结果,必须和该图查询组件全连接,即该图计算组件的白色输入锚点全都和上一个图查询组件的白色输出锚点连接。 - 部分算法的参数配置也可以依赖于上游节点。 -- 图计算组件结果允许保存在 HDFS、NebulaGraph 中,但是并非所有算法的结果都适合存入到 NebulaGraph 里,在设置**结果保存**页面时,部分算法只能选择 HDFS。 +- 图计算组件结果允许保存在 HDFS、{{nebula.name}}中,但是并非所有算法的结果都适合存入到{{nebula.name}}里,在设置**结果保存**页面时,部分算法只能选择 HDFS。 ## 算法参数配置说明 diff --git a/docs-2.0/nebula-flink-connector.md b/docs-2.0/nebula-flink-connector.md index b0fad5b7843..8a506e42307 100644 --- a/docs-2.0/nebula-flink-connector.md +++ b/docs-2.0/nebula-flink-connector.md @@ -1,6 +1,6 @@ # NebulaGraph Flink Connector -NebulaGraph Flink Connector 是一款帮助 Flink 用户快速访问 NebulaGraph 的连接器,支持从 NebulaGraph 图数据库中读取数据,或者将其他外部数据源读取的数据写入 NebulaGraph 图数据库。 +NebulaGraph Flink Connector 是一款帮助 Flink 用户快速访问{{nebula.name}}的连接器,支持从{{nebula.name}}图数据库中读取数据,或者将其他外部数据源读取的数据写入{{nebula.name}}图数据库。 更多使用说明请参见 [NebulaGraph Flink Connector](https://github.com/vesoft-inc/nebula-flink-connector)。 @@ -8,11 +8,11 @@ NebulaGraph Flink Connector 是一款帮助 Flink 用户快速访问 NebulaGraph NebulaGraph Flink Connector 适用于以下场景: -- 在不同的 NebulaGraph 集群之间迁移数据。 +- 在不同的{{nebula.name}}集群之间迁移数据。 -- 在同一个 NebulaGraph 集群内不同图空间之间迁移数据。 +- 在同一个{{nebula.name}}集群内不同图空间之间迁移数据。 -- NebulaGraph 与其他数据源之间迁移数据。 +- {{nebula.name}}与其他数据源之间迁移数据。 ## 更新说明 diff --git a/docs-2.0/nebula-flink/nf-ug-compile.md b/docs-2.0/nebula-flink/nf-ug-compile.md deleted file mode 100644 index 72c649c3b6b..00000000000 --- a/docs-2.0/nebula-flink/nf-ug-compile.md +++ /dev/null @@ -1,49 +0,0 @@ -# 编译 NebulaGraph Flink Connector - -按以下步骤编译 NebulaGraph Flink Connector v1.x: - -1. 克隆 `nebula-java` 源代码。 - - ```bash - git clone -b v1.0 https://github.com/vesoft-inc/nebula-java.git - ``` - -2. 切换到 `nebula-java` 目录,并打包 NebulaGraph Java 1.x。 - - ```bash - cd nebula-java - mvn clean install -Dgpg.skip -Dmaven.javadoc.skip=true -Dmaven.test.skip=true - ``` - -3. 进入 `tools/nebula-flink` 目录,并编译 NebulaGraph Flink Connector v1.x。 - - ```bash - cd nebula-java/tools/nebula-flink - mvn clean package -Dgpg.skip -Dmaven.javadoc.skip=true -Dmaven.test.skip=true - ``` - -编译成功后,用户可以在当前目录里看到如下目录结构。在 `target` 目录下,用户可以看到 `nebula-flink-1.x.y.jar` 文件。将这个文件复制到本地 Maven 库的 `com/vesoft/nebula-flink/` 目录中。 - -```text -├── README.md -├── pom.xml -├── src -│ ├── main -│ └── test -└── target - ├── classes - ├── generated-sources - ├── generated-test-sources - ├── maven-archiver - ├── maven-status - ├── nebula-flink-1.x.y-sources.jar - ├── nebula-flink-1.x.y-test-sources.jar - ├── nebula-flink-1.x.y-tests.jar - ├── nebula-flink-1.x.y.jar - ├── original-nebula-flink-1.x.y.jar - └── test-classes -``` - -!!! Note - - JAR 文件版本号会因 NebulaGraph Java Client 的发布版本而异。用户可以在 [nebula-java 仓库的 Releases 页面](https://github.com/vesoft-inc/nebula-java/releases "点击前往 GitHub 网站") 查看最新的 v1.x 版本。 diff --git a/docs-2.0/nebula-flink/nf-ug-customize-sink.md b/docs-2.0/nebula-flink/nf-ug-customize-sink.md deleted file mode 100644 index 8bbe2bf222e..00000000000 --- a/docs-2.0/nebula-flink/nf-ug-customize-sink.md +++ /dev/null @@ -1,213 +0,0 @@ -# 自定义 sink (NebulaSink) - -NebulaGraph Flink Connector 支持以 `DataStream.addSink` 的方式将 Flink 数据流写入 NebulaGraph 数据库。 - -!!! Note - - NebulaGraph Flink Connector 使用 Flink 1.11-SNAPSHOT 开发,这个版本已经不再支持使用 `writeUsingOutputFormat` 方式定义输出端的接口,源码如下。所以,在使用自定义 NebulaSink 时,请务必使用 `DataStream.addSink` 方式。 - /** @deprecated */ - @Deprecated - @PublicEvolving - public DataStreamSink writeUsingOutputFormat(OutputFormat format) { - return this.addSink(new OutputFormatSinkFunction(format)); - } - -NebulaGraph Flink Connector 中实现了自定义的 `NebulaSinkFunction`,开发者通过调用 `dataSource.addSink` 方法并将 `NebulaSinkFunction` 对象作为参数传入即可实现将 Flink 数据流写入 NebulaGraph 数据库中。 - -NebulaSink 的实现类图如下所示。 - -![NebulaGraph Flink Connector 的 sink 实现类图](https://docs-cdn.nebula-graph.com.cn/nebula-java-tools-docs/fl-ug-003.png "sink 实现类图") - -最重要的两个类是 `NebulaSinkFunction` `NebulaBatchOutputFormat`。 - -## `NebulaSinkFunction` - -`NebulaSinkFunction` 继承自 `AbstractRichFunction` 并实现了以下方法: - -- `open`:调用 `NebulaBatchOutputFormat` 的 `open` 方法以准备资源。 -- `close`:调用 `NebulaBatchOutputFormat` 的 `close` 方法以释放资源。 -- `invoke`:是 NebulaSink 中的核心方法,调用 `NebulaBatchOutputFormat` 中的 `write` 方法写入数据。 -- `flush`:调用 `NebulaBatchOutputFormat` 的 `flush` 方法提交数据。 - -## `NebulaBatchOutputFormat` - -`NebulaBatchOutputFormat` 继承自 `AbstractNebulaOutPutFormat`,而后者继承自 `RichOutputFormat`,主要实现了以下方法: - -- `open`:准备 NebulaGraph 数据库的 Graph 服务的连接,并初始化数据写入执行器 `nebulaBatchExecutor`。 -- `close`:提交最后批次的数据,等待最后提交的回调结果并关闭服务连接等资源。 -- `writeRecord`:核心方法,将数据写入 bufferedRow 中,并在达到配置的批量写入上限时提交写入。NebulaSink 的写入操作是异步的,所以需要执行回调来获取执行结果。 -- `flush`:当 bufferedRow 存在数据时,将数据提交到 NebulaGraph 中。 - -在 `AbstractNebulaOutputFormat` 中调用了 `NebulaBatchExecutor`,用于数据的批量管理和批量提交,并通过定义回调函数接收批量提交的结果,代码如下: - -```java - /** - * write one record to buffer - */ - @Override - public final synchronized void writeRecord(T row) throws IOException { - nebulaBatchExecutor.addToBatch(row); - - if (numPendingRow.incrementAndGet() >= executionOptions.getBatch()) { - commit(); - } - } - - /** - * put record into buffer - * - * @param record represent vertex or edge - */ - void addToBatch(T record) { - boolean isVertex = executionOptions.getDataType().isVertex(); - - NebulaOutputFormatConverter converter; - if (isVertex) { - converter = new NebulaRowVertexOutputFormatConverter((VertexExecutionOptions) executionOptions); - } else { - converter = new NebulaRowEdgeOutputFormatConverter((EdgeExecutionOptions) executionOptions); - } - String value = converter.createValue(record, executionOptions.getPolicy()); - if (value == null) { - return; - } - nebulaBufferedRow.putRow(value); - } - - /** - * commit batch insert statements - */ - private synchronized void commit() throws IOException { - graphClient.switchSpace(executionOptions.getGraphSpace()); - future = nebulaBatchExecutor.executeBatch(graphClient); - // clear waiting rows - numPendingRow.compareAndSet(executionOptions.getBatch(),0); - } - - /** - * execute the insert statement - * - * @param client Asynchronous graph client - */ - ListenableFuture executeBatch(AsyncGraphClientImpl client) { - String propNames = String.join(NebulaConstant.COMMA, executionOptions.getFields()); - String values = String.join(NebulaConstant.COMMA, nebulaBufferedRow.getRows()); - // construct insert statement - String exec = String.format(NebulaConstant.BATCH_INSERT_TEMPLATE, executionOptions.getDataType(), executionOptions.getLabel(), propNames, values); - // execute insert statement - ListenableFuture> execResult = client.execute(exec); - // define callback function - Futures.addCallback(execResult, new FutureCallback>() { - @Override - public void onSuccess(Optional integerOptional) { - if (integerOptional.isPresent()) { - if (integerOptional.get() == ErrorCode.SUCCEEDED) { - LOG.info("batch insert Succeed"); - } else { - LOG.error(String.format("batch insert Error: %d", - integerOptional.get())); - } - } else { - LOG.error("batch insert Error"); - } - } - - @Override - public void onFailure(Throwable throwable) { - LOG.error("batch insert Error"); - } - }); - nebulaBufferedRow.clean(); - return execResult; - } -``` - -由于 NebulaSink 的写入是批量、异步的,所以在最后业务结束关闭(`close`)资源之前需要将缓存中的批量数据提交且等待写入操作的完成,以防在写入提交之前提前关闭 NebulaGraph 的客户端,代码如下: - -```java - /** - * commit the batch write operator before release connection - */ - @Override - public final synchronized void close() throws IOException { - if(numPendingRow.get() > 0){ - commit(); - } - while(!future.isDone()){ - try { - Thread.sleep(100); - } catch (InterruptedException e) { - LOG.error("sleep interrupted, ", e); - } - } - - super.close(); - } - -``` - -## 应用实践 - -Flink 将处理完成的数据 sink 到 NebulaGraph 数据库时,需要将 Flink 数据流进行 map 转换成 NebulaSink 可接收的数据格式。自定义 NebulaSink 的使用方式是通过 `addSink` 的形式, - -用户可以按以下步骤使用 NebulaGraph Flink Connector 的 NebulaSink 向 NebulaGraph 写入数据: - -1. 将 Flink 数据转换成 NebulaSink 可以接受的数据格式。 -2. 将 `NebulaSinkFunction` 作为参数传给 `addSink` 方法来实现 Flink 数据流的写入。 - -在构造的 `NebulaSinkFunction` 中分别对客户端参数和执行参数作了如下配置: - -- `NebulaClientOptions` 需要配置: - - NebulaGraph 图数据库 Graph 服务的 IP 地址及端口号。如果有多个地址,使用英文逗号分隔。 - - NebulaGraph 图数据库的账号及其密码。 -- `VertexExecutionOptions` 需要配置: - - 需要写入点数据的 NebulaGraph 图数据库中的图空间名称。 - - 需要写入的 Tag(点类型)名称。 - - 需要写入的 Tag 属性。 - - 需要写入的点 VID 所在 Flink 数据流 Row 中的索引。 - - 单次写入 NebulaGraph 的数据量限值,默认为 2000。 -- `EdgeExecutionOptions` 需要配置: - - 需要写入边数据的 NebulaGraph 图数据库中的图空间名称。 - - 需要写入的 Edge type。 - - 需要写入的 Edge type 属性。 - - 需要写入的边起点 VID(src_Id)所在 Flink 数据流 Row 中的索引。 - - 需要写入的边终点 VID(dst_Id)所在 Flink 数据流 Row 中的索引。 - - 需要写入的边 rank 所在 Flink 数据流 Row 中的索引。如果不配置,则写入边数据时不带 rank 信息。 - - 单次写入的数据量限值,默认值为 2000。 - -假设需要写入点数据的 NebulaGraph 图数据库信息如下: - -- Graph 服务为本地单副本部署,使用默认端口 -- 图空间名称:`flinkSink` -- Tag:`player` -- Tag 属性:`name` 和 `age` - -以下为自定义 NebulaSink 的代码示例。 - -```xml -// 构造 NebulaGraph 的 Graph 服务客户端连接需要的参数 -NebulaClientOptions nebulaClientOptions = new NebulaClientOptions - .NebulaClientOptionsBuilder() - .setAddress("127.0.0.1:3699") - .build(); -NebulaConnectionProvider graphConnectionProvider = new NebulaGraphConnectionProvider(nebulaClientOptions); - -// 构造 NebulaGraph 写入点数据的操作参数 -List cols = Arrays.asList("name", "age") -ExecutionOptions sinkExecutionOptions = new VertexExecutionOptions.ExecutionOptionBuilder() - .setGraphSpace("flinkSink") - .setTag(tag) - .setFields(cols) - .setIdIndex(0) - .setBatch(2) - .builder(); - -// 将点数据写入 NebulaGraph -dataSource.addSink(nebulaSinkFunction); -``` - -### NebulaSink 示例程序 - -用户可以参考 GitHub 上的示例程序 [testSourceSink](https://github.com/vesoft-inc/nebula-java/tree/v1.0/examples/src/main/java/org/apache/flink/FlinkDemo.java) 编写自己的 Flink 应用程序。 - -以 testSourceSink 为例:该程序以 NebulaGraph 的图空间 `flinkSource` 作为 source,通过 Flink 读取进行 `map` 类型转换后的数据,再写入 NebulaGraph 另一个图空间 `flinkSink`,即 NebulaGraph 一个图空间 `flinkSource` 的数据流入另一个图空间 `flinkSink` 中。 diff --git a/docs-2.0/nebula-flink/nf-ug-customize-source.md b/docs-2.0/nebula-flink/nf-ug-customize-source.md deleted file mode 100644 index 05bb12da495..00000000000 --- a/docs-2.0/nebula-flink/nf-ug-customize-source.md +++ /dev/null @@ -1,105 +0,0 @@ -# 自定义 source (NebulaSource) - -NebulaGraph Flink Connector 支持以 `addSource` 或者 `createInput` 方式将 NebulaGraph 图数据库注册为 Flink 的数据源(source)。其中,通过 `addSource` 读取 source 数据得到的是 Flink 的 `DataStreamSource`,表示 DataStream 的起点,而通过 `createInput` 读取 source 数据得到的是 Flink 的 `DataSource`。`DataSource` 会作为进一步转换的数据集。`DataSource` 可以通过 `withParameters` 封装配置参数进行其他操作。 - -NebulaSource 的实现类图如下所示。 - -![NebulaGraph Flink Connector 的 source 实现类图](https://docs-cdn.nebula-graph.com.cn/nebula-java-tools-docs/fl-ug-001.png "source 实现类图") - -## `addSource` - -`addSource` 方式通过 `NebulaSourceFunction` 类实现,该类继承自 `RichSourceFunction` 并实现了以下方法: - -- `open`:准备 NebulaGraph 的连接信息,并获取 NebulaGraph 图数据库 Meta 服务和 Storage 服务的连接。 -- `close`:在数据读取完成后释放资源,并断开与 NebulaGraph 图数据库服务的连接。 -- `run`:开始读取数据,并将数据填充到 `sourceContext`。 -- `cancel`:取消 Flink 作业时调用这个方法以关闭资源。 - -## `createInput` - -`createInput` 方式通过 `NebulaInputFormat` 类实现,该类继承自 `RichInputFormat` 并实现了以下方法: - -- `openInputFormat`:准备 `inputFormat` 以获取连接。 -- `closeInputFormat`:数据读取完成后释放资源。断开与 NebulaGraph 图数据库服务的连接。 -- `open`:开始 `inputFormat` 的数据读取,将读取的数据转换为 Flink 的数据格式,构造迭代器。 -- `close`:在数据读取完成后打印读取日志。 -- `reachedEnd`:判断是否读取完成。 -- `nextRecord`:通过迭代器获取下一条数据。 - -## 应用实践 - -用户可以按以下步骤使用 NebulaGraph Flink Connector 读取 NebulaGraph 的图数据: - -1. 构造 `NebulaSourceFunction` 和 `NebulaOutputFormat`。 -2. 通过 Flink 的 `addSource` 或者 `createInput` 方式将 NebulaGraph 注册为数据源。 - -在构造的 `NebulaSourceFunction` 和 `NebulaOutputFormat` 中,对客户端参数和执行参数作如下配置: - -- `NebulaClientOptions` 需要配置: - - NebulaGraph 图数据库 Meta 服务的 IP 地址及端口号。如果有多个服务,使用逗号分隔,例如 `“ip1:port1,ip2:port2"`。 - - NebulaGraph 图数据库的账号及其密码。 -- `VertexExecutionOptions` 需要配置: - - 需要读取点数据的 NebulaGraph 图数据库中的图空间名称。 - - 需要读取的 Tag(点类型)名称。一次只能一个 Tag。 - - 要读取的 Tag 属性。 - - 是否读取指定 Tag 的所有属性,默认为 `false`。如果配置为 `true` 则 Tag 属性的配置无效。 - - 单次读取的数据量限值,默认为 2000 个点数据。 -- `EdgeExecutionOptions` 需要配置: - - 需要读取边数据的 NebulaGraph 图数据库中的图空间名称。 - - 需要读取的 Edge type。一次只能一个 Edge type。 - - 需要读取的 Edge type 属性。 - - 是否读取指定 Edge type 的所有属性,默认为 `false`。如果配置为 `true` 则 Edge type 属性的配置无效。 - - 单次读取的数据量限值,默认值为 2000 个边数据。 - -假设需要读取点数据的 NebulaGraph 图数据库信息如下: - -- Meta 服务为本地单副本部署,使用默认端口 -- 图空间名称:`flinkSource` -- Tag:`player` -- Tag 属性:`name` 和 `age` -- 单次最多读取 100 个点数据 - -以下为自定义 NebulaSource 的代码示例。 - -```xml -// 构造 NebulaGraph 客户端连接需要的参数 -NebulaClientOptions nebulaClientOptions = new NebulaClientOptions - .NebulaClientOptionsBuilder() - .setAddress("127.0.0.1:45500") - .build(); -// 创建 connectionProvider -NebulaConnectionProvider metaConnectionProvider = new NebulaMetaConnectionProvider(nebulaClientOptions); - -// 构造读取 NebulaGraph 数据需要的参数 -List cols = Arrays.asList("name", "age"); -VertexExecutionOptions sourceExecutionOptions = new VertexExecutionOptions.ExecutionOptionBuilder() - .setGraphSpace("flinkSource") - .setTag(tag) - .setFields(cols) - .setLimit(100) - .builder(); - -// 构造 NebulaInputFormat -NebulaInputFormat inputFormat = new NebulaInputFormat(metaConnectionProvider) - .setExecutionOptions(sourceExecutionOptions); - -// 方式 1 使用 createInput 方式将 NebulaGraph 注册为数据源 -DataSource dataSource1 = ExecutionEnvironment.getExecutionEnvironment() - .createInput(inputFormat); - -// 方式 2 使用 addSource 方式将 NebulaGraph 注册为数据源 -NebulaSourceFunction sourceFunction = new NebulaSourceFunction(metaConnectionProvider) - .setExecutionOptions(sourceExecutionOptions); - DataStreamSource dataSource2 = StreamExecutionEnvironment.getExecutionEnvironment() - .addSource(sourceFunction); -``` - -## 示例程序 - -用户可以参考 GitHub 上的示例程序 [testNebulaSource](https://github.com/vesoft-inc/nebula-java/tree/v1.0/examples/src/main/java/org/apache/flink/FlinkDemo.java) 编写自己的 Flink 应用程序。 - -以 testNebulaSource 为例:该程序以 NebulaGraph 图数据库为 source,以 Print 为 sink,从 NebulaGraph 图数据库中读取 59,671,064 条点数据后再打印。将该程序打包提交到 Flink 集群执行,结果如下图所示。 - -![Flink Dashboard 上显示的 testNebulaSource 执行结果](https://docs-cdn.nebula-graph.com.cn/nebula-java-tools-docs/fl-ug-002.png "testNebulaSource 执行结果") - -由上图可知,source 发送数据 59,671,064 条,sink 接收数据 59,671,064 条。 diff --git a/docs-2.0/nebula-flink/nf-ug-limitations.md b/docs-2.0/nebula-flink/nf-ug-limitations.md deleted file mode 100644 index f1d115a7955..00000000000 --- a/docs-2.0/nebula-flink/nf-ug-limitations.md +++ /dev/null @@ -1,14 +0,0 @@ -# 使用限制 - -本文描述 NebulaGraph Flink Connector 的一些使用限制。 - -## NebulaGraph 版本 - -NebulaGraph Flink Connector 目前仅支持 NebulaGraph v1.1.0 及以前的版本,不支持 NebulaGraph v2.0.0。 - -## 软件依赖 - -为保证 NebulaGraph Flink Connector 正常工作,确认机器上已经安装以下软件: - -- Apache Flink®:1.11 及以后版本 -- JDK 8 diff --git a/docs-2.0/nebula-flink/nf-ug-notes.md b/docs-2.0/nebula-flink/nf-ug-notes.md deleted file mode 100644 index 2f7c57f0208..00000000000 --- a/docs-2.0/nebula-flink/nf-ug-notes.md +++ /dev/null @@ -1,80 +0,0 @@ - -# 特殊说明 - -## Catalog - -Flink 1.11.0 之前,如果依赖 Flink 的 source/sink 读写外部数据源时,用户必须手动读取对应数据系统的 Schema(模式)。例如,如果要读写 NebulaGraph 的数据,则必须先保证明确地知晓 NebulaGraph 中的 Schema 信息。由此带来的问题是:当 NebulaGraph 中的 Schema 发生变化时,用户需要手动更新对应的 Flink 任务以保持类型匹配,否则,任何不匹配都会造成运行时报错使作业失败,整个操作冗余且繁琐,体验极差。 - -Flink 1.11.0 版本后,用户使用 Flink SQL 时可以自动获取表的 Schema 而不再需要输入 DDL,即 Flink 在不了解外部系统数据的 Schema 时仍能完成数据匹配。 - -目前 NebulaGraph Flink Connector 已经支持数据的读写,要实现 Schema 的匹配则需要为 Flink Connector 实现 Catalog 管理。但是,为了确保 NebulaGraph 中的数据安全,NebulaGraph Flink Connector 仅支持 Catalog 的读操作,不允许进行 Catalog 的修改和写入。 - -访问 NebulaGraph 指定类型的数据时,完整路径格式如下:`.` 或者 `.`。 - -具体使用方式如下: - -```java -// 其中 address 可以配置为多个 IP 地址,格式为 "ip1:port,ip2:port" -String catalogName = "testCatalog"; -String defaultSpace = "flinkSink"; -String username = "root"; -String password = "nebula"; -String address = "127.0.0.1:45500"; -String table = "VERTEX.player" - -// define NebulaGraph catalog -Catalog catalog = NebulaCatalogUtils.createNebulaCatalog(catalogName, defaultSpace, address, username, password); -// define Flink table environment -StreamExecutionEnvironment bsEnv = StreamExecutionEnvironment.getExecutionEnvironment(); -tEnv = StreamTableEnvironment.create(bsEnv); -// register customed NebulaGraph catalog -tEnv.registerCatalog(catalogName, catalog); -// use customed NebulaGraph catalog -tEnv.useCatalog(catalogName); - -// show graph spaces of nebula -String[] spaces = tEnv.listDatabases(); - -// // show tags and edges of NebulaGraph -tEnv.useDatabase(defaultSpace); -String[] tables = tEnv.listTables(); - -// check tage player exist in defaultSpace -ObjectPath path = new ObjectPath(defaultSpace, table); -assert catalog.tableExists(path) == true - -// get NebulaGraph tag schema -CatalogBaseTable table = catalog.getTable(new ObjectPath(defaultSpace, table)); -table.getSchema(); -``` - -关于 Catalog 接口的详细信息,参考 [Flink-table 代码](https://github.com/apache/flink/blob/master/flink-table/flink-table-common/src/main/java/org/apache/flink/table/catalog/Catalog.java)。 - -## Exactly-once - -Flink Connector 的 Exactly-once 是指 Flink 借助 checkpoint 机制保证每个输入事件只对最终结果影响一次,在数据处理过程中即使出现故障,也不会出现数据重复和丢失的情况。 - -为了提供端到端的 Exactly-once 语义,Flink 的外部数据系统也必须提供提交或回滚的方法,然后通过 Flink 的 checkpoint 机制协调。Flink 提供了实现端到端的 Exactly-once 的抽象,即实现二阶段提交的抽象类 `TwoPhaseCommitSinkFunction`。 - -要为数据输出端实现 Exactly-once,需要实现四个函数: - -- `beginTransaction`:在事务开始前,在目标文件系统的临时目录中创建一个临时文件,随后可以在数据处理时将数据写入此文件。 - -- `preCommit`:预提交阶段。在这个阶段,刷新文件到存储,关闭文件不再写入。为下一个 checkpoint 的任何后续文件写入启动一个新事务。 - -- `commit`:提交阶段。在这个阶段,将预提交阶段的文件原子地移动到真正的目标目录。二阶段提交过程会增加输出数据可见性的延迟。 - -- `abort`:终止阶段。在这个阶段,删除临时文件。 - -由以上函数可看出,Flink 的二阶段提交对外部数据源有要求,即 source 数据源必须具备重发功能,sink 数据池必须支持事务提交和幂等写。 - -NebulaGraph v1.1.0 虽然不支持事务,但其写入操作是幂等的,即同一条数据的多次写入结果是一致的。因此可以通过 checkpoint 机制实现 NebulaGraph Flink Connector 的 At-least-Once 机制,根据多次写入的幂等性可以间接实现 sink 的 Exactly-once。 - -要使用 NebulaSink 的容错性,请确保在 Flink 的执行环境中开启了 checkpoint 配置,代码如下所示。 - -```java -StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); -env.enableCheckpointing(10000) // checkpoint every 10000 msecs - .getCheckpointConfig() - .setCheckpointingMode(CheckpointingMode.AT_LEAST_ONCE); -``` diff --git a/docs-2.0/nebula-flink/nf-ug-toc.md b/docs-2.0/nebula-flink/nf-ug-toc.md deleted file mode 100644 index 35891238716..00000000000 --- a/docs-2.0/nebula-flink/nf-ug-toc.md +++ /dev/null @@ -1,7 +0,0 @@ -# 欢迎使用 NebulaGraph Flink Connector - -- [什么是 NebulaGraph Flink Connector](nf-ug-what-is-flink-connector.md) -- [使用限制](nf-ug-limitations.md) -- [自定义 source (NebulaSource)](nf-ug-customize-source.md) -- [自定义 sink (NebulaSink)](nf-ug-customize-sink.md) -- [特殊说明](nf-ug-notes.md) diff --git a/docs-2.0/nebula-flink/nf-ug-what-is-flink-connector.md b/docs-2.0/nebula-flink/nf-ug-what-is-flink-connector.md deleted file mode 100644 index 6373d830b0b..00000000000 --- a/docs-2.0/nebula-flink/nf-ug-what-is-flink-connector.md +++ /dev/null @@ -1,16 +0,0 @@ -# 什么是 NebulaGraph Flink Connector - -[NebulaGraph Flink Connector](https://github.com/vesoft-inc/nebula-java/tree/v1.0/tools "点击前往 GitHub 网站") 是一个自定义的 Flink 连接器,支持 Flink 从 NebulaGraph 图数据库中读取数据(source),或者将其他外部数据源读取的数据写入 NebulaGraph 图数据库(sink)。 - -用户可以将 NebulaGraph Flink Connector 应用于以下场景: - -- 在不同的 NebulaGraph 集群之间迁移数据。 -- 在同一个 NebulaGraph 集群内不同图空间之间迁移数据。 -- NebulaGraph 与其他数据源之间迁移数据。 - -用户可以参考以下文档使用 NebulaGraph Flink Connector: - -- [使用限制](nf-ug-limitations.md) -- [自定义 source (NebulaSource)](nf-ug-customize-source.md) -- [自定义 sink (NebulaSink)](nf-ug-customize-sink.md) -- [特殊说明](nf-ug-notes.md) diff --git a/docs-2.0/nebula-importer/config-with-header.md b/docs-2.0/nebula-importer/config-with-header.md index 8c4a7a1d103..ada2a1dec1d 100644 --- a/docs-2.0/nebula-importer/config-with-header.md +++ b/docs-2.0/nebula-importer/config-with-header.md @@ -87,13 +87,13 @@ clientSettings: # nGQL 语句执行失败的重试次数。 retry: 3 - # NebulaGraph 客户端并发数。 + #{{nebula.name}}客户端并发数。 concurrency: 10 - # 每个 NebulaGraph 客户端的缓存队列大小。 + # 每个{{nebula.name}}客户端的缓存队列大小。 channelBufferSize: 128 - # 指定数据要导入的 NebulaGraph 图空间。 + # 指定数据要导入的{{nebula.name}}图空间。 space: student # 连接信息。 @@ -103,7 +103,7 @@ clientSettings: address: 192.168.11.13:9669 postStart: - # 配置连接 NebulaGraph 服务器之后,在插入数据之前执行的一些操作。 + # 配置连接{{nebula.name}}服务器之后,在插入数据之前执行的一些操作。 commands: | DROP SPACE IF EXISTS student; CREATE SPACE IF NOT EXISTS student(partition_num=5, replica_factor=1, vid_type=FIXED_STRING(20)); @@ -115,7 +115,7 @@ clientSettings: afterPeriod: 15s preStop: - # 配置断开 NebulaGraph 服务器连接之前执行的一些操作。 + # 配置断开{{nebula.name}}服务器连接之前执行的一些操作。 commands: | # 错误等日志信息输出的文件路径。 diff --git a/docs-2.0/nebula-importer/config-without-header.md b/docs-2.0/nebula-importer/config-without-header.md index b82f4459956..545da8c4999 100644 --- a/docs-2.0/nebula-importer/config-without-header.md +++ b/docs-2.0/nebula-importer/config-without-header.md @@ -46,13 +46,13 @@ clientSettings: # nGQL 语句执行失败的重试次数。 retry: 3 - # NebulaGraph 客户端并发数。 + #{{nebula.name}}客户端并发数。 concurrency: 10 - # 每个 NebulaGraph 客户端的缓存队列大小。 + # 每个{{nebula.name}}客户端的缓存队列大小。 channelBufferSize: 128 - # 指定数据要导入的 NebulaGraph 图空间。 + # 指定数据要导入的{{nebula.name}}图空间。 space: student # 连接信息。 @@ -62,7 +62,7 @@ clientSettings: address: 192.168.11.13:9669 postStart: - # 配置连接 NebulaGraph 服务器之后,在插入数据之前执行的一些操作。 + # 配置连接{{nebula.name}}服务器之后,在插入数据之前执行的一些操作。 commands: | DROP SPACE IF EXISTS student; CREATE SPACE IF NOT EXISTS student(partition_num=5, replica_factor=1, vid_type=FIXED_STRING(20)); @@ -74,7 +74,7 @@ clientSettings: afterPeriod: 15s preStop: - # 配置断开 NebulaGraph 服务器连接之前执行的一些操作。 + # 配置断开{{nebula.name}}服务器连接之前执行的一些操作。 commands: | # 错误等日志信息输出的文件路径。 @@ -122,7 +122,7 @@ files: # 点 ID 对应 CSV 文件中列的序号。CSV 文件中列的序号从 0 开始。 index: 0 - # 点 ID 的数据类型,可选值为 int 和 string,分别对应 NebulaGraph 中的 INT64 和 FIXED_STRING。 + # 点 ID 的数据类型,可选值为 int 和 string,分别对应{{nebula.name}}中的 INT64 和 FIXED_STRING。 type: string # Tag 设置。 diff --git a/docs-2.0/nebula-importer/use-importer.md b/docs-2.0/nebula-importer/use-importer.md index 1bf5e04f5f0..ad716be2623 100644 --- a/docs-2.0/nebula-importer/use-importer.md +++ b/docs-2.0/nebula-importer/use-importer.md @@ -1,10 +1,10 @@ # NebulaGraph Importer -NebulaGraph Importer(简称 Importer)是一款 [NebulaGraph](https://github.com/vesoft-inc/nebula) 的 CSV 文件单机导入工具。Importer 可以读取本地的 CSV 文件,然后导入数据至 NebulaGraph 图数据库中。 +NebulaGraph Importer(简称 Importer)是一款 [NebulaGraph](https://github.com/vesoft-inc/nebula) 的 CSV 文件单机导入工具。Importer 可以读取本地的 CSV 文件,然后导入数据至{{nebula.name}}图数据库中。 ## 适用场景 -Importer 适用于将本地 CSV 文件的内容导入至 NebulaGraph 中。 +Importer 适用于将本地 CSV 文件的内容导入至{{nebula.name}}中。 ## 优势 @@ -20,7 +20,7 @@ Importer 适用于将本地 CSV 文件的内容导入至 NebulaGraph 中。 在使用 NebulaGraph Importer 之前,请确保: -- 已部署 NebulaGraph 服务。目前有三种部署方式: +- 已部署{{nebula.name}}服务。目前有三种部署方式: - [Docker Compose 部署](../4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md) @@ -28,13 +28,13 @@ Importer 适用于将本地 CSV 文件的内容导入至 NebulaGraph 中。 - [源码编译安装](../4.deployment-and-installation/2.compile-and-install-nebula-graph/1.install-nebula-graph-by-compiling-the-source-code.md) -- NebulaGraph 中已创建 Schema,包括图空间、Tag 和 Edge type,或者通过参数`clientSettings.postStart.commands`设置。 +- {{nebula.name}} 中已创建 Schema,包括图空间、Tag 和 Edge type,或者通过参数`clientSettings.postStart.commands`设置。 - 运行 Importer 的机器已部署 Golang 环境。详情请参见 [Golang 环境搭建](https://github.com/vesoft-inc/nebula-importer/blob/{{importer.branch}}/docs/golang-install.md)。 ## 操作步骤 -配置 yaml 文件并准备好待导入的 CSV 文件,即可使用本工具向 NebulaGraph 批量写入数据。 +配置 yaml 文件并准备好待导入的 CSV 文件,即可使用本工具向{{nebula.name}}批量写入数据。 ### 下载二进制包运行 @@ -57,7 +57,7 @@ Importer 适用于将本地 CSV 文件的内容导入至 NebulaGraph 中。 !!! note 请使用正确的分支。 - NebulaGraph 2.x 和 3.x 的 rpc 协议不同。 + {{nebula.name}} 2.x 和 3.x 的 rpc 协议不同。 2. 进入目录`nebula-importer`。 @@ -124,14 +124,14 @@ $ docker run --rm -ti \ - ``:本地 yaml 配置文件的绝对路径。 - ``:本地 CSV 数据文件的绝对路径。 -- ``:NebulaGraph 3.x 请填写`v3`。 +- ``:{{nebula.name}} 3.x 请填写`v3`。 !!! note 建议使用相对路径。如果使用本地绝对路径,请检查路径映射到 Docker 中的路径。 ## 配置文件说明 -NebulaGraph Importer 通过`nebula-importer/examples/v2/example.yaml`配置文件来描述待导入文件信息、NebulaGraph 服务器信息等。用户可以参考示例配置文件:[无表头配置](config-without-header.md)/[有表头配置](config-with-header.md)。下文将分类介绍配置文件内的字段。 +NebulaGraph Importer 通过`nebula-importer/examples/v2/example.yaml`配置文件来描述待导入文件信息、{{nebula.name}}服务器信息等。用户可以参考示例配置文件:[无表头配置](config-without-header.md)/[有表头配置](config-with-header.md)。下文将分类介绍配置文件内的字段。 !!! note @@ -155,7 +155,7 @@ removeTempFiles: false ### 客户端配置 -客户端配置存储客户端连接 NebulaGraph 相关的配置。 +客户端配置存储客户端连接{{nebula.name}}相关的配置。 示例配置如下: @@ -184,15 +184,15 @@ clientSettings: |参数|默认值|是否必须|说明| |:---|:---|:---|:---| |`clientSettings.retry`|3|否|nGQL 语句执行失败的重试次数。| -|`clientSettings.concurrency`|10|否|NebulaGraph 客户端并发数。| -|`clientSettings.channelBufferSize`|128|否|每个 NebulaGraph 客户端的缓存队列大小。| -|`clientSettings.space`|-|是|指定数据要导入的 NebulaGraph 图空间。不要同时导入多个空间,以免影响性能。| -|`clientSettings.connection.user`|-|是|NebulaGraph 的用户名。| -|`clientSettings.connection.password`|-|是|NebulaGraph 用户名对应的密码。| +|`clientSettings.concurrency`|10|否|{{nebula.name}}客户端并发数。| +|`clientSettings.channelBufferSize`|128|否|每个{{nebula.name}}客户端的缓存队列大小。| +|`clientSettings.space`|-|是|指定数据要导入的{{nebula.name}}图空间。不要同时导入多个空间,以免影响性能。| +|`clientSettings.connection.user`|-|是|{{nebula.name}}的用户名。| +|`clientSettings.connection.password`|-|是|{{nebula.name}}用户名对应的密码。| |`clientSettings.connection.address`|-|是|所有 Graph 服务的地址和端口。| -|`clientSettings.postStart.commands`|-|否|配置连接 NebulaGraph 服务器之后,在插入数据之前执行的一些操作。| +|`clientSettings.postStart.commands`|-|否|配置连接{{nebula.name}}服务器之后,在插入数据之前执行的一些操作。| |`clientSettings.postStart.afterPeriod`|-|否|执行上述`commands`命令后到执行插入数据命令之间的间隔,例如`8s`。| -|`clientSettings.preStop.commands`|-|否|配置断开 NebulaGraph 服务器连接之前执行的一些操作。| +|`clientSettings.preStop.commands`|-|否|配置断开{{nebula.name}}服务器连接之前执行的一些操作。| ### 文件配置 @@ -292,7 +292,7 @@ schema: |`files.schema.vertex.vid.type`|-|否|点 ID 的数据类型,可选值为`int`和`string`。| |`files.schema.vertex.vid.prefix`|-|否|给 原始vid 添加的前缀,当同时指定了 `function` 时, 生成 VID 的方法是先添加 `prefix` 前缀, 再用 `function`生成 VID。| |`files.schema.vertex.tags.name`|-|是|Tag 名称。| -|`files.schema.vertex.tags.props.name`|-|是|Tag 属性名称,必须和 NebulaGraph 中的 Tag 属性一致。| +|`files.schema.vertex.tags.props.name`|-|是|Tag 属性名称,必须和{{nebula.name}}中的 Tag 属性一致。| |`files.schema.vertex.tags.props.type`|-|是|属性数据类型,支持`bool`、 `int`、 `float`、 `double`、 `string`、 `time`、 `timestamp`、 `date`、 `datetime`、 `geography`、 `geography(point)`、 `geography(linestring)` 和 `geography(polygon)`。| |`files.schema.vertex.tags.props.index`|-|否|属性对应 CSV 文件中列的序号。| |`files.schema.vertex.tags.props.nullable`|`false`|否|属性是否可以为`NULL`,可选`true`或者`false`。| @@ -335,7 +335,7 @@ schema: |`files.schema.edge.dstVID.index`|-|否|边的目的点 ID 对应 CSV 文件中列的序号。| |`files.schema.edge.dstVID.function`|-|否|生成 VID 的函数。目前,我们只支持 `hash` 函数。| |`files.schema.edge.rank.index`|-|否|边的 rank 值对应 CSV 文件中列的序号。| -|`files.schema.edge.props.name`|-|是|Edge type 属性名称,必须和 NebulaGraph 中的 Edge type 属性一致。| +|`files.schema.edge.props.name`|-|是|Edge type 属性名称,必须和{{nebula.name}}中的 Edge type 属性一致。| |`files.schema.edge.props.type`|-|是|属性类型,支持`bool`、`int`、`float`、`double`、`timestamp`、`string`和`geo`。| |`files.schema.edge.props.index`|-|否|属性对应 CSV 文件中列的序号。| diff --git a/docs-2.0/nebula-operator/1.introduction-to-nebula-operator.md b/docs-2.0/nebula-operator/1.introduction-to-nebula-operator.md index 93d187259d4..8dbcb93e293 100644 --- a/docs-2.0/nebula-operator/1.introduction-to-nebula-operator.md +++ b/docs-2.0/nebula-operator/1.introduction-to-nebula-operator.md @@ -2,7 +2,7 @@ ## 基本概念 -NebulaGraph Operator 是用于在 [Kubernetes](https://kubernetes.io) 系统上自动化部署和运维 [NebulaGraph](https://github.com/vesoft-inc/nebula) 集群的工具。依托于 Kubernetes 扩展机制,NebulaGraph 将其运维领域的知识全面注入至 Kubernetes 系统中,让 NebulaGraph 成为真正的[云原生图数据库](https://www.nebula-cloud.io/)。 +NebulaGraph Operator 是用于在 [Kubernetes](https://kubernetes.io) 系统上自动化部署和运维 [NebulaGraph](https://github.com/vesoft-inc/nebula) 集群的工具。依托于 Kubernetes 扩展机制,{{nebula.name}}将其运维领域的知识全面注入至 Kubernetes 系统中,让{{nebula.name}}成为真正的[云原生图数据库](https://www.nebula-cloud.io/)。 ![operator_map](https://docs-cdn.nebula-graph.com.cn/figures/operator_map_2022-09-08_18-55-18.png) @@ -10,31 +10,31 @@ NebulaGraph Operator 是用于在 [Kubernetes](https://kubernetes.io) 系统上 对于 Kubernetes 系统内不存在的资源类型,用户可以通过添加自定义 API 对象的方式注册,常见的方法是使用 [CustomResourceDefinition(CRD)](https://kubernetes.io/docs/concepts/extend-kubernetes/api-extension/custom-resources/#customresourcedefinitions) 。 -NebulaGraph Operator 将 NebulaGraph 集群的部署管理抽象为 CRD。通过结合多个内置的 API 对象,包括 StatefulSet、Service 和 ConfigMap,NebulaGraph 集群的日常管理和维护被编码为一个控制循环。在 Kubernetes 系统内,每一种内置资源对象,都运行着一个特定的控制循环,将它的实际状态通过事先规定好的编排动作,逐步调整为最终的期望状态。当一个 CR 实例被提交时,NebulaGraph Operator 会根据控制流程驱动数据库集群进入最终状态。 +NebulaGraph Operator 将{{nebula.name}}集群的部署管理抽象为 CRD。通过结合多个内置的 API 对象,包括 StatefulSet、Service 和 ConfigMap,{{nebula.name}}集群的日常管理和维护被编码为一个控制循环。在 Kubernetes 系统内,每一种内置资源对象,都运行着一个特定的控制循环,将它的实际状态通过事先规定好的编排动作,逐步调整为最终的期望状态。当一个 CR 实例被提交时,NebulaGraph Operator 会根据控制流程驱动数据库集群进入最终状态。 ## 功能介绍 NebulaGraph Operator 已具备的功能如下: -- **集群创建和卸载**:NebulaGraph Operator 简化了用户部署和卸载集群的过程。用户只需提供对应的 CR 文件,NebulaGraph Operator 即可快速创建或者删除一个对应的 NebulaGraph 集群。更多信息参考[使用 Kubectl 部署 NebulaGraph 集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)或者[使用 Helm 部署 NebulaGraph 集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 +- **集群创建和卸载**:NebulaGraph Operator 简化了用户部署和卸载集群的过程。用户只需提供对应的 CR 文件,NebulaGraph Operator 即可快速创建或者删除一个对应的{{nebula.name}}集群。更多信息参考[使用 Kubectl 部署{{nebula.name}}集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)或者[使用 Helm 部署{{nebula.name}}集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 -- **集群扩容和缩容**:通过在控制循环中调用 NebulaGraph 原生提供的扩缩容接口,NebulaGraph 封装 NebulaGraph Operator 实现了扩缩容的逻辑,用户可以通过 YAML 配置进行简单的扩缩容,且保证数据的稳定性。更多信息参考[使用 Kubeclt 扩缩容集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md#_3) 或[使用 Helm 扩缩容集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md#_2)。 +- **集群扩容和缩容**:通过在控制循环中调用{{nebula.name}}原生提供的扩缩容接口,{{nebula.name}}封装 NebulaGraph Operator 实现了扩缩容的逻辑,用户可以通过 YAML 配置进行简单的扩缩容,且保证数据的稳定性。更多信息参考[使用 Kubeclt 扩缩容集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md#_3) 或[使用 Helm 扩缩容集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md#_2)。 -- **集群升级**:支持升级 {{operator.upgrade_from}} 版的 NebulaGraph 集群至 {{operator.upgrade_to}} 版。 +- **集群升级**:支持升级 {{operator.upgrade_from}} 版的{{nebula.name}}集群至 {{operator.upgrade_to}} 版。 -- **备份和恢复**:支持备份 NebulaGraph 集群的数据至兼容 S3 协议的存储服务中并支持恢复数据至集群中。更多信息参考[使用 NebulaGraph Operator 备份和恢复数据](10.backup-restore-using-operator.md)。 +- **备份和恢复**:支持备份{{nebula.name}}集群的数据至兼容 S3 协议的存储服务中并支持恢复数据至集群中。更多信息参考[使用 NebulaGraph Operator 备份和恢复数据](10.backup-restore-using-operator.md)。 -- **故障自愈**:NebulaGraph Operator 调用 NebulaGraph 集群提供的接口,动态地感知服务状态。一旦发现异常,NebulaGraph Operator 自动进行容错处理。更多信息参考[故障自愈](5.operator-failover.md)。 +- **故障自愈**:NebulaGraph Operator 调用{{nebula.name}}集群提供的接口,动态地感知服务状态。一旦发现异常,NebulaGraph Operator 自动进行容错处理。更多信息参考[故障自愈](5.operator-failover.md)。 -- **均衡调度**:基于调度器扩展接口,NebulaGraph Operator 提供的调度器可以将应用 Pods 均匀地分布在 NebulaGraph 集群中。 +- **均衡调度**:基于调度器扩展接口,NebulaGraph Operator 提供的调度器可以将应用 Pods 均匀地分布在{{nebula.name}}集群中。 ## 使用限制 ### 版本限制 -NebulaGraph Operator 不支持 v1.x 版本的 NebulaGraph,其与 NebulaGraph 版本的对应关系如下: +NebulaGraph Operator 不支持 v1.x 版本的 NebulaGraph,其与{{nebula.name}}版本的对应关系如下: -| NebulaGraph 版本 |NebulaGraph Operator 版本 | +|{{nebula.name}}版本 |NebulaGraph Operator 版本 | | ------------------- | ---------------- | | 3.0.0 ~ 3.4.1 |1.3.0、1.4.0 ~ 1.4.2| | 3.0.0 ~ 3.3.x |1.0.0、1.1.0、1.2.0| @@ -45,11 +45,11 @@ NebulaGraph Operator 不支持 v1.x 版本的 NebulaGraph,其与 NebulaGraph !!! Compatibility "历史版本兼容性" - 1.x 版本的 NebulaGraph Operator 不兼容 3.x 以下版本的 NebulaGraph. - - 由于 0.9.0 版本的 NebulaGraph Operator 的日志盘和数据盘分开存储,因此用 0.9.0 版的 NebulaGraph Operator 管理通过 0.8.0 版本创建的 2.5.x 版本的 NebulaGraph 集群会导致兼容性问题。用户可以备份 2.5.x 版本的 NebulaGraph 集群,然后使用 0.9.0 版本的 Operator 创建 2.6.x 版本集群。 + - 由于 0.9.0 版本的 NebulaGraph Operator 的日志盘和数据盘分开存储,因此用 0.9.0 版的 NebulaGraph Operator 管理通过 0.8.0 版本创建的 2.5.x 版本的{{nebula.name}}集群会导致兼容性问题。用户可以备份 2.5.x 版本的{{nebula.name}}集群,然后使用 0.9.0 版本的 Operator 创建 2.6.x 版本集群。 ### 功能限制 -NebulaGraph Operator 的扩缩容功能仅对企业版的 NebulaGraph 集群开放,不支持使用 NebulaGraph Operator 扩缩容社区版的 NebulaGraph 集群。 +NebulaGraph Operator 的扩缩容功能仅对企业版的{{nebula.name}}集群开放,不支持使用 NebulaGraph Operator 扩缩容社区版的{{nebula.name}}集群。 ## 更新说明 diff --git a/docs-2.0/nebula-operator/10.backup-restore-using-operator.md b/docs-2.0/nebula-operator/10.backup-restore-using-operator.md index e434f27b17f..9e1cdc86f50 100644 --- a/docs-2.0/nebula-operator/10.backup-restore-using-operator.md +++ b/docs-2.0/nebula-operator/10.backup-restore-using-operator.md @@ -1,18 +1,18 @@ # 使用 NebulaGraph Operator 备份和恢复数据 -本文介绍如何对 Kubernetes 上的 NebulaGraph 集群进行数据备份和数据恢复。 +本文介绍如何对 Kubernetes 上的{{nebula.name}}集群进行数据备份和数据恢复。 !!! enterpriseonly - 仅支持备份和恢复 Kubernetes 上的企业版 NebulaGraph 集群。 + 仅支持备份和恢复 Kubernetes 上的企业版{{nebula.name}}集群。 ## 原理介绍 -[NebulaGraph BR(企业版)](../backup-and-restore/nebula-br-ent/1.br-ent-overview.md)工具是 NebulaGraph 企业版数据备份和恢复的命令行工具。NebulaGraph Operator 基于 BR 工具来实现 Kubernetes 上的 NebulaGraph 集群数据的备份和恢复。 +[{{br_ent.name}}](../backup-and-restore/nebula-br-ent/1.br-ent-overview.md)工具是{{nebula.name}}企业版数据备份和恢复的命令行工具。NebulaGraph Operator 基于{{br_ent.name}}工具来实现 Kubernetes 上的{{nebula.name}}集群数据的备份和恢复。 -备份数据时,NebulaGraph Operator 会创建一个 Job,然后将 NebulaGraph 集群中的数据备份到指定的存储服务上。 +备份数据时,NebulaGraph Operator 会创建一个 Job,然后将{{nebula.name}}集群中的数据备份到指定的存储服务上。 -恢复数据时,NebulaGraph Operator 会根据 NebulaRestore 资源对象定义的信息检查指定的备份 NebulaGraph 集群是否存在、远端存储的访问是否正常,并且会创建一个新的集群,然后将备份数据恢复到新创建的 NebulaGraph 集群中。更多信息参见[恢复流程图](https://github.com/vesoft-inc/nebula-operator/blob/v{{operator.release}}/doc/user/br_guide.md#restore-nebulagraph-cluster)。 +恢复数据时,NebulaGraph Operator 会根据 NebulaRestore 资源对象定义的信息检查指定的备份{{nebula.name}}集群是否存在、远端存储的访问是否正常,并且会创建一个新的集群,然后将备份数据恢复到新创建的{{nebula.name}}集群中。更多信息参见[恢复流程图](https://github.com/vesoft-inc/nebula-operator/blob/v{{operator.release}}/doc/user/br_guide.md#restore-nebulagraph-cluster)。 ## 前提条件 @@ -20,7 +20,7 @@ 使用 NebulaGraph Operator 备份和恢复数据,需要满足以下条件: - Nebula Operator 版本 >= 1.4.0。 -- Kubernetes 上部署的企业版 NebulaGraph 集群正在运行。 +- Kubernetes 上部署的企业版{{nebula.name}}集群正在运行。 - 在创建集群的 YAML 中,设置了`spec.enableBR`为`true`。 ``` @@ -49,7 +49,7 @@ ### 全量备份 -当备份数据至兼容 S3 协议的存储服务上时,需要创建一个备份任务(Job),它会将全量 NebulaGraph 数据备份到指定的存储位置。 +当备份数据至兼容 S3 协议的存储服务上时,需要创建一个备份任务(Job),它会将全量{{nebula.name}}数据备份到指定的存储位置。 全量备份任务(Job)的 YAML 示例如下: @@ -120,7 +120,7 @@ spec: | ------------- | ---- | ---- | | `spec.parallelism` |1 |并行执行的任务数。 | | `spec.ttlSecondsAfterFinished` | 60 | 在任务完成后,保留任务信息的时间。 | -| `spec.template.spec.containers[0].image` | `vesoft/br-ent:{{br_ent.release}}`|NebulaGraph BR 企业版工具的镜像地址。 | +| `spec.template.spec.containers[0].image` | `vesoft/br-ent:{{br_ent.release}}`|{{br_ent.name}}工具的镜像地址。 | | `spec.template.spec.containers[0].command`| - | 备份数据至兼容 S3 协议存储服务的命令。
有关命令中选项的描述,参见[参数说明](../backup-and-restore/nebula-br-ent/3.backup-data.md#_12)。 | @@ -158,7 +158,7 @@ Storaged Pod的init容器下载备份数据,下载成功由agent容器进行 ### 恢复过程 -当恢复备份在兼容 S3 协议服务上的数据时,需要创建一个 Secret,用于存储访问兼容 S3 协议的服务的凭证。然后创建一个恢复数据的资源对象(NebulaRestore),它会告诉 Operator 基于此资源对象定义的信息创建一个新的 NebulaGraph 集群,将备份数据恢复到新创建的集群中。 +当恢复备份在兼容 S3 协议服务上的数据时,需要创建一个 Secret,用于存储访问兼容 S3 协议的服务的凭证。然后创建一个恢复数据的资源对象(NebulaRestore),它会告诉 Operator 基于此资源对象定义的信息创建一个新的{{nebula.name}}集群,将备份数据恢复到新创建的集群中。 基于备份文件`BACKUP_2023_02_12_10_04_16`恢复数据的 YAML 示例: diff --git a/docs-2.0/nebula-operator/11.rolling-update-strategy.md b/docs-2.0/nebula-operator/11.rolling-update-strategy.md index cc7d5ea0a07..2ea319472cf 100644 --- a/docs-2.0/nebula-operator/11.rolling-update-strategy.md +++ b/docs-2.0/nebula-operator/11.rolling-update-strategy.md @@ -1,17 +1,17 @@ -# NebulaGraph 集群的滚动更新策略 +# {{nebula.name}}集群的滚动更新策略 -NebulaGraph 集群使用分布式架构将数据分成多个逻辑分片,这些分片通常均分在不同的节点上。分布式系统中,同一份数据通常会有多个副本。为了保证多个副本数据的一致性,NebulaGraph 集群使用 Raft 协议实现了多分片副本同步。Raft 协议中,每个分片都会选举出一个 Leader 副本,Leader 副本负责处理写请求,Follower 副本负责处理读请求。 +{{nebula.name}}集群使用分布式架构将数据分成多个逻辑分片,这些分片通常均分在不同的节点上。分布式系统中,同一份数据通常会有多个副本。为了保证多个副本数据的一致性,{{nebula.name}}集群使用 Raft 协议实现了多分片副本同步。Raft 协议中,每个分片都会选举出一个 Leader 副本,Leader 副本负责处理写请求,Follower 副本负责处理读请求。 -通过 Operator 创建的 NebulaGraph 集群在滚动更新过程中,一个存储节点会暂时停止提供服务以进行更新。关于滚动更新的概述,参见[执行滚动更新](https://kubernetes.io/zh-cn/docs/tutorials/kubernetes-basics/update/update-intro/)。如果 Leader 副本所在的节点停止提供服务,会导致该分片的读写不可用。为了避免这种情况,Operator 会在 NebulaGraph 集群滚动更新过程中,默认将 Leader 副本迁移到其他未受影响节点上。这样,当一个存储节点处于更新状态时,其他节点上的 Leader 副本能够继续处理客户端请求,以保证集群的读写可用性。 +通过 Operator 创建的{{nebula.name}}集群在滚动更新过程中,一个存储节点会暂时停止提供服务以进行更新。关于滚动更新的概述,参见[执行滚动更新](https://kubernetes.io/zh-cn/docs/tutorials/kubernetes-basics/update/update-intro/)。如果 Leader 副本所在的节点停止提供服务,会导致该分片的读写不可用。为了避免这种情况,Operator 会在{{nebula.name}}集群滚动更新过程中,默认将 Leader 副本迁移到其他未受影响节点上。这样,当一个存储节点处于更新状态时,其他节点上的 Leader 副本能够继续处理客户端请求,以保证集群的读写可用性。 一个存储节点上的所有 Leader 副本全部迁移到其他节点的这个过程可能会持续较长时间。为了更好地控制滚动更新的时间,Operator 提供了一个名为`enableForceUpdate`参数。当确定没有外部访问流量时,可将该参数设置为`true`,这样,Leader 副本将不会被迁移到其他节点上,从而加快滚动更新的速度。 ## 滚动更新触发条件 -Operator 会在以下情况下触发 NebulaGraph 集群的滚动更新: +Operator 会在以下情况下触发{{nebula.name}}集群的滚动更新: -- NebulaGraph 集群的版本发生变化。 -- NebulaGraph 集群的配置发生变化。 +- {{nebula.name}} 集群的版本发生变化。 +- {{nebula.name}} 集群的配置发生变化。 ## 配置滚动更新策略 diff --git a/docs-2.0/nebula-operator/2.deploy-nebula-operator.md b/docs-2.0/nebula-operator/2.deploy-nebula-operator.md index 2026d474901..55bc14fea31 100644 --- a/docs-2.0/nebula-operator/2.deploy-nebula-operator.md +++ b/docs-2.0/nebula-operator/2.deploy-nebula-operator.md @@ -4,7 +4,7 @@ ## 背景信息 -[NebulaGraph Operator](1.introduction-to-nebula-operator.md) 为用户管理 NebulaGraph 集群,使用户无需在生产环境中手动安装、扩展、升级和卸载 NebulaGraph,减轻用户管理不同应用版本的负担。 +[NebulaGraph Operator](1.introduction-to-nebula-operator.md) 为用户管理{{nebula.name}}集群,使用户无需在生产环境中手动安装、扩展、升级和卸载 NebulaGraph,减轻用户管理不同应用版本的负担。 ## 前提条件 @@ -19,7 +19,7 @@ !!! note - 如果使用基于角色的访问控制的策略,用户需开启 [RBAC](https://kubernetes.io/docs/admin/authorization/rbac)(可选)。 - - [CoreDNS](https://coredns.io/) 是一个灵活的、可扩展的 DNS 服务器,被[安装](https://github.com/coredns/deployment/tree/master/kubernetes)在集群内作为集群内 Pods 的 DNS 服务器。NebulaGraph 集群中的每个组件通过 DNS 解析类似`x.default.svc.cluster.local`这样的域名相互通信。 + - [CoreDNS](https://coredns.io/) 是一个灵活的、可扩展的 DNS 服务器,被[安装](https://github.com/coredns/deployment/tree/master/kubernetes)在集群内作为集群内 Pods 的 DNS 服务器。{{nebula.name}}集群中的每个组件通过 DNS 解析类似`x.default.svc.cluster.local`这样的域名相互通信。 ## 操作步骤 @@ -212,7 +212,7 @@ helm install nebula-operator nebula-operator/nebula-operator --namespace= #为变量值,请用实际集群名称替换。 @@ -88,16 +88,16 @@ (root@nebula) [(none)]> ``` - - `--image`:为连接 NebulaGraph 的工具 NebulaGraph Console 的镜像。 + - `--image`:为连接{{nebula.name}}的工具 NebulaGraph Console 的镜像。 - ``:自定义的 Pod 名称。本示例为`nebula-console`。 - - `-addr`:NebulaGraph 集群中任一节点 IP 地址。本示例为`192.168.8.24`。 - - `-port`:NebulaGraph 映射至节点的端口。本示例为`32236`。 - - `-u`:NebulaGraph 账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为 root)。 + - `-addr`:{{nebula.name}}集群中任一节点 IP 地址。本示例为`192.168.8.24`。 + - `-port`:{{nebula.name}}映射至节点的端口。本示例为`32236`。 + - `-u`:{{nebula.name}}账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为 root)。 - `-p`:用户名对应的密码。未启用身份认证时,密码可以填写任意字符。 -## 在 NebulaGraph 集群内连接 NebulaGraph 数据库 +## 在{{nebula.name}}集群内连接{{nebula.name}} -用户也可以创建`ClusterIP`类型的 Service,为集群内的其他 Pod 提供访问 NebulaGraph 数据库的入口。通过该 Service 的 IP 和数据库 Graph 服务的端口号(`9669`),可连接 NebulaGraph 数据库。更多信息,请参考 [ClusterIP](https://kubernetes.io/docs/concepts/services-networking/service/)。 +用户也可以创建`ClusterIP`类型的 Service,为集群内的其他 Pod 提供访问{{nebula.name}}的入口。通过该 Service 的 IP 和数据库 Graph 服务的端口号(`9669`),可连接{{nebula.name}}。更多信息,请参考 [ClusterIP](https://kubernetes.io/docs/concepts/services-networking/service/)。 1. 创建名为`graphd-clusterip-service.yaml`的文件。示例内容如下: @@ -131,7 +131,7 @@ type: ClusterIP # 设置 Service 类型为 ClusterIP。 ``` - - NebulaGraph 默认使用`9669`端口为客户端提供服务。`19669`为 Graph 服务的 HTTP 端口号。 + - {{nebula.name}}默认使用`9669`端口为客户端提供服务。`19669`为 Graph 服务的 HTTP 端口号。 - `targetPort`的值为映射至 Pod 的端口,可自定义。 2. 执行以下命令使 Service 服务在集群中生效。 @@ -149,7 +149,7 @@ ... ``` -4. 使用上述`-graphd-svc` Service 的 IP 连接 NebulaGraph 数据库: +4. 使用上述`-graphd-svc` Service 的 IP 连接{{nebula.name}}: ```bash kubectl run -ti --image vesoft/nebula-console:{{console.tag}} --restart=Never -- -addr -port -u -p @@ -161,11 +161,11 @@ kubectl run -ti --image vesoft/nebula-console:{{console.tag}} --restart=Never -- nebula-console -addr 10.98.213.34 -port 9669 -u root -p vesoft ``` - - `--image`:为连接 NebulaGraph 的工具 NebulaGraph Console 的镜像。 + - `--image`:为连接{{nebula.name}}的工具 NebulaGraph Console 的镜像。 - ``:自定义的 Pod 名称。 - `-addr`:连接 Graphd 服务的 IP 地址,即`ClusterIP`类型的 Service IP 地址。 - `-port`:连接 Graphd 服务的端口。默认端口为`9669`。 - - `-u`:NebulaGraph 账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为`root`)。 + - `-u`:{{nebula.name}}账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为`root`)。 - `-p`:用户名对应的密码。未启用身份认证时,密码可以填写任意字符。 如果返回以下内容,说明成功连接数据库: @@ -185,13 +185,13 @@ kubectl run -ti --image vesoft/nebula-console:{{console.tag}} --restart=Never -- - ``为 Graph 服务默认的端口`9669`。 -## 通过`Ingress`在 NebulaGraph 集群外部连接 NebulaGraph 数据库 +## 通过`Ingress`在{{nebula.name}}集群外部连接{{nebula.name}} 当集群中有多个 Pod 时,为每个 Pod 分别提供服务会变得非常困难和繁琐,而使用 Ingress 可以轻松解决这个问题。Ingress 可以将流量路由到集群内部的多个 Pod。 Nginx Ingress 是 Kubernetes 中的一个 Ingress 控制器(Controller),是对 Kubernetes Ingress 资源的一个实现,通过 Watch 机制感知 Kubernetes 集群中的 Ingress 资源。它将这些 Ingress 规则转换为 Nginx 配置并启动一个 Nginx 实例来处理流量。 -用户可以通过 HostNetwork 和 DaemonSet 组合的模式使用 Nginx Ingress 从集群外部连接 NebulaGraph 集群。 +用户可以通过 HostNetwork 和 DaemonSet 组合的模式使用 Nginx Ingress 从集群外部连接{{nebula.name}}集群。 由于使用 HostNetwork,Nginx Ingress 的 Pod 就不能被调度在同一个节点上。为了避免监听端口冲突,可以事先选择一些节点并将其标记为边缘节点,专门用于部署 Nginx Ingress。然后 Nginx Ingress 以 DaemonSet 模式部署在这些节点上。 @@ -248,9 +248,9 @@ data: daemonset.apps/nginx-ingress-controller created ``` - 成功部署 Nginx Ingress 后,由于 Nginx Ingress 中配置的网络类型为`hostNetwork`,因此用户可通过部署了 Nginx Ingress 的节点的 IP(`192.168.8.160`)和外部端口(`9769`)访问 NebulaGraph 服务。 + 成功部署 Nginx Ingress 后,由于 Nginx Ingress 中配置的网络类型为`hostNetwork`,因此用户可通过部署了 Nginx Ingress 的节点的 IP(`192.168.8.160`)和外部端口(`9769`)访问{{nebula.name}}服务。 -4. 执行以下命令部署连接 NebulaGraph 服务的 Console 并通过宿主机 IP(本示例为`192.168.8.160`)和上述配置的外部端口访问 NebulaGraph 服务。 +4. 执行以下命令部署连接{{nebula.name}}服务的 Console 并通过宿主机 IP(本示例为`192.168.8.160`)和上述配置的外部端口访问{{nebula.name}}服务。 ```bash kubectl run -ti --image vesoft/nebula-console:{{console.tag}} --restart=Never -- -addr -port -u -p @@ -262,11 +262,11 @@ data: kubectl run -ti --image vesoft/nebula-console:{{console.tag}} --restart=Never -- nebula-console -addr 192.168.8.160 -port 9769 -u root -p vesoft ``` - - `--image`:为连接 NebulaGraph 的工具 NebulaGraph Console 的镜像。 + - `--image`:为连接{{nebula.name}}的工具 NebulaGraph Console 的镜像。 - ``:自定义的 Pod 名称。本示例为`nebula-console`。 - `-addr`:部署 Nginx Ingress 的节点 IP,本示例为`192.168.8.160`。 - `-port`:外网访问使用的的端口。本示例设置为`9769`。 - - `-u`:NebulaGraph 账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为 root)。 + - `-u`:{{nebula.name}}账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为 root)。 - `-p`:用户名对应的密码。未启用身份认证时,密码可以填写任意字符。 如果返回以下内容,说明成功连接数据库: diff --git a/docs-2.0/nebula-operator/5.operator-failover.md b/docs-2.0/nebula-operator/5.operator-failover.md index fc6abb58e9b..4c6c77222c1 100644 --- a/docs-2.0/nebula-operator/5.operator-failover.md +++ b/docs-2.0/nebula-operator/5.operator-failover.md @@ -1,6 +1,6 @@ # 故障自愈 -NebulaGraph Operator 调用 NebulaGraph 集群提供的接口,动态地感知服务是否正常运行。当 NebulaGraph 集群中某一组件停止运行时,NebulaGraph Operator 会自动地进行容错处理。本文通过删除 NebulaGraph 集群中 1 个 Storage 服务 Pod,模拟集群故障为例,说明 Nebular Operator 如何进行故障自愈。 +NebulaGraph Operator 调用{{nebula.name}}集群提供的接口,动态地感知服务是否正常运行。当{{nebula.name}}集群中某一组件停止运行时,NebulaGraph Operator 会自动地进行容错处理。本文通过删除{{nebula.name}}集群中 1 个 Storage 服务 Pod,模拟集群故障为例,说明 Nebular Operator 如何进行故障自愈。 ## 前提条件 @@ -8,14 +8,14 @@ NebulaGraph Operator 调用 NebulaGraph 集群提供的接口,动态地感知 ## 操作步骤 -1. 创建 NebulaGraph 集群。具体步骤参考[使用 Kubectl 部署 NebulaGraph 集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)或者[使用 Helm 部署 NebulaGraph 集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 +1. 创建{{nebula.name}}集群。具体步骤参考[使用 Kubectl 部署{{nebula.name}}集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)或者[使用 Helm 部署{{nebula.name}}集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 2. 待所有 Pods 都处于`Running`状态时,模拟故障,删除名为`-storaged-2` Pod。 ```bash kubectl delete pod -storaged-2 --now ``` -``为 NebulaGraph 集群的名称。 +``为{{nebula.name}}集群的名称。 3. NebulaGraph Operator 自动创建名为`-storaged-2`的 Pod,以修复故障。 diff --git a/docs-2.0/nebula-operator/6.get-started-with-operator.md b/docs-2.0/nebula-operator/6.get-started-with-operator.md index a19b95776a9..1a2695c519a 100644 --- a/docs-2.0/nebula-operator/6.get-started-with-operator.md +++ b/docs-2.0/nebula-operator/6.get-started-with-operator.md @@ -1,10 +1,10 @@ # 使用流程 -使用 NebulaGraph Operator 访问 NebulaGraph 集群服务的流程如下: +使用 NebulaGraph Operator 访问{{nebula.name}}集群服务的流程如下: 1. [安装 NebulaGraph Operator](2.deploy-nebula-operator.md)。 -2. 创建 NebulaGraph 集群。 +2. 创建{{nebula.name}}集群。 - 具体步骤参考[使用 Kubectl 部署 NebulaGraph 集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)或者[使用 Helm 部署 NebulaGraph 集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 + 具体步骤参考[使用 Kubectl 部署{{nebula.name}}集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)或者[使用 Helm 部署{{nebula.name}}集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 -3. [连接 NebulaGraph 服务](4.connect-to-nebula-graph-service.md)。 +3. [连接{{nebula.name}}服务](4.connect-to-nebula-graph-service.md)。 diff --git a/docs-2.0/nebula-operator/7.operator-faq.md b/docs-2.0/nebula-operator/7.operator-faq.md index 88020660d8d..2b06b22f265 100644 --- a/docs-2.0/nebula-operator/7.operator-faq.md +++ b/docs-2.0/nebula-operator/7.operator-faq.md @@ -1,8 +1,8 @@ # 常见问题 -## NebulaGraph Operator 支持 v1.x 版本的 NebulaGraph 吗? +## NebulaGraph Operator 支持 v1.x 版本的{{nebula.name}}吗? -不支持,因为 v1.x 版本的 NebulaGraph 不支持 DNS,而 NebulaGraph Operator 需要使用 DNS。 +不支持,因为 v1.x 版本的{{nebula.name}}不支持 DNS,而 NebulaGraph Operator 需要使用 DNS。 ## 使用本地存储是否可以保证集群稳定性? @@ -12,6 +12,6 @@ 建议提前备份数据,以便故障发生时回滚数据。 -## Operator 文档中的 replica 和 NebulaGraph 内核文档中的 replica 是一样的吗? +## Operator 文档中的 replica 和{{nebula.name}}内核文档中的 replica 是一样的吗? -二者是不同的概念。Operator 文档中的 replica 是 K8s 中的 Pod 副本,而内核文档中的 replica 是 NebulaGraph 中的分片副本。 +二者是不同的概念。Operator 文档中的 replica 是 K8s 中的 Pod 副本,而内核文档中的 replica 是{{nebula.name}}中的分片副本。 diff --git a/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.1.custom-conf-parameter.md b/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.1.custom-conf-parameter.md index 3d87bd946b0..9ba73244f30 100644 --- a/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.1.custom-conf-parameter.md +++ b/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.1.custom-conf-parameter.md @@ -1,10 +1,10 @@ -# 自定义 NebulaGraph 集群的配置参数 +# 自定义{{nebula.name}}集群的配置参数 -NebulaGraph 集群中 Meta、Storage、Graph 服务都有各自的配置,其在用户创建的 NebulaGraph 集群实例的 YAML 文件中被定义为`config`。`config`中的设置会被映射并加载到对应服务的 ConfigMap 中。各个服务在启动时会挂载 ConfigMap 中的配置到`/usr/local/nebula/etc/`目录下。 +{{nebula.name}}集群中 Meta、Storage、Graph 服务都有各自的配置,其在用户创建的{{nebula.name}}集群实例的 YAML 文件中被定义为`config`。`config`中的设置会被映射并加载到对应服务的 ConfigMap 中。各个服务在启动时会挂载 ConfigMap 中的配置到`/usr/local/nebula/etc/`目录下。 !!! note - 暂不支持通过 Helm 自定义 NebulaGraph 集群的配置参数。 + 暂不支持通过 Helm 自定义{{nebula.name}}集群的配置参数。 `config`结构如下: @@ -14,7 +14,7 @@ Config map[string]string `json:"config,omitempty"` ## 前提条件 -已使用 K8s 创建一个集群。具体步骤,参见[使用 Kubectl 创建 NebulaGraph 集群](../3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 +已使用 K8s 创建一个集群。具体步骤,参见[使用 Kubectl 创建{{nebula.name}}集群](../3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 ## 操作步骤 diff --git a/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.2.pv-reclaim.md b/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.2.pv-reclaim.md index ffcb6cdb3de..b3ce90c9105 100644 --- a/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.2.pv-reclaim.md +++ b/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.2.pv-reclaim.md @@ -1,13 +1,13 @@ # 回收 PV -NebulaGraph Operator 使用持久化卷 PV(Persistent Volume)和持久化卷声明 PVC(Persistent Volume Claim)来存储持久化数据。如果用户不小心删除了一个 NebulaGraph 集群,默认 PV 和 PVC 对象及其数据仍可保留,以确保数据安全。 +NebulaGraph Operator 使用持久化卷 PV(Persistent Volume)和持久化卷声明 PVC(Persistent Volume Claim)来存储持久化数据。如果用户不小心删除了一个{{nebula.name}}集群,默认 PV 和 PVC 对象及其数据仍可保留,以确保数据安全。 用户也可以在集群实例的配置文件中通过设置参数`spec.enablePVReclaim`为`true`来定义在删除集群后自动删除 PVC 以释放数据。至于在删除 PVC 后是否删除 PV,用户需要自定义 PV 的回收策略。参见 [StorageClass 中设置 reclaimPolicy](https://kubernetes.io/docs/concepts/storage/storage-classes/#reclaim-policy) 和 [PV Reclaiming](https://kubernetes.io/docs/concepts/storage/persistent-volumes/#reclaiming) 了解 PV 回收策略。 ## 前提条件 -已使用 K8s 创建一个集群。具体步骤,参见[使用 Kubectl 创建 NebulaGraph 集群](../3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 +已使用 K8s 创建一个集群。具体步骤,参见[使用 Kubectl 创建{{nebula.name}}集群](../3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 ## 操作步骤 diff --git a/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.3.balance-data-when-scaling-storage.md b/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.3.balance-data-when-scaling-storage.md index c418c5c54c1..b32b30c9d2f 100644 --- a/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.3.balance-data-when-scaling-storage.md +++ b/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.3.balance-data-when-scaling-storage.md @@ -2,17 +2,17 @@ !!! enterpriseonly - 仅企业版 NebulaGraph 集群支持均衡扩容后的 Storage 数据。 + 仅企业版{{nebula.name}}集群支持均衡扩容后的 Storage 数据。 用户在扩容 Storage 服务后,可以自主决定是否均衡 Storage 服务中的数据。本文介绍如何设置均衡 Storage 数据。 -NebulaGraph 的 Storage 服务的扩容分为两个阶段,第一个阶段等待所有扩容的 Pods 为`Ready`的状态;第二个阶段执行`BALANCE DATA`和`BALANCE LEADER`命令均衡数据。这两个阶段将控制器副本的扩容过程与均衡数据过程解耦,使用户可以选择在低流量时进行均衡数据操作,有效降低数据迁移对在线服务的影响。 +{{nebula.name}}的 Storage 服务的扩容分为两个阶段,第一个阶段等待所有扩容的 Pods 为`Ready`的状态;第二个阶段执行`BALANCE DATA`和`BALANCE LEADER`命令均衡数据。这两个阶段将控制器副本的扩容过程与均衡数据过程解耦,使用户可以选择在低流量时进行均衡数据操作,有效降低数据迁移对在线服务的影响。 用户可以在集群的 CR 实例的配置文件中通过参数`enableAutoBalance`来控制是否自动均衡数据。 ## 前提条件 -已使用 K8s 创建一个集群。具体步骤,参见[使用 Kubectl 创建 NebulaGraph 集群](../3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 +已使用 K8s 创建一个集群。具体步骤,参见[使用 Kubectl 创建{{nebula.name}}集群](../3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 ## 操作步骤 diff --git a/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.4.manage-running-logs.md b/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.4.manage-running-logs.md index c8b0eb5d10e..876ad58c53a 100644 --- a/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.4.manage-running-logs.md +++ b/docs-2.0/nebula-operator/8.custom-cluster-configurations/8.4.manage-running-logs.md @@ -1,10 +1,10 @@ # 管理集群日志 -NebulaGraph 集群各服务(graphd、metad、storaged)在运行期间会生成运行日志,日志默认存放在各个服务容器的`/usr/local/nebula/logs`目录下。 +{{nebula.name}}集群各服务(graphd、metad、storaged)在运行期间会生成运行日志,日志默认存放在各个服务容器的`/usr/local/nebula/logs`目录下。 ## 查看运行日志 -如果您需要查看 NebulaGraph 集群的运行日志,可以通过`kubectl logs`命令查看。 +如果您需要查看{{nebula.name}}集群的运行日志,可以通过`kubectl logs`命令查看。 例如,查看 Storage 服务的运行日志: @@ -26,7 +26,7 @@ $ cd /usr/local/nebula/logs 集群服务在运行期间生成的运行日志会占用磁盘空间,为避免占用过多磁盘空间,Operator 使用 sidecar 容器定期清理和归档日志。 -为了方便日志的采集和管理,每个 NebulaGraph 服务都会部署一个 sidecar 容器,负责收集该服务容器产生的日志,并将其发送到指定的日志磁盘中。sidecar 容器使用 [logrotate](https://linux.die.net/man/8/logrotate) 工具自动清理和归档日志。 +为了方便日志的采集和管理,每个{{nebula.name}}服务都会部署一个 sidecar 容器,负责收集该服务容器产生的日志,并将其发送到指定的日志磁盘中。sidecar 容器使用 [logrotate](https://linux.die.net/man/8/logrotate) 工具自动清理和归档日志。 在集群实例的 YAML 配置文件中,可以通过`spec.logRotate`字段配置日志轮转以自动对日志进行清理和归档。默认情况下,日志轮转功能是关闭的。开启日志轮转功能示例如下: diff --git a/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md b/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md index 1d9c1ca41bc..da395ec43c1 100644 --- a/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md +++ b/docs-2.0/nebula-operator/9.upgrade-nebula-cluster.md @@ -1,6 +1,6 @@ -# 升级 NebulaGraph 集群 +# 升级{{nebula.name}}集群 -本文介绍如何升级通过 NebulaGraph Operator 创建的 NebulaGraph 集群。 +本文介绍如何升级通过 NebulaGraph Operator 创建的{{nebula.name}}集群。 !!! Compatibility "历史版本兼容性" @@ -9,22 +9,22 @@ ## 使用限制 -- 只支持升级使用 NebulaGraph Operator 创建的 NebulaGraph 集群。 +- 只支持升级使用 NebulaGraph Operator 创建的{{nebula.name}}集群。 -- 只支持升级 NebulaGraph {{operator.upgrade_from}} 至 {{operator.upgrade_to}} 版本。 +- 只支持升级 {{nebula.name}} {{operator.upgrade_from}} 至 {{operator.upgrade_to}} 版本。 {{ ent.ent_begin }} -- 如需升级 NebulaGraph 企业版,[联系我们](https://www.nebula-graph.com.cn/contact)。 +- 如需升级{{nebula.name}}企业版,[联系我们](https://www.nebula-graph.com.cn/contact)。 {{ ent.ent_end }} -## 使用 Kubectl 升级 NebulaGraph 集群 +## 使用 Kubectl 升级{{nebula.name}}集群 ### 前提条件 -已创建 NebulaGraph 集群。具体步骤,参见[使用 Kubectl 创建 NebulaGraph 集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 +已创建{{nebula.name}}集群。具体步骤,参见[使用 Kubectl 创建{{nebula.name}}集群](3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md)。 -本文示例中待升级的 NebulaGraph 版本为 {{operator.upgrade_from}},其 YAML 文件名为`apps_v1alpha1_nebulacluster.yaml`。 +本文示例中待升级的{{nebula.name}}版本为 {{operator.upgrade_from}},其 YAML 文件名为`apps_v1alpha1_nebulacluster.yaml`。 ### 操作步骤 @@ -144,11 +144,11 @@ 3 vesoft/nebula-storaged:{{nebula.tag}} ``` -## 使用 Helm 升级 NebulaGraph 集群 +## 使用 Helm 升级{{nebula.name}}集群 ### 前提条件 -已创建 NebulaGraph 集群。具体步骤,参见[使用 Helm 创建 NebulaGraph 集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 +已创建{{nebula.name}}集群。具体步骤,参见[使用 Helm 创建{{nebula.name}}集群](3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md)。 ### 操作步骤 @@ -161,13 +161,13 @@ 2. 配置 Helm 的环境变量。 ```bash - export NEBULA_CLUSTER_NAME=nebula # NebulaGraph 集群的名字。 - export NEBULA_CLUSTER_NAMESPACE=nebula # NebulaGraph 集群所处的命名空间的名字。 + export NEBULA_CLUSTER_NAME=nebula #{{nebula.name}}集群的名字。 + export NEBULA_CLUSTER_NAMESPACE=nebula #{{nebula.name}}集群所处的命名空间的名字。 ``` -3. 升级 NebulaGraph 集群。 +3. 升级{{nebula.name}}集群。 - 例如升级至 {{nebula.tag}} NebulaGraph 集群的命令如下。 + 例如升级至 {{nebula.tag}}{{nebula.name}}集群的命令如下。 ```bash helm upgrade "${NEBULA_CLUSTER_NAME}" nebula-operator/nebula-cluster \ diff --git a/docs-2.0/nebula-spark-connector.md b/docs-2.0/nebula-spark-connector.md index 82eccd51dab..787b8375102 100644 --- a/docs-2.0/nebula-spark-connector.md +++ b/docs-2.0/nebula-spark-connector.md @@ -1,22 +1,22 @@ # NebulaGraph Spark Connector -NebulaGraph Spark Connector 是一个 Spark 连接器,提供通过 Spark 标准形式读写 NebulaGraph 数据的能力。NebulaGraph Spark Connector 由 Reader 和 Writer 两部分组成。 +NebulaGraph Spark Connector 是一个 Spark 连接器,提供通过 Spark 标准形式读写{{nebula.name}}数据的能力。NebulaGraph Spark Connector 由 Reader 和 Writer 两部分组成。 - Reader - 提供一个 Spark SQL 接口,用户可以使用该接口编程读取 NebulaGraph 图数据,单次读取一个点或 Edge type 的数据,并将读取的结果组装成 Spark 的 DataFrame。 + 提供一个 Spark SQL 接口,用户可以使用该接口编程读取{{nebula.name}}图数据,单次读取一个点或 Edge type 的数据,并将读取的结果组装成 Spark 的 DataFrame。 - Writer - 提供一个 Spark SQL 接口,用户可以使用该接口编程将 DataFrame 格式的数据逐条或批量写入 NebulaGraph。 + 提供一个 Spark SQL 接口,用户可以使用该接口编程将 DataFrame 格式的数据逐条或批量写入{{nebula.name}}。 更多使用说明请参见 [NebulaGraph Spark Connector](https://github.com/vesoft-inc/nebula-spark-connector/blob/{{sparkconnector.branch}}/README_CN.md)。 ## 版本兼容性 -NebulaGraph Spark Connector、NebulaGraph 内核版本和 Spark 版本对应关系如下。 +NebulaGraph Spark Connector、{{nebula.name}}内核版本和 Spark 版本对应关系如下。 -| Spark Connector 版本 | NebulaGraph 版本 | Spark 版本 | +| Spark Connector 版本 | {{nebula.name}}版本 | Spark 版本 | |:----------|:-----------|:-------| |nebula-spark-connector_3.0-3.0-SNAPSHOT.jar| nightly| 3.x| |nebula-spark-connector_2.2-3.0-SNAPSHOT.jar| nightly| 2.2.x| @@ -38,11 +38,11 @@ NebulaGraph Spark Connector、NebulaGraph 内核版本和 Spark 版本对应关 NebulaGraph Spark Connector 适用于以下场景: -- 在不同的 NebulaGraph 集群之间迁移数据。 +- 在不同的{{nebula.name}}集群之间迁移数据。 -- 在同一个 NebulaGraph 集群内不同图空间之间迁移数据。 +- 在同一个{{nebula.name}}集群内不同图空间之间迁移数据。 -- NebulaGraph 与其他数据源之间迁移数据。 +- {{nebula.name}}与其他数据源之间迁移数据。 - 结合 [NebulaGraph Algorithm](graph-computing/nebula-algorithm.md) 进行图计算。 @@ -56,13 +56,13 @@ NebulaGraph Spark Connector {{sparkconnector.release}}版本特性如下: - Reader 支持无属性读取和全属性读取。 -- Reader 支持将 NebulaGraph 数据读取成 Graphx 的 VertexRDD 和 EdgeRDD,支持非 Long 型点 ID。 +- Reader 支持将{{nebula.name}}数据读取成 Graphx 的 VertexRDD 和 EdgeRDD,支持非 Long 型点 ID。 -- 统一了 SparkSQL 的扩展数据源,统一采用 DataSourceV2 进行 NebulaGraph 数据扩展。 +- 统一了 SparkSQL 的扩展数据源,统一采用 DataSourceV2 进行{{nebula.name}}数据扩展。 - 支持`insert`、`update`和`delete`三种写入模式。`insert`模式会插入(覆盖)数据,`update`模式仅会更新已存在的数据,`delete`模式只删除数据。 -- 支持与 NebulaGraph 之间的 SSL 加密连接。 +- 支持与{{nebula.name}}之间的 SSL 加密连接。 ## 更新说明 @@ -112,21 +112,21 @@ NebulaGraph Spark Connector {{sparkconnector.release}}版本特性如下: ## 使用方法 -使用 NebulaGraph Spark Connector 读写 NebulaGraph 数据库时,只需要编写以下代码即可实现。 +使用 NebulaGraph Spark Connector 读写{{nebula.name}}时,只需要编写以下代码即可实现。 ```scala -# 从 NebulaGraph 读取点边数据。 +# 从{{nebula.name}}读取点边数据。 spark.read.nebula().loadVerticesToDF() spark.read.nebula().loadEdgesToDF() -# 将 dataframe 数据作为点和边写入 NebulaGraph 中。 +# 将 dataframe 数据作为点和边写入{{nebula.name}}中。 dataframe.write.nebula().writeVertices() dataframe.write.nebula().writeEdges() ``` `nebula()`接收两个配置参数,包括连接配置和读写配置。 -### 从 NebulaGraph 读取数据 +### 从{{nebula.name}}读取数据 ```scala val config = NebulaConnectionConfig @@ -160,31 +160,31 @@ val nebulaReadEdgeConfig: ReadNebulaConfig = ReadNebulaConfig val edge = spark.read.nebula(config, nebulaReadEdgeConfig).loadEdgesToDF() ``` -- `NebulaConnectionConfig`是连接 NebulaGraph 的配置,说明如下。 +- `NebulaConnectionConfig`是连接{{nebula.name}}的配置,说明如下。 |参数|是否必须|说明| |:---|:---|:---| |`withMetaAddress` |是| 所有 Meta 服务的地址,多个地址用英文逗号(,)隔开,格式为`ip1:port1,ip2:port2,...`。读取数据不需要配置`withGraphAddress`。 | - |`withConnectionRetry` |否| NebulaGraph Java Client 连接 NebulaGraph 的重试次数。默认值为`1`。 | + |`withConnectionRetry` |否| NebulaGraph Java Client 连接{{nebula.name}}的重试次数。默认值为`1`。 | |`withExecuteRetry` |否| NebulaGraph Java Client 执行查询语句的重试次数。默认值为`1`。 | |`withTimeout` |否| NebulaGraph Java Client 请求响应的超时时间。默认值为`6000`,单位:毫秒(ms)。 | -- `ReadNebulaConfig`是读取 NebulaGraph 数据的配置,说明如下。 +- `ReadNebulaConfig`是读取{{nebula.name}}数据的配置,说明如下。 |参数|是否必须|说明| |:---|:---|:---| - |`withSpace` |是| NebulaGraph 图空间名称。 | - |`withLabel` |是| NebulaGraph 图空间内的 Tag 或 Edge type 名称。 | + |`withSpace` |是| {{nebula.name}}图空间名称。 | + |`withLabel` |是| {{nebula.name}}图空间内的 Tag 或 Edge type 名称。 | |`withNoColumn` |否| 是否不读取属性。默认值为`false`,表示读取属性。取值为`true`时,表示不读取属性,此时`withReturnCols`配置无效。 | |`withReturnCols` |否| 配置要读取的点或边的属性集。格式为`List(property1,property2,...)`,默认值为`List()`,表示读取全部属性。 | |`withLimit` |否| 配置 NebulaGraph Java Storage Client 一次从服务端读取的数据行数。默认值为 1000。 | - |`withPartitionNum` |否| 配置读取 NebulaGraph 数据时 Spark 的分区数。默认值为 100。该值的配置最好不超过图空间的的分片数量(partition_num)。| + |`withPartitionNum` |否| 配置读取{{nebula.name}}数据时 Spark 的分区数。默认值为 100。该值的配置最好不超过图空间的的分片数量(partition_num)。| -### 向 NebulaGraph 写入数据 +### 向{{nebula.name}}写入数据 !!! note - DataFrame 中的列会自动作为属性写入 NebulaGraph。 + DataFrame 中的列会自动作为属性写入{{nebula.name}}。 ```scala val config = NebulaConnectionConfig @@ -246,25 +246,25 @@ val nebulaWriteVertexConfig = WriteNebulaVertexConfig df.write.nebula(config, nebulaWriteVertexConfig).writeVertices() ``` -- `NebulaConnectionConfig`是连接 NebulaGraph 的配置,说明如下。 +- `NebulaConnectionConfig`是连接{{nebula.name}}的配置,说明如下。 |参数|是否必须|说明| |:---|:---|:---| |`withMetaAddress` |是| 所有 Meta 服务的地址,多个地址用英文逗号(,)隔开,格式为`ip1:port1,ip2:port2,...`。 | |`withGraphAddress` |是| Graph 服务的地址,多个地址用英文逗号(,)隔开,格式为`ip1:port1,ip2:port2,...`。 | - |`withConnectionRetry` |否| NebulaGraph Java Client 连接 NebulaGraph 的重试次数。默认值为`1`。 | + |`withConnectionRetry` |否| NebulaGraph Java Client 连接{{nebula.name}}的重试次数。默认值为`1`。 | - `WriteNebulaVertexConfig`是写入点的配置,说明如下。 |参数|是否必须|说明| |:---|:---|:---| - |`withSpace` |是| NebulaGraph 图空间名称。 | + |`withSpace` |是| {{nebula.name}}图空间名称。 | |`withTag` |是| 写入点时需要关联的 Tag 名称。 | |`withVidField` |是| DataFrame 中作为点 ID 的列。 | - |`withVidPolicy` |否| 写入点 ID 时,采用的映射函数,NebulaGraph 仅支持 HASH。默认不做映射。 | + |`withVidPolicy` |否| 写入点 ID 时,采用的映射函数,{{nebula.name}}仅支持 HASH。默认不做映射。 | |`withVidAsProp` |否| DataFrame 中作为点 ID 的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保 Tag 中有和`VidField`相同的属性名。 | - |`withUser` |否| NebulaGraph 用户名。若未开启[身份验证](7.data-security/1.authentication/1.authentication.md),无需配置用户名和密码。 | - |`withPasswd` |否| NebulaGraph 用户名对应的密码。 | + |`withUser` |否| {{nebula.name}}用户名。若未开启[身份验证](7.data-security/1.authentication/1.authentication.md),无需配置用户名和密码。 | + |`withPasswd` |否| {{nebula.name}}用户名对应的密码。 | |`withBatch` |是| 一次写入的数据行数,默认值为`512`。当`withWriteMode`为`update`时,该参数的最大值为`512`。 | |`withWriteMode`|否|写入模式。可选值为`insert`、`update`和`delete`。默认为`insert`。| |`withDeleteEdge`|否|删除点时是否删除该点关联的边。默认为`false`。当`withWriteMode`为`delete`时生效。 | @@ -273,18 +273,18 @@ df.write.nebula(config, nebulaWriteVertexConfig).writeVertices() |参数|是否必须|说明| |:---|:---|:---| - |`withSpace` |是| NebulaGraph 图空间名称。 | + |`withSpace` |是| {{nebula.name}}图空间名称。 | |`withEdge` |是| 写入边时需要关联的 Edge type 名称。 | |`withSrcIdField` |是| DataFrame 中作为起始点的列。 | - |`withSrcPolicy` |否| 写入起始点时,采用的映射函数,NebulaGraph 仅支持 HASH。默认不做映射。 | + |`withSrcPolicy` |否| 写入起始点时,采用的映射函数,{{nebula.name}}仅支持 HASH。默认不做映射。 | |`withDstIdField` |是| DataFrame 中作为目的点的列。 | - |`withDstPolicy` |否| 写入目的点时,采用的映射函数,NebulaGraph 仅支持 HASH。默认不做映射。 | + |`withDstPolicy` |否| 写入目的点时,采用的映射函数,{{nebula.name}}仅支持 HASH。默认不做映射。 | |`withRankField` |否| DataFrame 中作为 rank 的列。默认不写入 rank。 | |`withSrcAsProperty` |否| DataFrame 中作为起始点的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保 Edge type 中有和`SrcIdField`相同的属性名。 | |`withDstAsProperty` |否| DataFrame 中作为目的点的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保 Edge type 中有和`DstIdField`相同的属性名。 | |`withRankAsProperty` |否| DataFrame 中作为 rank 的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保 Edge type 中有和`RankField`相同的属性名。 | - |`withUser` |否| NebulaGraph 用户名。若未开启[身份验证](7.data-security/1.authentication/1.authentication.md),无需配置用户名和密码。 | - |`withPasswd` |否| NebulaGraph 用户名对应的密码。 | + |`withUser` |否| {{nebula.name}}用户名。若未开启[身份验证](7.data-security/1.authentication/1.authentication.md),无需配置用户名和密码。 | + |`withPasswd` |否| {{nebula.name}}用户名对应的密码。 | |`withBatch` |是| 一次写入的数据行数,默认值为`512`。当`withWriteMode`为`update`时,该参数的最大值为`512`。 | |`withWriteMode`|否|写入模式。可选值为`insert`、`update`和`delete`。默认为`insert`。| diff --git a/docs-2.0/nebula-studio/about-studio/st-ug-what-is-graph-studio.md b/docs-2.0/nebula-studio/about-studio/st-ug-what-is-graph-studio.md index 16e45c83d6c..4e1e4d08349 100644 --- a/docs-2.0/nebula-studio/about-studio/st-ug-what-is-graph-studio.md +++ b/docs-2.0/nebula-studio/about-studio/st-ug-what-is-graph-studio.md @@ -1,6 +1,6 @@ # 什么是 NebulaGraph Studio -NebulaGraph Studio(简称 Studio)是一款可以通过 Web 访问的开源图数据库可视化工具,搭配 [NebulaGraph](../../README.md) 内核使用,提供构图、数据导入、编写 nGQL 查询等一站式服务。用户可以在 NebulaGraph GitHub 仓库中查看最新源码,详情参见 [nebula-studio](https://github.com/vesoft-inc/nebula-studio)。 +NebulaGraph Studio(简称 Studio)是一款可以通过 Web 访问的开源图数据库可视化工具,搭配 [{{nebula.name}}](../../README.md) 内核使用,提供构图、数据导入、编写 nGQL 查询等一站式服务。用户可以在{{nebula.name}} GitHub 仓库中查看最新源码,详情参见 [nebula-studio](https://github.com/vesoft-inc/nebula-studio)。 !!! Note @@ -10,17 +10,13 @@ NebulaGraph Studio(简称 Studio)是一款可以通过 Web 访问的开源 用户可以使用 RPM 包、DEB 包、tar 包和 Docker 服务安装部署 Studio,在 Kubernetes 集群里还支持使用 Helm 安装部署 Studio。详细信息参考 [部署 Studio](../deploy-connect/st-ug-deploy.md)。 - - 几种部署方式功能基本相同,在使用 Studio 时可能会受到限制。详细信息,参考[使用限制](st-ug-limitations.md)。 ## 产品功能 -Studio 可以方便管理 NebulaGraph 图数据,具备以下功能: +Studio 可以方便管理{{nebula.name}}数据,具备以下功能: -- 使用 **Schema** 管理功能,用户可以使用图形界面完成图空间、Tag(标签)、Edge Type(边类型)、索引的创建,查看图空间的统计数据,快速上手 NebulaGraph。 +- 使用 **Schema** 管理功能,用户可以使用图形界面完成图空间、Tag(标签)、Edge Type(边类型)、索引的创建,查看图空间的统计数据,快速上手{{nebula.name}}。 - 使用**导入**功能,通过简单的配置,用户即能批量导入点和边数据,并能实时查看数据导入日志。 @@ -30,27 +26,23 @@ Studio 可以方便管理 NebulaGraph 图数据,具备以下功能: 如果有以下任一需求,都可以使用 Studio: -- 已经安装部署了 NebulaGraph 数据库,想使用 GUI 工具创建 Schema、导入数据、执行 nGQL 语句查询。 +- 已经安装部署了{{nebula.name}},想使用 GUI 工具创建 Schema、导入数据、执行 nGQL 语句查询。 - 刚开始学习 nGQL(NebulaGraph Query Language),但是不习惯用命令行工具,更希望使用 GUI 工具查看语句输出的结果。 ## 身份验证 - - -因为 NebulaGraph 默认不启用身份验证,所以用户可以使用 `root` 账号和任意密码登录 Studio。 +因为{{nebula.name}}默认不启用身份验证,所以用户可以使用 `root` 账号和任意密码登录 Studio。 -当 NebulaGraph 启用了身份验证后,用户只能使用指定的账号和密码登录 Studio。关于 NebulaGraph 的身份验证功能,参考 [身份验证](../../7.data-security/1.authentication/1.authentication.md "点击前往 NebulaGraph 官网")。 +当{{nebula.name}}启用了身份验证后,用户只能使用指定的账号和密码登录 Studio。关于{{nebula.name}}的身份验证功能,参考 [身份验证](../../7.data-security/1.authentication/1.authentication.md "点击前往{{nebula.name}}官网")。 ## 版本兼容性 !!! Note - Studio 版本发布节奏独立于 NebulaGraph 内核,其命名方式也不参照内核命名规则,两者兼容对应关系如下表。 + Studio 版本发布节奏独立于{{nebula.name}}内核,其命名方式也不参照内核命名规则,两者兼容对应关系如下表。 -| NebulaGraph 版本 | Studio 版本 | +|{{nebula.name}}版本 | Studio 版本 | | --- | --- | | 3.4.0 ~ 3.4.1| 3.6.0、3.5.1、3.5.0 | | 3.3.0 | 3.5.1、3.5.0 | @@ -66,14 +58,6 @@ Studio 可以方便管理 NebulaGraph 图数据,具备以下功能: Studio 处于持续开发状态中。用户可以通过 [Studio 版本更新说明](../../20.appendix/release-notes/studio-release-note.md)查看最新发布的功能。 - - 成功连接 Studio 后,用户可以在页面右上角点击用户头像,再点击 **更新日志**,查看 Studio 的版本更新说明。 ![在页面右上角点击头像,并在弹出菜单里点击“新发布”](https://docs-cdn.nebula-graph.com.cn/figures/st-ug-001-cn.png) diff --git a/docs-2.0/nebula-studio/deploy-connect/st-ug-connect.md b/docs-2.0/nebula-studio/deploy-connect/st-ug-connect.md index 8944ba70267..9915a7b4fb0 100644 --- a/docs-2.0/nebula-studio/deploy-connect/st-ug-connect.md +++ b/docs-2.0/nebula-studio/deploy-connect/st-ug-connect.md @@ -1,23 +1,20 @@ # 连接数据库 - -在成功启动 Studio 后,用户需要配置连接 NebulaGraph。本文主要描述 Studio 如何连接 NebulaGraph 数据库。 +在成功启动 Studio 后,用户需要配置连接{{nebula.name}}。本文主要描述 Studio 如何连接{{nebula.name}}。 ## 前提条件 -在连接 NebulaGraph 数据库前,用户需要确认以下信息: +在连接{{nebula.name}}数据库前,用户需要确认以下信息: - Studio 已经启动。详细信息参考[部署 Studio](st-ug-deploy.md)。 -- NebulaGraph 的 Graph 服务本机 IP 地址以及服务所用端口。默认端口为 `9669`。 +- {{nebula.name}}的 Graph 服务本机 IP 地址以及服务所用端口。默认端口为 `9669`。 -- NebulaGraph 数据库登录账号信息,包括用户名和密码。 +- {{nebula.name}}登录账号信息,包括用户名和密码。 ## 操作步骤 -按以下步骤连接 NebulaGraph 数据库: +按以下步骤连接{{nebula.name}}: 1. 在浏览器地址栏输入 `http://:7001`。 @@ -27,16 +24,16 @@ 2. 在 Studio 的 **配置数据库** 页面上,输入以下信息: - - **Graphd IP 地址**:填写 NebulaGraph 的 Graph 服务本机 IP 地址。例如`192.168.10.100`。 + - **Graphd IP 地址**:填写{{nebula.name}}的 Graph 服务本机 IP 地址。例如`192.168.10.100`。 !!! Note - - 即使 NebulaGraph 数据库与 Studio 部署在同一台机器上,用户也必须填写这台机器的本机 IP 地址,而不是 `127.0.0.1` 或者 `localhost`。 - - 在新的标签页连接另一个 NebulaGraph 数据库时,会覆盖旧标签页的会话。如果需要同时登录多个 NebulaGraph 数据库,可以用不同的浏览器或者无痕模式。 + - 即使{{nebula.name}}与 Studio 部署在同一台机器上,用户也必须填写这台机器的本机 IP 地址,而不是 `127.0.0.1` 或者 `localhost`。 + - 在新的标签页连接另一个{{nebula.name}}时,会覆盖旧标签页的会话。如果需要同时登录多个{{nebula.name}},可以用不同的浏览器或者无痕模式。 - **Port**:Graphd 服务的端口。默认为`9669`。 - - **用户名** 和 **密码**:根据 NebulaGraph 的身份验证设置填写登录账号和密码。 + - **用户名** 和 **密码**:根据{{nebula.name}}的身份验证设置填写登录账号和密码。 - 如果未启用身份验证,可以填写默认用户名 `root` 和任意密码。 - 如果已启用身份验证,但是未创建账号信息,用户只能以 GOD 角色登录,必须填写 `root` 及对应的密码 `nebula`。 - 如果已启用身份验证,同时又创建了不同的用户并分配了角色,不同角色的用户使用自己的账号和密码登录。 @@ -53,7 +50,7 @@ ## 后续操作 -成功连接 NebulaGraph 数据库后,用户可以执行以下操作: +成功连接{{nebula.name}}后,用户可以执行以下操作: - 使用[**控制台**](../quick-start/st-ug-create-schema.md)或者 [**Schema**](../manage-schema/st-ug-crud-space.md) 页面管理 Schema。 - [批量导入数据](../quick-start/st-ug-import-data.md)。 @@ -66,10 +63,7 @@ 账号的权限决定了能执行哪些操作。详情参见[内置角色权限](../../7.data-security/1.authentication/3.role-list.md)。 ### 登出 - -如果需要重新连接 NebulaGraph 数据库,可以登出后重新配置数据库。 +如果需要重新连接{{nebula.name}},可以登出后重新配置数据库。 在页面右上角单击用户头像,单击 **登出**。 diff --git a/docs-2.0/nebula-studio/deploy-connect/st-ug-deploy.md b/docs-2.0/nebula-studio/deploy-connect/st-ug-deploy.md index 5263aa841e7..f388b4e3153 100644 --- a/docs-2.0/nebula-studio/deploy-connect/st-ug-deploy.md +++ b/docs-2.0/nebula-studio/deploy-connect/st-ug-deploy.md @@ -1,7 +1,4 @@ # 部署 Studio - 本文介绍如何在本地通过 RPM、DEB、tar 包和 Docker 部署 Studio。 @@ -11,7 +8,7 @@ NebulaGraph Studio( 以下简称 Studio )支持云端或本地部署。云 在部署 RPM 版 Studio 之前,用户需要确认以下信息: -- NebulaGraph 服务已经部署并启动。详细信息,参考 [NebulaGraph 安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往 NebulaGraph 安装部署")。 +- {{nebula.name}}服务已经部署并启动。详细信息,参考 [{{nebula.name}}安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往{{nebula.name}}安装部署")。 - 使用的 Linux 发行版为 CentOS ,已安装 lsof。 @@ -25,7 +22,7 @@ NebulaGraph Studio( 以下简称 Studio )支持云端或本地部署。云 1. 根据需要选择并下载 RPM 包,建议选择最新版本。常用下载链接如下: - | 安装包 | 检验和 | 适用 NebulaGraph 版本 | + | 安装包 | 检验和 | 适用{{nebula.name}}版本 | | ----- | ----- | ----- | | [nebula-graph-studio-{{studio.release}}.x86_64.rpm](https://oss-cdn.nebula-graph.com.cn/nebula-graph-studio/{{studio.release}}/nebula-graph-studio-{{studio.release}}.x86_64.rpm) | [nebula-graph-studio-{{studio.release}}.x86_64.rpm.sha256](https://oss-cdn.nebula-graph.com.cn/nebula-graph-studio/{{studio.release}}/nebula-graph-studio-{{studio.release}}.x86_64.rpm.sha256) | {{ nebula.release }} | @@ -105,7 +102,7 @@ $ systemctl restart nebula-graph-studio.service 在通过 DEB 部署安装 Studio 之前,用户需要确认以下信息: -- NebulaGraph 服务已经部署并启动。详细信息,参考 [NebulaGraph 安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往 NebulaGraph 安装部署")。 +- {{nebula.name}}服务已经部署并启动。详细信息,参考 [{{nebula.name}}安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往{{nebula.name}}安装部署")。 - 使用的 Linux 发行版为 Ubuntu。 @@ -121,7 +118,7 @@ $ systemctl restart nebula-graph-studio.service 1. 根据需要选择并下载 DEB 包,建议选择最新版本。常用下载链接如下: - | 安装包 | 检验和 | 适用 NebulaGraph 版本 | + | 安装包 | 检验和 | 适用{{nebula.name}}版本 | | ----- | ----- | ----- | | [nebula-graph-studio-{{studio.release}}.x86_64.deb](https://oss-cdn.nebula-graph.com.cn/nebula-graph-studio/{{studio.release}}/nebula-graph-studio-{{studio.release}}.x86_64.deb) | [nebula-graph-studio-{{studio.release}}.x86_64.deb.sha256](https://oss-cdn.nebula-graph.com.cn/nebula-graph-studio/{{studio.release}}/nebula-graph-studio-{{studio.release}}.x86_64.deb.sha256) | {{ nebula.release }} | @@ -153,7 +150,7 @@ $ sudo dpkg -r nebula-graph-studio 在部署 tar 包安装的 Studio 之前,用户需要确认以下信息: -- NebulaGraph 服务已经部署并启动。详细信息,参考 [NebulaGraph 安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往 NebulaGraph 安装部署")。 +- {{nebula.name}}服务已经部署并启动。详细信息,参考 [{{nebula.name}}安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往{{nebula.name}}安装部署")。 - 确保以下端口未被占用。 @@ -165,7 +162,7 @@ $ sudo dpkg -r nebula-graph-studio 1. 根据需要下载 tar 包,建议选择最新版本。 - | 安装包 | Studio 版本 |适用 NebulaGraph 版本 | + | 安装包 | Studio 版本 |适用{{nebula.name}}版本 | | --- | --- |---| | [nebula-graph-studio-{{studio.release}}.x86_64.tar.gz](https://oss-cdn.nebula-graph.com.cn/nebula-graph-studio/{{studio.release}}/nebula-graph-studio-{{studio.release}}.x86_64.tar.gz) | {{studio.release}} | {{ nebula.release }} | @@ -200,7 +197,7 @@ $ kill $(lsof -t -i :7001) # stop nebula-graph-studio 在部署 Docker 版 Studio 之前,用户需要确认以下信息: -- NebulaGraph 服务已经部署并启动。详细信息,参考 [NebulaGraph 安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往 NebulaGraph 安装部署")。 +- {{nebula.name}}服务已经部署并启动。详细信息,参考 [{{nebula.name}}安装部署](../../4.deployment-and-installation/1.resource-preparations.md "点击前往{{nebula.name}}安装部署")。 - 在即将运行 Docker 版 Studio 的机器上安装并启动 Docker Compose。详细信息参考 [Docker Compose 文档](https://docs.docker.com/compose/install/ "点击前往 Docker 文档中心")。 - 确保以下端口未被占用。 @@ -225,11 +222,11 @@ $ kill $(lsof -t -i :7001) # stop nebula-graph-studio ### 操作步骤 -在命令行工具中按以下步骤依次运行命令,部署并启动 Docker 版 Studio,这里我们用 NebulaGraph 版本为 {{nebula.release}} 的进行演示: +在命令行工具中按以下步骤依次运行命令,部署并启动 Docker 版 Studio,这里我们用{{nebula.name}}版本为 {{nebula.release}} 的进行演示: 1. 下载 Studio 的部署配置文件。 - | 安装包 | 适用 NebulaGraph 版本 | + | 安装包 | 适用{{nebula.name}}版本 | | ----- | ----- | | [nebula-graph-studio-{{studio.release}}.tar.gz](https://oss-cdn.nebula-graph.com.cn/nebula-graph-studio/{{studio.release}}/nebula-graph-studio-{{studio.release}}.tar.gz) | {{nebula.release}} | @@ -333,4 +330,4 @@ $ helm uninstall my-studio ## 后续操作 -进入 Studio 登录界面后,用户需要连接 NebulaGraph。详细信息,参考[连接数据库](st-ug-connect.md)。 +进入 Studio 登录界面后,用户需要连接{{nebula.name}}。详细信息,参考[连接数据库](st-ug-connect.md)。 diff --git a/docs-2.0/nebula-studio/manage-schema/st-ug-crud-edge-type.md b/docs-2.0/nebula-studio/manage-schema/st-ug-crud-edge-type.md index cca26113221..1ef8494b5cf 100644 --- a/docs-2.0/nebula-studio/manage-schema/st-ug-crud-edge-type.md +++ b/docs-2.0/nebula-studio/manage-schema/st-ug-crud-edge-type.md @@ -1,12 +1,12 @@ # 操作 Edge type -在 NebulaGraph 数据库中创建图空间后,用户可能需要创建 Edge type(边类型)。用户可以选择使用 **控制台** 或者 **Schema** 操作 Edge type。本文仅说明如何使用 **Schema** 操作 Edge type。 +在{{nebula.name}}中创建图空间后,用户可能需要创建 Edge type(边类型)。用户可以选择使用 **控制台** 或者 **Schema** 操作 Edge type。本文仅说明如何使用 **Schema** 操作 Edge type。 ## 前提条件 在 Studio 上操作 Edge type 之前,用户必须确认以下信息: -- Studio 已经连接到 NebulaGraph 数据库。 +- Studio 已经连接到{{nebula.name}}。 - 图空间已经创建。 @@ -36,7 +36,7 @@ - (可选)输入默认值。 - (可选)输入属性备注。 - 4. **设置TTL(存活时间)**(可选):Edge type 未设置索引时,用户可以设置 TTL。勾选**设置TTL(存活时间)**,设置`TTL_COL`和`TTL_DURATION`(单位:秒)。详情参考 [TTL 配置](../../3.ngql-guide/8.clauses-and-options/ttl-options.md "点击前往 NebulaGraph 网站")。 + 4. **设置TTL(存活时间)**(可选):Edge type 未设置索引时,用户可以设置 TTL。勾选**设置TTL(存活时间)**,设置`TTL_COL`和`TTL_DURATION`(单位:秒)。详情参考 [TTL 配置](../../3.ngql-guide/8.clauses-and-options/ttl-options.md "点击前往{{nebula.name}}网站")。 6. 完成设置后,在 **对应的 nGQL 语句** 面板上,用户能看到与上述配置等价的 nGQL 语句。 @@ -64,9 +64,9 @@ - 如果要修改属性:在 **定义属性** 区域,找到需要修改的属性,在右侧点击 **编辑**,修改后点击 **确认**。 - 如果要删除属性:在 **定义属性** 区域,找到需要删除的属性,在右侧点击 **删除**,然后点击 **确认**。 - 如果要添加属性:在 **定义属性** 区域,点击 **+ 添加属性**,设置属性信息,点击 **确认**。详细说明参考[创建边类型](#_2) 。 - - 如果要修改 TTL 信息:在 **设置 TTL** 区域,点击 **编辑**,修改后点击 **确认**。详情参考 [TTL 配置](../../3.ngql-guide/8.clauses-and-options/ttl-options.md "点击前往 NebulaGraph 网站")。 + - 如果要修改 TTL 信息:在 **设置 TTL** 区域,点击 **编辑**,修改后点击 **确认**。详情参考 [TTL 配置](../../3.ngql-guide/8.clauses-and-options/ttl-options.md "点击前往{{nebula.name}}网站")。 - 如果要删除已经配置的 TTL 信息:在 **设置 TTL** 区域,取消勾选 **设置TTL(存活时间)**,然后点击 **确定**。 - - 如果要配置 TTL 信息:在 **设置 TTL** 区域,勾选 **设置TTL(存活时间)**,设置`TTL_COL`和`TTL_DURATION`(单位:秒),点击 **确认**。详情参考 [TTL 配置](../../3.ngql-guide/8.clauses-and-options/ttl-options.md "点击前往 NebulaGraph 网站")。 + - 如果要配置 TTL 信息:在 **设置 TTL** 区域,勾选 **设置TTL(存活时间)**,设置`TTL_COL`和`TTL_DURATION`(单位:秒),点击 **确认**。详情参考 [TTL 配置](../../3.ngql-guide/8.clauses-and-options/ttl-options.md "点击前往{{nebula.name}}网站")。 !!! note diff --git a/docs-2.0/nebula-studio/manage-schema/st-ug-crud-index.md b/docs-2.0/nebula-studio/manage-schema/st-ug-crud-index.md index 602d16fad53..bf0c08f969b 100644 --- a/docs-2.0/nebula-studio/manage-schema/st-ug-crud-index.md +++ b/docs-2.0/nebula-studio/manage-schema/st-ug-crud-index.md @@ -4,13 +4,13 @@ !!! Note - 一般在创建了 Tag 或者 Edge type 之后即可创建索引,但是,索引会影响写性能,所以,建议先导入数据,再批量重建索引。关于索引的详细信息,参考 [索引介绍](../../3.ngql-guide/14.native-index-statements/README.md "点击前往 NebulaGraph 网站")。 + 一般在创建了 Tag 或者 Edge type 之后即可创建索引,但是,索引会影响写性能,所以,建议先导入数据,再批量重建索引。关于索引的详细信息,参考 [索引介绍](../../3.ngql-guide/14.native-index-statements/README.md "点击前往{{nebula.name}}网站")。 ## 前提条件 在 Studio 上操作索引之前,用户必须确认以下信息: -- Studio 已经连接到 NebulaGraph 数据库。 +- Studio 已经连接到{{nebula.name}}。 - 图空间、Tag 和 Edge type 已经创建。 - 当前登录的账号拥有 GOD、ADMIN 或者 DBA 的权限。 @@ -34,7 +34,7 @@ !!! Note - 索引属性的顺序会影响 `LOOKUP` 语句的查询结果。详细信息,参考 [LOOKUP](../../3.ngql-guide/7.general-query-statements/5.lookup.md "点击前往 NebulaGraph 网站")。 + 索引属性的顺序会影响 `LOOKUP` 语句的查询结果。详细信息,参考 [LOOKUP](../../3.ngql-guide/7.general-query-statements/5.lookup.md "点击前往{{nebula.name}}网站")。 6. 完成设置后,在 **对应的 nGQL** 面板,用户能看到与上述配置等价的 nGQL 语句。 diff --git a/docs-2.0/nebula-studio/manage-schema/st-ug-crud-space.md b/docs-2.0/nebula-studio/manage-schema/st-ug-crud-space.md index 9e23278e090..ee7d60ab2e9 100644 --- a/docs-2.0/nebula-studio/manage-schema/st-ug-crud-space.md +++ b/docs-2.0/nebula-studio/manage-schema/st-ug-crud-space.md @@ -1,15 +1,15 @@ # 操作图空间 -Studio 连接到 NebulaGraph 数据库后,用户可以创建或删除图空间。用户可以使用 **控制台** 或者 **Schema** 操作图空间。本文仅说明如何使用 **Schema** 操作图空间。 +Studio 连接到{{nebula.name}}后,用户可以创建或删除图空间。用户可以使用 **控制台** 或者 **Schema** 操作图空间。本文仅说明如何使用 **Schema** 操作图空间。 ## 前提条件 操作图空间之前,用户需要确保以下信息: -- Studio 已经连接到 NebulaGraph 数据库。 +- Studio 已经连接到{{nebula.name}}。 - 当前登录的账号拥有创建或删除图空间的权限,即: - - 如果 NebulaGraph 未开启身份验证,用户以默认用户名 `user` 账号和任意密码登录。 - - 如果 NebulaGraph 已开启身份验证,用户以 `root` 账号及其密码登录。 + - 如果{{nebula.name}}未开启身份验证,用户以默认用户名 `user` 账号和任意密码登录。 + - 如果{{nebula.name}}已开启身份验证,用户以 `root` 账号及其密码登录。 ## 创建图空间 diff --git a/docs-2.0/nebula-studio/manage-schema/st-ug-crud-tag.md b/docs-2.0/nebula-studio/manage-schema/st-ug-crud-tag.md index 1c91777d7f9..df26168fb17 100644 --- a/docs-2.0/nebula-studio/manage-schema/st-ug-crud-tag.md +++ b/docs-2.0/nebula-studio/manage-schema/st-ug-crud-tag.md @@ -1,12 +1,12 @@ # 操作 Tag(点类型) -在 NebulaGraph 数据库中创建图空间后,用户需要创建 Tag(点类型)。用户可以选择使用 **控制台** 或者 **Schema** 管理功能操作 Tag。本文仅说明如何使用 **Schema** 管理功能操作 Tag。 +在{{nebula.name}}中创建图空间后,用户需要创建 Tag(点类型)。用户可以选择使用 **控制台** 或者 **Schema** 管理功能操作 Tag。本文仅说明如何使用 **Schema** 管理功能操作 Tag。 ## 前提条件 在 Studio 上操作 Tag 之前,用户必须确认以下信息: -- Studio 已经连接到 NebulaGraph 数据库。 +- Studio 已经连接到{{nebula.name}}。 - 图空间已经创建。 - 当前登录的账号拥有 GOD、ADMIN 或者 DBA 的权限。 @@ -38,7 +38,7 @@ - (可选)输入属性备注。 - 4. **设置TTL(存活时间)**(可选):Tag 未设置索引时,用户可以设置 TTL。勾选**设置TTL(存活时间)**,设置`TTL_COL`和`TTL_DURATION`(单位:秒)。详情参考 [TTL 配置](../../3.ngql-guide/8.clauses-and-options/ttl-options.md "点击前往 NebulaGraph 网站")。 + 4. **设置TTL(存活时间)**(可选):Tag 未设置索引时,用户可以设置 TTL。勾选**设置TTL(存活时间)**,设置`TTL_COL`和`TTL_DURATION`(单位:秒)。详情参考 [TTL 配置](../../3.ngql-guide/8.clauses-and-options/ttl-options.md "点击前往{{nebula.name}}网站")。 6. 完成设置后,在 **对应的nGQL语句** 面板,用户能看到与上述配置等价的 nGQL 语句。 @@ -64,9 +64,9 @@ - 如果要修改属性:在 **定义属性** 区域,找到需要修改的属性,在右侧点击 **编辑**,修改后点击 **确认**。 - 如果要删除属性:在 **定义属性** 区域,找到需要删除的属性,在右侧点击 **删除**,然后点击 **确认**。 - 如果要添加属性:在 **定义属性** 区域,点击 **+ 添加属性**,设置属性信息,点击 **确认**。详细说明参考[创建 Tag](#tag_1) 。 - - 如果要修改 TTL 信息:在 **设置 TTL** 区域,点击 **编辑**,修改后点击 **确认**。详情参考 [TTL 配置](../../3.ngql-guide/8.clauses-and-options/ttl-options.md "点击前往 NebulaGraph 网站")。 + - 如果要修改 TTL 信息:在 **设置 TTL** 区域,点击 **编辑**,修改后点击 **确认**。详情参考 [TTL 配置](../../3.ngql-guide/8.clauses-and-options/ttl-options.md "点击前往{{nebula.name}}网站")。 - 如果要删除已经配置的 TTL 信息:在 **设置 TTL** 区域,取消勾选 **设置TTL(存活时间)**,然后点击 **确定**。 - - 如果要配置 TTL 信息:在 **设置 TTL** 区域,勾选 **设置TTL(存活时间)**,设置`TTL_COL`和`TTL_DURATION`(单位:秒),点击 **确认**。详情参考 [TTL 配置](../../3.ngql-guide/8.clauses-and-options/ttl-options.md "点击前往 NebulaGraph 网站")。 + - 如果要配置 TTL 信息:在 **设置 TTL** 区域,勾选 **设置TTL(存活时间)**,设置`TTL_COL`和`TTL_DURATION`(单位:秒),点击 **确认**。详情参考 [TTL 配置](../../3.ngql-guide/8.clauses-and-options/ttl-options.md "点击前往{{nebula.name}}网站")。 !!! note diff --git a/docs-2.0/nebula-studio/quick-start/st-ug-create-schema.md b/docs-2.0/nebula-studio/quick-start/st-ug-create-schema.md index ff9ef14b07a..8740b201818 100644 --- a/docs-2.0/nebula-studio/quick-start/st-ug-create-schema.md +++ b/docs-2.0/nebula-studio/quick-start/st-ug-create-schema.md @@ -1,19 +1,19 @@ # 创建 Schema -在 NebulaGraph 中,用户必须先有 Schema,才能向其中写入点数据和边数据。本文描述如何使用 NebulaGraph 的**控制台**或 **Schema** 功能创建 Schema。 +在{{nebula.name}}中,用户必须先有 Schema,才能向其中写入点数据和边数据。本文描述如何使用{{nebula.name}}的**控制台**或 **Schema** 功能创建 Schema。 !!! Note - - 用户可以使用 nebula-console 创建 Schema。详情参见 [NebulaGraph 使用手册](../../README.md)和 [NebulaGraph 快速开始](../../2.quick-start/1.quick-start-overview.md)。 + - 用户可以使用 nebula-console 创建 Schema。详情参见 [{{nebula.name}}使用手册](../../README.md)和 [{{nebula.name}}快速开始](../../2.quick-start/1.quick-start-overview.md)。 - 用户可以使用 Schema 草图功能图形化设计 Schema。详情参见 [Schema 草图](draft.md)。 ## 前提条件 在 Studio 上创建 Schema 之前,用户需要确认以下信息: -- Studio 已经连接到 NebulaGraph 数据库。 +- Studio 已经连接到{{nebula.name}}数据库。 -- 账号拥有 GOD、ADMIN 或 DBA 权限。详细信息,参考 [NebulaGraph 内置角色](../../7.data-security/1.authentication/3.role-list.md)。 +- 账号拥有 GOD、ADMIN 或 DBA 权限。详细信息,参考 [{{nebula.name}}内置角色](../../7.data-security/1.authentication/3.role-list.md)。 - 已经规划 Schema 的要素。 diff --git a/docs-2.0/nebula-studio/quick-start/st-ug-import-data.md b/docs-2.0/nebula-studio/quick-start/st-ug-import-data.md index 3cf035a9878..f14c4c5bd02 100644 --- a/docs-2.0/nebula-studio/quick-start/st-ug-import-data.md +++ b/docs-2.0/nebula-studio/quick-start/st-ug-import-data.md @@ -6,9 +6,9 @@ 导入数据之前,需要确认以下信息: -- Studio 已经连接到 NebulaGraph 数据库。 +- Studio 已经连接到{{nebula.name}}。 -- NebulaGraph 数据库里已经创建 Schema。 +-{{nebula.name}}里已经创建 Schema。 - CSV 文件符合 Schema 要求。 @@ -58,7 +58,7 @@ 4. 完成设置后,点击 **导入** 按钮。 -5. 用户输入 NebulaGraph 账号的密码后方可导入数据。 +5. 用户输入{{nebula.name}}账号的密码后方可导入数据。 ![输入密码](https://docs-cdn.nebula-graph.com.cn/figures/st-ug-014-cn.png) 6. 导入数据后可以在 **导入数据** 页签内查看日志、下载日志、下载配置文件、删除任务等操作。 diff --git a/docs-2.0/nebula-studio/quick-start/st-ug-plan-schema.md b/docs-2.0/nebula-studio/quick-start/st-ug-plan-schema.md index 983b7904099..fb9a52798b1 100644 --- a/docs-2.0/nebula-studio/quick-start/st-ug-plan-schema.md +++ b/docs-2.0/nebula-studio/quick-start/st-ug-plan-schema.md @@ -1,6 +1,6 @@ # 规划 Schema -在使用 Studio 之前,用户需要先根据 NebulaGraph 数据库的要求规划 Schema(模式)。 +在使用 Studio 之前,用户需要先根据{{nebula.name}}的要求规划 Schema(模式)。 Schema 至少要包含以下要素: @@ -8,7 +8,7 @@ * Edge type,以及每种 Edge type 的属性。 -用户可以下载 NebulaGraph 示例数据集 [basketballplayer](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip "点击下载") ,本文将通过该示例说明如何规划 Schema。 +用户可以下载{{nebula.name}}示例数据集 [basketballplayer](https://docs-cdn.nebula-graph.com.cn/dataset/dataset.zip "点击下载") ,本文将通过该示例说明如何规划 Schema。 下表列出了 Schema 要素。 diff --git a/docs-2.0/nebula-studio/troubleshooting/st-ug-config-server-errors.md b/docs-2.0/nebula-studio/troubleshooting/st-ug-config-server-errors.md index ad63673ebf8..28f57e9b001 100644 --- a/docs-2.0/nebula-studio/troubleshooting/st-ug-config-server-errors.md +++ b/docs-2.0/nebula-studio/troubleshooting/st-ug-config-server-errors.md @@ -10,34 +10,34 @@ ### 第 1 步。确认 **Host** 字段的格式是否正确 -必须填写 NebulaGraph 图数据库 Graph 服务的 IP 地址(`graph_server_ip`)和端口。如果未做修改,端口默认为 `9669`。即使 NebulaGraph 与 Studio 都部署在当前机器上,用户也必须使用本机 IP 地址,而不能使用 `127.0.0.1`、`localhost` 或者 `0.0.0.0`。 +必须填写{{nebula.name}}图数据库 Graph 服务的 IP 地址(`graph_server_ip`)和端口。如果未做修改,端口默认为 `9669`。即使{{nebula.name}}与 Studio 都部署在当前机器上,用户也必须使用本机 IP 地址,而不能使用 `127.0.0.1`、`localhost` 或者 `0.0.0.0`。 ### 第 2 步。确认 **用户名** 和 **密码** 是否正确 -如果 NebulaGraph 没有开启身份认证,用户可以填写任意字符串登录。 +如果{{nebula.name}}没有开启身份认证,用户可以填写任意字符串登录。 如果已经开启身份认证,用户必须使用分配的账号登录。 -### 第 3 步。确认 NebulaGraph 服务是否正常 +### 第 3 步。确认{{nebula.name}}服务是否正常 -检查 NebulaGraph 服务状态。关于查看服务的操作: +检查{{nebula.name}}服务状态。关于查看服务的操作: -- 如果在 Linux 服务器上通过编译部署的 NebulaGraph,参考[查看 NebulaGraph 服务](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/deploy-nebula-graph-cluster.md "点击查看 NebulaGraph 内核文档")。 -- 如果使用 Docker Compose 部署和 RPM 部署的 NebulaGraph,参考[查看 NebulaGraph 服务状态和端口](../deploy-connect/st-ug-deploy.md "点击前往 GitHub 网站")。 +- 如果在 Linux 服务器上通过编译部署的{{nebula.name}},参考[查看{{nebula.name}}服务](../../4.deployment-and-installation/2.compile-and-install-nebula-graph/deploy-nebula-graph-cluster.md "点击查看{{nebula.name}}内核文档")。 +- 如果使用 Docker Compose 部署和 RPM 部署的{{nebula.name}},参考[查看{{nebula.name}}服务状态和端口](../deploy-connect/st-ug-deploy.md "点击前往 GitHub 网站")。 -如果 NebulaGraph 服务正常,进入第 4 步继续排查问题。否则,请重启 NebulaGraph 服务。 +如果{{nebula.name}}服务正常,进入第 4 步继续排查问题。否则,请重启{{nebula.name}}服务。 !!! Note - 如果之前使用 `docker-compose up -d` 启动 NebulaGraph,必须运行 `docker-compose down` 命令停止 NebulaGraph。 + 如果之前使用 `docker-compose up -d` 启动{{nebula.name}},必须运行 `docker-compose down` 命令停止{{nebula.name}}。 ### 第 4 步。确认 Graph 服务的网络连接是否正常 -在 Studio 机器上运行命令(例如 `telnet 9669`)确认 NebulaGraph 的 Graph 服务网络连接是否正常。 +在 Studio 机器上运行命令(例如 `telnet 9669`)确认{{nebula.name}}的 Graph 服务网络连接是否正常。 如果连接失败,则按以下要求检查: -- 如果 Studio 与 NebulaGraph 在同一台机器上,检查端口是否已暴露。 -- 如果两者不在同一台机器上,检查 NebulaGraph 服务器的网络配置,例如,防火墙、网关以及端口。 +- 如果 Studio 与{{nebula.name}}在同一台机器上,检查端口是否已暴露。 +- 如果两者不在同一台机器上,检查{{nebula.name}}服务器的网络配置,例如,防火墙、网关以及端口。 -如果按上述步骤排查后仍无法连接 NebulaGraph 服务,请前往 [NebulaGraph 官方论坛](https://discuss.nebula-graph.com.cn/ "点击前往 NebulaGraph 官方论坛")咨询。 +如果按上述步骤排查后仍无法连接{{nebula.name}}服务,请前往 [{{nebula.name}}官方论坛](https://discuss.nebula-graph.com.cn/ "点击前往{{nebula.name}}官方论坛")咨询。 diff --git a/docs-2.0/nebula-studio/troubleshooting/st-ug-connection-errors.md b/docs-2.0/nebula-studio/troubleshooting/st-ug-connection-errors.md index 8039d0b66e8..dc979e69051 100644 --- a/docs-2.0/nebula-studio/troubleshooting/st-ug-connection-errors.md +++ b/docs-2.0/nebula-studio/troubleshooting/st-ug-connection-errors.md @@ -52,4 +52,4 @@ - 如果浏览器与 Studio 在同一台机器上,检查端口是否已暴露。 - 如果两者不在同一台机器上,检查 Studio 所在机器的网络配置,例如,防火墙、网关以及端口。 -如果按上述步骤排查后仍无法访问 Studio,请前往 [NebulaGraph 官方论坛](https://discuss.nebula-graph.com.cn/ "点击前往 NebulaGraph 官方论坛")咨询。 +如果按上述步骤排查后仍无法访问 Studio,请前往 [{{nebula.name}}官方论坛](https://discuss.nebula-graph.com.cn/ "点击前往{{nebula.name}}官方论坛")咨询。 diff --git a/docs-2.0/nebula-studio/troubleshooting/st-ug-faq.md b/docs-2.0/nebula-studio/troubleshooting/st-ug-faq.md index 1e6cf6064aa..697183e2d57 100644 --- a/docs-2.0/nebula-studio/troubleshooting/st-ug-faq.md +++ b/docs-2.0/nebula-studio/troubleshooting/st-ug-faq.md @@ -4,7 +4,7 @@ 如果发现无法使用某个功能,建议按以下步骤排除问题: -1. 确认 NebulaGraph 是最新版本。如果使用 Docker Compose 部署 NebulaGraph 数据库,建议运行 `docker-compose pull && docker-compose up -d` 拉取最新的 Docker 镜像,并启动容器。 +1. 确认{{nebula.name}}是最新版本。如果使用 Docker Compose 部署{{nebula.name}}数据库,建议运行 `docker-compose pull && docker-compose up -d` 拉取最新的 Docker 镜像,并启动容器。 2. 确认 Studio 是最新版本。详细信息参考[版本更新](../../20.appendix/release-notes/studio-release-note.md)。 3. 搜索[论坛](https://discuss.nebula-graph.com.cn/)或 GitHub 的 [nebula](https://github.com/vesoft-inc/nebula) 和 [nebula-web-docker](https://github.com/vesoft-inc/nebula-web-docker/issues) 项目,确认是否已经有类似的问题。 4. 如果上述操作均未解决问题,欢迎在论坛上提交问题。 diff --git a/docs-2.0/reuse/source_connect-to-nebula-graph.md b/docs-2.0/reuse/source_connect-to-nebula-graph.md index 9884a1bf20e..8c0334b3779 100644 --- a/docs-2.0/reuse/source_connect-to-nebula-graph.md +++ b/docs-2.0/reuse/source_connect-to-nebula-graph.md @@ -4,21 +4,21 @@ !!! caution - 首次连接到 NebulaGraph 后,必须先[注册 Storage 服务](https://docs.nebula-graph.com.cn/{{nebula.release}}/2.quick-start/3.quick-start-on-premise/3.1add-storage-hosts/),才能正常查询数据。 + 首次连接到{{nebula.name}}后,必须先[注册 Storage 服务](https://docs.nebula-graph.com.cn/{{nebula.release}}/2.quick-start/3.quick-start-on-premise/3.1add-storage-hosts/),才能正常查询数据。 -NebulaGraph 支持多种类型的客户端,包括命令行客户端、可视化界面客户端和流行编程语言客户端。详情参见[客户端列表](https://docs.nebula-graph.com.cn/{{nebula.release}}/14.client/1.nebula-client/)。 +{{nebula.name}}支持多种类型的客户端,包括命令行客户端、可视化界面客户端和流行编程语言客户端。详情参见[客户端列表](https://docs.nebula-graph.com.cn/{{nebula.release}}/14.client/1.nebula-client/)。 ## 前提条件 -- NebulaGraph 服务已[启动](https://docs.nebula-graph.com.cn/{{nebula.release}}/4.deployment-and-installation/manage-service/)。 +-{{nebula.name}}服务已[启动](https://docs.nebula-graph.com.cn/{{nebula.release}}/4.deployment-and-installation/manage-service/)。 -- 运行 Nebula Console 的机器和运行 NebulaGraph 的服务器网络互通。 +- 运行 Nebula Console 的机器和运行{{nebula.name}}的服务器网络互通。 -- Nebula Console 的版本兼容 NebulaGraph 的版本。 +- Nebula Console 的版本兼容{{nebula.name}}的版本。 !!! note - 版本相同的 Nebula Console 和 NebulaGraph 兼容程度最高,版本不同的 Nebula Console 连接 NebulaGraph 时,可能会有兼容问题,或者无法连接并报错`incompatible version between client and server`。 + 版本相同的 Nebula Console 和{{nebula.name}}兼容程度最高,版本不同的 Nebula Console 连接{{nebula.name}}时,可能会有兼容问题,或者无法连接并报错`incompatible version between client and server`。 ## 操作步骤 @@ -49,7 +49,7 @@ NebulaGraph 支持多种类型的客户端,包括命令行客户端、可视 5. 在命令行界面中,切换工作目录至 nebula-console 文件所在目录。 -6. 执行如下命令连接 NebulaGraph。 +6. 执行如下命令连接{{nebula.name}}。 - Linux 或 macOS @@ -70,14 +70,14 @@ NebulaGraph 支持多种类型的客户端,包括命令行客户端、可视 | 参数 | 说明 | | - | - | | `-h/-help` | 显示帮助菜单。 | - | `-addr/-address` | 设置要连接的 Graph 服务的 IP 地址。默认地址为 127.0.0.1。| + | `-addr/-address` | 设置要连接的 Graph 服务的 IP 地址。默认地址为 127.0.0.1。| | `-P/-port` | 设置要连接的 Graph 服务的端口。默认端口为 9669。| - | `-u/-user` | 设置 NebulaGraph 账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为`root`)。 | + | `-u/-user` | 设置{{nebula.name}}账号的用户名。未启用身份认证时,可以使用任意已存在的用户名(默认为`root`)。 | | `-p/-password` | 设置用户名对应的密码。未启用身份认证时,密码可以填写任意字符。 | | `-t/-timeout` | 设置整数类型的连接超时时间。单位为毫秒,默认值为 120。 | | `-e/-eval` | 设置字符串类型的 nGQL 语句。连接成功后会执行一次该语句并返回结果,然后自动断开连接。 | | `-f/-file` | 设置存储 nGQL 语句的文件的路径。连接成功后会执行该文件内的 nGQL 语句并返回结果,执行完毕后自动断开连接。 | - | `-enable_ssl` | 连接 NebulaGraph 时使用 SSL 加密。 | + | `-enable_ssl` | 连接{{nebula.name}}时使用 SSL 加密。 | | `-ssl_root_ca_path` | 指定 CA 证书的存储路径。 | | `-ssl_cert_path` | 指定 CRT 证书的存储路径。 | | `-ssl_private_key_path` | 指定私钥文件的存储路径。 | diff --git a/docs-2.0/reuse/source_create_instance_aliyun.md b/docs-2.0/reuse/source_create_instance_aliyun.md index 7af8ddfe77c..29c9bd861a4 100644 --- a/docs-2.0/reuse/source_create_instance_aliyun.md +++ b/docs-2.0/reuse/source_create_instance_aliyun.md @@ -18,15 +18,15 @@ NebulaGraph Cloud 阿里云版支持免费试用和付费使用,二者的详 | 云资源归属 | 阿里云官方账号 | 用户账号 | | 云资源费用 | **阿里云承担** | 用户承担 | | 云资源使用时长 | 30 天(不可续期) | 用户创建实例时选择 | -| NebulaGraph 许可证费用 | **试用期内免费** | 用户承担 | -| NebulaGraph 服务许可证有效期 | 30 天 | 用户创建实例时选择 | +|{{nebula.name}}许可证费用 | **试用期内免费** | 用户承担 | +|{{nebula.name}}服务许可证有效期 | 30 天 | 用户创建实例时选择 | | 许可证过期后数据是否保留 | 否(因云资源会同时到期) | 是 | | 云资源到期后数据是否保留 | 否 | 否 | | 数据盘快照费用 | **阿里云承担** | 用户承担(可关闭功能) | ## 数据备份 -在创建服务实例时,系统会默认开启数据盘自动快照备份,用于周期性备份 NebulaGraph 数据。 +在创建服务实例时,系统会默认开启数据盘自动快照备份,用于周期性备份{{nebula.name}}数据。 创建付费版服务实例前需[开通快照](https://help.aliyun.com/document_detail/108381.html)。免费试用实例使用的是阿里云官方账号下的资源,已开通快照,无需用户手动开通。 @@ -42,9 +42,9 @@ NebulaGraph Cloud 阿里云版支持如下套餐版本。 | 套餐版本 | 说明 | | - | - | -| 基础版 | 将所有 NebulaGraph 服务节点部署在 1 台 ECS 服务器上。 | -| 标准版 | 将 Graph 服务和 Storage 服务分别部署在不同的 ECS 服务器上,每个服务都是单节点(1 台 ECS)。将 Explorer 等生态工具混合部署在 1 台 ECS 服务器上。 | -| 高可用版 | 将 Graph 服务和 Storage 服务分别部署在不同的 ECS 服务器上,每个服务都包含 3 节点(3 台 ECS)。将 Explorer 等生态工具混合部署在 1 台 ECS 服务器上。 | +| 基础版 | 将所有{{nebula.name}}服务节点部署在 1 台 ECS 服务器上。 | +| 标准版 | 将 Graph 服务和 Storage 服务分别部署在不同的 ECS 服务器上,每个服务都是单节点(1 台 ECS)。将{{explorer.name}}等生态工具混合部署在 1 台 ECS 服务器上。 | +| 高可用版 | 将 Graph 服务和 Storage 服务分别部署在不同的 ECS 服务器上,每个服务都包含 3 节点(3 台 ECS)。将{{explorer.name}}等生态工具混合部署在 1 台 ECS 服务器上。 | 付费版和免费试用版服务实例支持的套餐版本有所不同,详情参见创建实例页面。 @@ -52,9 +52,9 @@ NebulaGraph Cloud 阿里云版支持如下套餐版本。 1. 登录[阿里云控制台](https://home.console.aliyun.com/home/dashboard/ProductAndService)。 -2. 打开云市场的 [NebulaGraph 产品页](https://market.aliyun.com/products/56024006/cmgj00059955.html?#sku=yuncode5395500004)。 +2. 打开云市场的 [{{nebula.name}}产品页](https://market.aliyun.com/products/56024006/cmgj00059955.html?#sku=yuncode5395500004)。 -3. 选择**套餐版本**和**购买时长**(即 NebulaGraph 服务的许可证有效期),并单击**立即购买**。 +3. 选择**套餐版本**和**购买时长**(即{{nebula.name}}服务的许可证有效期),并单击**立即购买**。 !!! caution @@ -64,7 +64,7 @@ NebulaGraph Cloud 阿里云版支持如下套餐版本。 !!! note - 改变模板会改变之前选择的套餐版本,软件费用(NebulaGraph 许可证费用)和创建服务实例需要的资源也会改变。 + 改变模板会改变之前选择的套餐版本,软件费用({{nebula.name}}许可证费用)和创建服务实例需要的资源也会改变。 5. (可选)设置**服务实例名称**。默认值为服务实例 ID。 @@ -76,7 +76,7 @@ NebulaGraph Cloud 阿里云版支持如下套餐版本。 - **包年包月**:先付费后使用。详情参见[包年包月](https://help.aliyun.com/document_detail/56220.html)。选择包年包月模式需要指定**购买时长周期**和**购买时长**。**购买时长周期**当前仅支持 **Month**,即按月购买。 -8. 在 **NebulaGraph 配置**区域,完成数据盘和 ECS 服务器密码设置。 +8. 在 **{{nebula.name}}配置**区域,完成数据盘和 ECS 服务器密码设置。 9. 在**基础设施配置**区域,完成以下设置。 @@ -119,9 +119,9 @@ NebulaGraph Cloud 阿里云版支持如下套餐版本。 1. 登录阿里云计算巢[推荐服务](http://c.nxw.so/bC0C0 "https://computenest.console.aliyun.com/user/cn-hangzhou/recommendService")页面,搜索 **NebulaGraph**。 -2. 在 **NebulaGraph 集群版**卡片上,单击**免费试用**。 +2. 在 **{{nebula.name}}集群版**卡片上,单击**免费试用**。 -3. 系统会为首次创建 NebulaGraph 服务实例的用户弹出申请对话框。在**申请权限**对话框中填写申请人信息。带有红色星号(*)的为必填项。 +3. 系统会为首次创建{{nebula.name}}服务实例的用户弹出申请对话框。在**申请权限**对话框中填写申请人信息。带有红色星号(*)的为必填项。 !!! note @@ -131,7 +131,7 @@ NebulaGraph Cloud 阿里云版支持如下套餐版本。 5. 选择要创建实例的**地域**。 -6. 在 **NebulaGraph 配置**区域,完成数据盘和 ECS 服务器密码设置。 +6. 在 **{{nebula.name}}配置**区域,完成数据盘和 ECS 服务器密码设置。 7. 在**基础设施配置**区域,选择**交换机可用区**。 @@ -155,4 +155,4 @@ Q:服务实例的状态显示为**部署失败**怎么处理? 1. 如果使用 RAM 账号创建的实例,确认为该账号授予了本文前提条件中指定的权限。 2. 如果权限符合要求,[删除](https://help.aliyun.com/document_detail/290837.html)创建失败的实例,尝试重新创建。 -3. 如果仍然创建失败,到 [NebulaGraph 论坛](https://discuss.nebula-graph.com.cn/)寻求帮助。 +3. 如果仍然创建失败,到 [{{nebula.name}}论坛](https://discuss.nebula-graph.com.cn/)寻求帮助。 diff --git a/docs-2.0/reuse/source_install-nebula-graph-by-rpm-or-deb.md b/docs-2.0/reuse/source_install-nebula-graph-by-rpm-or-deb.md index 795a6e5c35c..4be7a0c9f46 100644 --- a/docs-2.0/reuse/source_install-nebula-graph-by-rpm-or-deb.md +++ b/docs-2.0/reuse/source_install-nebula-graph-by-rpm-or-deb.md @@ -1,8 +1,8 @@ -RPM 和 DEB 是 Linux 系统下常见的两种安装包格式,本文介绍如何使用 RPM 或 DEB 文件在一台机器上快速安装 NebulaGraph。 +RPM 和 DEB 是 Linux 系统下常见的两种安装包格式,本文介绍如何使用 RPM 或 DEB 文件在一台机器上快速安装{{nebula.name}}。 !!! note - 部署 NebulaGraph 集群的方式参见[使用 RPM/DEB 包部署集群](https://docs.nebula-graph.com.cn/{{nebula.release}}/2.quick-start/3.quick-start-on-premise/3.1add-storage-hosts/)。 + 部署{{nebula.name}}集群的方式参见[使用 RPM/DEB 包部署集群](https://docs.nebula-graph.com.cn/{{nebula.release}}/2.quick-start/3.quick-start-on-premise/3.1add-storage-hosts/)。 {{ ent.ent_begin }} @@ -20,9 +20,9 @@ RPM 和 DEB 是 Linux 系统下常见的两种安装包格式,本文介绍如 !!! note - - 当前仅支持在 Linux 系统下安装 NebulaGraph,且仅支持 CentOS 7.x、CentOS 8.x、Ubuntu 16.04、Ubuntu 18.04、Ubuntu 20.04 操作系统。 + - 当前仅支持在 Linux 系统下安装{{nebula.name}},且仅支持 CentOS 7.x、CentOS 8.x、Ubuntu 16.04、Ubuntu 18.04、Ubuntu 20.04 操作系统。 - - 如果用户使用的是国产化的 Linux 操作系统,请[安装企业版 NebulaGraph](https://www.nebula-graph.com.cn/contact)。 + - 如果用户使用的是国产化的 Linux 操作系统,请[安装企业版{{nebula.name}}](https://www.nebula-graph.com.cn/contact)。 ### 阿里云 OSS 下载 @@ -99,29 +99,7 @@ RPM 和 DEB 是 Linux 系统下常见的两种安装包格式,本文介绍如 wget https://oss-cdn.nebula-graph.com.cn/package/nightly/2021.11.24/nebula-graph-2021.11.24-nightly.ubuntu1804.amd64.deb.sha256sum.txt ``` - - -## 安装 NebulaGraph +## 安装{{nebula.name}} - 安装 RPM 包 @@ -129,7 +107,7 @@ RPM 和 DEB 是 Linux 系统下常见的两种安装包格式,本文介绍如 $ sudo rpm -ivh --prefix= ``` - `--prefix`为可选项,用于指定安装路径。如不设置,系统会将 NebulaGraph 安装到默认路径`/usr/local/nebula/`。 + `--prefix`为可选项,用于指定安装路径。如不设置,系统会将{{nebula.name}}安装到默认路径`/usr/local/nebula/`。 例如,要在默认路径下安装{{nebula.release}}版本的 RPM 包,运行如下命令: @@ -144,7 +122,7 @@ RPM 和 DEB 是 Linux 系统下常见的两种安装包格式,本文介绍如 ``` !!! note - 使用 DEB 包安装 NebulaGraph 时不支持自定义安装路径。默认安装路径为`/usr/local/nebula/`。 + 使用 DEB 包安装{{nebula.name}}时不支持自定义安装路径。默认安装路径为`/usr/local/nebula/`。 例如安装{{nebula.release}}版本的 DEB 包: @@ -159,5 +137,5 @@ RPM 和 DEB 是 Linux 系统下常见的两种安装包格式,本文介绍如 {{ ent.ent_end }} -- [启动 NebulaGraph](https://docs.nebula-graph.com.cn/{{nebula.release}}/2.quick-start/3.quick-start-on-premise/5.start-stop-service/) -- [连接 NebulaGraph](https://docs.nebula-graph.com.cn/{{nebula.release}}/2.quick-start/3.quick-start-on-premise/3.connect-to-nebula-graph/) +- [启动{{nebula.name}}](https://docs.nebula-graph.com.cn/{{nebula.release}}/2.quick-start/3.quick-start-on-premise/5.start-stop-service/) +- [连接{{nebula.name}}](https://docs.nebula-graph.com.cn/{{nebula.release}}/2.quick-start/3.quick-start-on-premise/3.connect-to-nebula-graph/) diff --git a/docs-2.0/reuse/source_manage-service.md b/docs-2.0/reuse/source_manage-service.md index 86cac43c224..a308b5442c9 100644 --- a/docs-2.0/reuse/source_manage-service.md +++ b/docs-2.0/reuse/source_manage-service.md @@ -1,4 +1,4 @@ -NebulaGraph 支持通过脚本管理服务。 +{{nebula.name}}支持通过脚本管理服务。 {{ ent.ent_begin }} @@ -45,13 +45,13 @@ $ sudo /usr/local/nebula/scripts/nebula.service {{ ent.ent_begin }} ## 使用 systemd 管理服务 -为方便使用,NebulaGraph 企业版支持用 systemd 管理服务,通过`systemctl`启动、停止、重启和查看服务。 +为方便使用,{{nebula.name}}企业版支持用 systemd 管理服务,通过`systemctl`启动、停止、重启和查看服务。 !!! note - - 安装 NebulaGraph 企业版后,systemd 所需的`.service`文件在安装目录的`etc/unit`目录内,使用 RPM/DEB 包安装的 NebulaGraph,会自动将这些`.service`文件放入`/usr/lib/systemd/system`目录内,并且`ExecStart`也会根据指定的 NebulaGraph 安装路径进行生成,因此可以直接使用`systemctl`命令。 + - 安装{{nebula.name}}企业版后,systemd 所需的`.service`文件在安装目录的`etc/unit`目录内,使用 RPM/DEB 包安装的 NebulaGraph,会自动将这些`.service`文件放入`/usr/lib/systemd/system`目录内,并且`ExecStart`也会根据指定的{{nebula.name}}安装路径进行生成,因此可以直接使用`systemctl`命令。 - - 对于使用企业版 Dashboard 安装的企业版 NebulaGraph,不支持使用`systemctl`管理服务。 + - 对于使用{{dashboard_ent.name}}安装的{{nebula.name}},不支持使用`systemctl`管理服务。 - 对于其他方式安装的企业版 NebulaGraph,需要用户手动将`.service`文件移动到`/usr/lib/systemd/system`目录内,并修改`.service`文件内的`ExecStart`的文件路径,才可以正常使用`systemctl`命令。 @@ -74,7 +74,7 @@ $ systemctl +- [连接{{nebula.name}}](https://docs.nebula-graph.com.cn/{{nebula.release}}/2.quick-start/3.quick-start-on-premise/3.connect-to-nebula-graph/) diff --git a/docs-2.0/reuse/source_ngql_for_quick_start.md b/docs-2.0/reuse/source_ngql_for_quick_start.md index 92e482d8750..3bf4c953131 100644 --- a/docs-2.0/reuse/source_ngql_for_quick_start.md +++ b/docs-2.0/reuse/source_ngql_for_quick_start.md @@ -2,11 +2,11 @@ ### 图空间和 Schema -一个 NebulaGraph 实例由一个或多个图空间组成。每个图空间都是物理隔离的,用户可以在同一个实例中使用不同的图空间存储不同的数据集。 +一个{{nebula.name}}实例由一个或多个图空间组成。每个图空间都是物理隔离的,用户可以在同一个实例中使用不同的图空间存储不同的数据集。 -![NebulaGraph and graph spaces](https://docs-cdn.nebula-graph.com.cn/docs-2.0/2.quick-start/nebula-graph-instance-and-graph-spaces.png) +![{{nebula.name}} and graph spaces](https://docs-cdn.nebula-graph.com.cn/docs-2.0/2.quick-start/nebula-graph-instance-and-graph-spaces.png) -为了在图空间中插入数据,需要为图数据库定义一个 Schema。NebulaGraph 的 Schema 是由如下几部分组成。 +为了在图空间中插入数据,需要为图数据库定义一个 Schema。{{nebula.name}}的 Schema 是由如下几部分组成。 | 组成部分 | 说明| | :--- | :--- | @@ -25,7 +25,7 @@ !!! caution - NebulaGraph 中执行如下创建和修改操作,是异步实现的。要在**下一个**心跳周期之后才能生效,否则访问会报错。为确保数据同步,后续操作能顺利进行,请等待 2 个心跳周期(20 秒)。 + 在{{nebula.name}}中,下列创建和修改操作是异步实现的。要在**下一个**心跳周期之后才能生效,否则访问会报错。为确保数据同步,后续操作能顺利进行,请等待 2 个心跳周期(20 秒)。 - `CREATE SPACE` - `CREATE TAG` @@ -230,7 +230,7 @@ nebula> CREATE EDGE serve(start_year int, end_year int); - [LOOKUP](https://docs.nebula-graph.com.cn/{{nebula.release}}/3.ngql-guide/7.general-query-statements/5.lookup/) 语句是基于[索引](#_12)的,和`WHERE`子句一起使用,查找符合特定条件的数据。 -- [MATCH](https://docs.nebula-graph.com.cn/{{nebula.release}}/3.ngql-guide/7.general-query-statements/2.match/) 语句是查询图数据最常用的,可以灵活的描述各种图模式,但是它依赖[索引](#_12)去匹配 NebulaGraph 中的数据模型,性能也还需要调优。 +- [MATCH](https://docs.nebula-graph.com.cn/{{nebula.release}}/3.ngql-guide/7.general-query-statements/2.match/) 语句是查询图数据最常用的,可以灵活的描述各种图模式,但是它依赖[索引](#_12)去匹配{{nebula.name}}中的数据模型,性能也还需要调优。 ### nGQL 语法 diff --git a/docs-2.0/spark-connector/reader/sc-ug-reader-example.md b/docs-2.0/spark-connector/reader/sc-ug-reader-example.md deleted file mode 100644 index 1daee646279..00000000000 --- a/docs-2.0/spark-connector/reader/sc-ug-reader-example.md +++ /dev/null @@ -1,134 +0,0 @@ -# NebulaGraph Spark Connector Reader 应用示例 - -本文以一个示例说明如何使用 NebulaGraph Spark Connector Reader 读取 NebulaGraph 的点和边数据。 - -## 前提条件 - -使用 NebulaGraph Spark Connector Reader 前,用户需要确认以下信息: - -- 机器上已经安装了以下软件: - - Apache Spark™ 2.3.0 及更高版本 - - Scala - - Java:1.8 - -- 已经成功编译 NebulaGraph Spark Connector Reader,并已经将 `nebula-spark-1.x.y.jar` 复制到本地 Maven 库。详细信息参考[编译 NebulaGraph Spark Connector](../sc-ug-compile.md) - -- 已经获取 NebulaGraph 数据库的以下信息: - - 图空间名称和分区数量(如果创建图空间时未设置分区数量,则默认使用 100) - - Tag 和 Edge type 的名称以及属性 - - Meta 服务所在机器的 IP 地址及端口号 - -## 操作步骤 - -参考以下步骤使用 NebulaGraph Spark Connector Reader: - -1. 在 Maven 项目的 `pom.xml` 文件中加入 `nebula-spark` 依赖。 - - ```xml - - com.vesoft - nebula-spark - 1.x.y - - ``` - - !!! Note - - `` 建议配置为最新发布的 NebulaGraph Java Client 版本号。用户可以在 [nebula-java 仓库的 Releases 页面](https://github.com/vesoft-inc/nebula-java/releases "点击前往 GitHub 网站") 查看最新的 v1.x 版本。 - -1. 构建 `SparkSession` 类。这是 Spark SQL 的编码入口。 - - ``` - val sparkConf = new SparkConf - sparkConf - .set("spark.serializer", "org.apache.spark.serializer.KryoSerializer") - .registerKryoClasses(Array[Class[_]](classOf[TCompactProtocol])) - val sparkSession = SparkSession - .builder() - .config(sparkConf) - .master("local") - .getOrCreate() - ``` - - 其中,关于 `.master()` 的设置,参考 [Spark 配置的 Master URLs](https://spark.apache.org/docs/latest/submitting-applications.html#master-urls "点击前往 Spark 文档中心")。 - -2. 按以下说明修改配置,利用 Spark 读取 NebulaGraph 的点或者边数据,得到 DataFrame。 - - ```shell - // 读取 NebulaGraph 的点数据 - val vertexDataset: Dataset[Row] = - sparkSession.read - .nebula("127.0.0.1:45500", "spaceName", "100") - .loadVerticesToDF("tag", "*") - vertexDataset.show() - - // 读取 NebulaGraph 的边数据 - val edgeDataset: Dataset[Row] = - sparkSession.read - .nebula("127.0.0.1:45500", "spaceName", "100") - .loadEdgesToDF("edge", "field1,field2") - edgeDataset.show() - ``` - - 其中配置说明如下: - - - `nebula(, , )`,所有参数均为必需参数。 - - - ``:配置为 NebulaGraph 数据库 metad 服务所在的服务器地址及端口,如果有多个 metad 服务复本,则配置为多个地址,以英文逗号分隔,例如 `"ip1:45500,ip2:45500"`。默认端口号为 45500。 - - ``: 配置为 NebulaGraph 的图空间名称。 - - ``:设置 Spark 的分区数量。建议设置为 NebulaGraph 中创建图空间时指定的 `partitionNum`,以确保一个 Spark 分区读取 NebulaGraph 图空间中一个分区的数据。如果在创建 NebulaGraph 图空间时未指定分区数量,则使用默认值 100。 - - - `loadVerticesToDF(, )`,所有参数均为必需参数。 - - - ``:配置为指定 NebulaGraph 图空间中某个 Tag 的名称。 - - ``:配置为指定 Tag 的属性名称,不允许为空。如果一个 Tag 有多个属性,则以英文逗号分隔。如果指定了属性名称,表示只读取指定的属性。如果配置为 `*`,表示读取指定 Tag 的所有属性。 - - - `loadEdgesToDF(, )`,所有参数均为必需参数。 - - - ``:配置为指定 NebulaGraph 图空间中某个 Edge type 的名称。 - - ``:配置为指定 Edge type 的属性名称,不允许为空。如果一个 Edge type 有多个属性,则以英文逗号分隔。如果指定了属性名称,表示只读取指定的属性,如果配置为 `*` 表示读取指定 Edge type 的所有属性。 - -以下为读取结果示例。 - -- 读取点数据 - - ``` - 20/10/27 08:51:04 INFO DAGScheduler: Job 0 finished: show at Main.scala:61, took 1.873141 s - +---------+----------+---+ - |_vertexId| name|age| - +---------+----------+---+ - | 0| Tom55322| 19| - | 84541440|Tom4152378| 27| - | 67829760| Tom24006| 10| - | 51118080| Tom84165| 62| - | 34406400| Tom17308| 1| - | 17694720| Tom73089| 56| - | 983040| Tom82311| 95| - | 68812800| Tom61046| 93| - | 52101120| Tom52116| 45| - | 18677760| Tom4773| 18| - | 1966080| Tom25979| 20| - | 69795840| Tom92575| 9| - | 53084160| Tom48645| 29| - | 36372480| Tom20594| 86| - | 19660800| Tom27071| 32| - | 2949120| Tom630| 61| - | 70778880| Tom82319| 78| - | 37355520| Tom38207| 31| - | 20643840| Tom56158| 73| - | 3932160| Tom36933| 59| - +---------+----------+---+ - only showing top 20 rows - ``` - -- 读取边数据 - - ``` - 20/10/27 08:56:57 INFO DAGScheduler: Job 4 finished: show at Main.scala:71, took 0.085975 s - +------+------+----------+--------+ - |_srcId|_dstId|start_year|end_year| - +------+------+----------+--------+ - | 101| 201| 2002| 2020| - | 102| 201| 2002| 2015| - +------+------+----------+--------+ - ``` diff --git a/docs-2.0/spark-connector/reader/sc-ug-what-is-reader.md b/docs-2.0/spark-connector/reader/sc-ug-what-is-reader.md deleted file mode 100644 index 9d5bd1749ec..00000000000 --- a/docs-2.0/spark-connector/reader/sc-ug-what-is-reader.md +++ /dev/null @@ -1,49 +0,0 @@ -# 什么是 NebulaGraph Spark Connector Reader - -NebulaGraph Spark Connector Reader 是 NebulaGraph Spark Connector 的组成部分,提供了 Spark SQL 接口,用户可以使用 Spark SQL 接口编程读取 NebulaGraph 图数据,单次读取一个 Tag 或 Edge type 的数据,并将读取的结果组装成 Spark 的 DataFrame。读出的 DataFrame 可以通过 NebulaGraph Spark Connector Writer 写入 NebulaGraph 数据库或实现不同图空间之间的数据迁移。 - -## NebulaGraph Spark Connector Reader 实现原理 - -Spark SQL 是 Spark 中用于处理结构化数据的一个编程模块。它提供了一个称为 DataFrame 的编程抽象,并且可以充当分布式 SQL 查询引擎。Spark SQL 允许用户自定义数据源,支持对外部数据源进行扩展。通过 Spark SQL 读取到的数据格式是以命名列方式组织的分布式数据集 DataFrame,而且 Spark SQL 提供了众多 API 方便用户对 DataFrame 进行计算和转换,能对多种数据源使用 DataFrame 接口。 - -### 接口 - -Spark 使用 `org.apache.spark.sql` 调用外部数据源包。以下为 Spark SQL 提供的扩展数据源相关的接口。 - -- 基本接口,包括: - - - `BaseRelation`: 表示具有已知 Schema 的元组的集合。所有继承了 `BaseRelation` 的子类都必须生成 `StructType` 格式的 Schema。换句话说,`BaseRelation` 定义了从数据源中读取的数据在 Spark SQL 的 DataFrame 中存储的数据格式。 - - - `RelationProvider`: 获取参数列表,根据给定的参数返回一个新的 `BaseRelation`。 - - - `DataSourceRegister`: “注册数据源”的简称,在使用数据源时不用写数据源的全限定类名,而只需要写自定义的 `shortName` 即可。 - -- Providers 接口,包括: - - - `RelationProvider`:从指定数据源中生成自定义的 `relation`。`RelationProvider#createRelation` 会基于给定的参数生成新的 `relation`。 - - - `SchemaRelationProvider`:可以基于给定的参数和给定的 Schema 信息生成新的 `relation`。 - -- RDD 接口,包括: - - - `RDD[InternalRow]`: 从数据源中扫描出来后,需要构造成 `RDD[Row]`。 - -NebulaGraph Spark Connector Reader 根据 NebulaGraph 的数据源自定义了上述部分方法,从而实现自定义 Spark 外部数据源。 - -### 实现类图 - -在 NebulaGraph Spark Connector Reader 中,作为 Spark SQL 的外部数据源,NebulaGraph 通过 `sparkSession.read` 的形式读取数据。该功能实现的类图展示如下图所示。 - -![NebulaGraph Spark Connector Reader 实现类图](https://docs-cdn.nebula-graph.com.cn/nebula-java-tools-docs/sc-ug-001.png "NebulaGraph Spark Connector Reader 实现类图") - -处理流程如下: - -1. 定义数据源 `NebulaRelationProvider`:继承 `RelationProvider` 自定义 `relation`,继承 `DataSourceRegister` 注册外部数据源。 - -2. 定义 `NebulaRelation`,实现 NebulaGraph 图数据 Schema 的获取和数据转换方法。在 `NebulaRelation#getSchema` 方法中连接 NebulaGraph 的 Meta 服务获取配置的返回字段对应的 Schema 信息。 - -3. 定义 `NebulaRDD` 读取 NebulaGraph 图数据。其中,`NebulaRDD#compute` 方法定义了如何读取 NebulaGraph 图数据,主要涉及到扫描 NebulaGraph 图数据、将读到的 NebulaGraph 的行(Row)数据转换为 Spark 的 `InternalRow` 数据,以 `InternalRow` 组成 RDD 的一行,其中每一个 `InternalRow` 表示 NebulaGraph 中的一行数据,最终通过分区迭代的形式读取 NebulaGraph 所有数据并组装成最终的 DataFrame 结果数据。 - -## 应用示例 - -参考 [NebulaGraph Spark Connector Reader 应用示例](sc-ug-reader-example.md)。 diff --git a/docs-2.0/spark-connector/sc-ug-compile.md b/docs-2.0/spark-connector/sc-ug-compile.md deleted file mode 100644 index aabb49a8c11..00000000000 --- a/docs-2.0/spark-connector/sc-ug-compile.md +++ /dev/null @@ -1,45 +0,0 @@ -# 编译 NebulaGraph Spark Connector - -按以下步骤编译 NebulaGraph Spark Connector v1.x: - -1. 克隆 `nebula-java` 源代码。 - - ```bash - git clone -b v1.0 https://github.com/vesoft-inc/nebula-java.git - ``` - -2. 切换到 `nebula-java` 目录,并打包 NebulaGraph Java 1.x。 - - ```bash - cd nebula-java - mvn clean install -Dgpg.skip -Dmaven.javadoc.skip=true -Dmaven.test.skip=true - ``` - -3. 进入 `tools/nebula-spark` 目录,并编译 NebulaGraph Spark Connector v1.x。 - - ```bash - cd nebula-java/tools/nebula-spark - mvn clean package -Dgpg.skip -Dmaven.javadoc.skip=true -Dmaven.test.skip=true - ``` - -编译成功后,用户可以在当前目录里看到如下目录结构。在 `target` 目录下,用户可以看到 `nebula-spark-1.x.y.jar` 文件。将这个文件复制到本地 Maven 库以下路径 `com/vesoft/nebula-spark/`。 - -```text -├── README.md -├── pom.xml -├── src -│ └── main -└── target - ├── classes - ├── classes.-1146581144.timestamp - ├── generated-sources - ├── maven-archiver - ├── maven-status - ├── nebula-spark-1.x.y-tests.jar - ├── nebula-spark-1.x.y.jar - └── original-nebula-spark-1.x.y.jar -``` - -!!! Note - - JAR 文件版本号会因 NebulaGraph Java Client 的发布版本而异。用户可以在 [nebula-java 仓库的 Releases 页面](https://github.com/vesoft-inc/nebula-java/releases "点击前往 GitHub 网站") 查看最新的 v1.x 版本。 diff --git a/docs-2.0/spark-connector/sc-ug-limitations.md b/docs-2.0/spark-connector/sc-ug-limitations.md deleted file mode 100644 index 5aa307a130e..00000000000 --- a/docs-2.0/spark-connector/sc-ug-limitations.md +++ /dev/null @@ -1,22 +0,0 @@ -# 使用限制 - -本文描述 NebulaGraph Spark Connector 的使用限制。 - -## NebulaGraph 版本 - -NebulaGraph Spark Connector 目前仅支持 NebulaGraph v1.0.1 和 v1.1.0,不支持 NebulaGraph v2.0。 - -## 软件依赖 - -NebulaGraph Spark Connector 默认依赖以下软件: - -- Apache Spark™ 2.3.0 及更高版本 -- Scala -- Java:1.8 - -## 功能限制 - -目前 NebulaGraph Spark Connector 在使用时有以下功能限制: - -- Reader:目前无法用于读取 NebulaGraph 中属性为空的点和边数据。 -- Writer:用于向 NebulaGraph 写入边数据时,作为起点与终点 VID 的数据必须同时为整数型或非数值型。 diff --git a/docs-2.0/spark-connector/sc-ug-toc.md b/docs-2.0/spark-connector/sc-ug-toc.md deleted file mode 100644 index 35b30705ab8..00000000000 --- a/docs-2.0/spark-connector/sc-ug-toc.md +++ /dev/null @@ -1,11 +0,0 @@ -# NebulaGraph Spark Connector 用户手册 - -- [什么是 NebulaGraph Spark Connector](sc-ug-what-is-spark-connector.md) -- [编译 NebulaGraph Spark Connector](sc-ug-compile.md) -- [使用限制](sc-ug-limitations.md) -- NebulaGraph Spark Connector Reader - - [什么是 NebulaGraph Spark Connector Reader](reader/sc-ug-what-is-reader.md) - - [使用示例](reader/sc-ug-reader-example.md) -- NebulaGraph Spark Connector Writer - - [什么是 NebulaGraph Spark Connector Writer](writer/sc-ug-what-is-writer.md) - - [使用示例](writer/sc-ug-writer-example.md) diff --git a/docs-2.0/spark-connector/sc-ug-what-is-spark-connector.md b/docs-2.0/spark-connector/sc-ug-what-is-spark-connector.md deleted file mode 100644 index bacafe9f906..00000000000 --- a/docs-2.0/spark-connector/sc-ug-what-is-spark-connector.md +++ /dev/null @@ -1,13 +0,0 @@ -# 什么是 NebulaGraph Spark Connector - -[NebulaGraph Spark Connector](https://github.com/vesoft-inc/nebula-java/tree/v1.0/tools "点击前往 GitHub")(在本手册中简称为 Spark Connector)是一个 Spark 连接器,提供了通过 Spark 标准形式读写 NebulaGraph 数据库的能力,由以下两部分组成: - -- Reader:提供了一个 Spark SQL 接口,用户可以使用 Spark SQL 接口编程读取 NebulaGraph 图数据,单次读取一个点或 Edge type 的数据,并将读取的结果组装成 Spark 的 DataFrame。参考 [NebulaGraph Spark Connector Reader](reader/sc-ug-what-is-reader.md)。 - -- Writer:提供了一个 Spark SQL 接口,用户可以使用 Spark SQL 接口编程将 DataFrame 格式的数据逐条或批量写入 NebulaGraph。参考 [NebulaGraph Spark Connector Writer](writer/sc-ug-what-is-writer.md)。 - -用户可以将 NebulaGraph Spark Connector 应用于以下场景: - -- 在不同的 NebulaGraph 集群之间迁移数据。 -- 在同一个 NebulaGraph 集群内不同图空间之间迁移数据。 -- NebulaGraph 与其他数据源之间迁移数据。 diff --git a/docs-2.0/spark-connector/writer/sc-ug-what-is-writer.md b/docs-2.0/spark-connector/writer/sc-ug-what-is-writer.md deleted file mode 100644 index 9623f5652ee..00000000000 --- a/docs-2.0/spark-connector/writer/sc-ug-what-is-writer.md +++ /dev/null @@ -1,45 +0,0 @@ -# 什么是 NebulaGraph Spark Connector Writer - -NebulaGraph Spark Connector Writer 是 NebulaGraph Spark Connector 的组成部分,提供了 Spark SQL 接口,用户可以使用 Spark SQL 接口编程将 DataFrame 数据逐条或批量写入 NebulaGraph。 - -## NebulaGraph Spark Connector Writer 实现原理 - -NebulaGraph Spark Connector Writer 分别提供了两个接口,用于逐条或批量地将数据写入 NebulaGraph。 - -## 逐条写入数据 - -NebulaGraph Spark Connector Writer 基于 Spark 的 `DataSourceV2` 接口实现单条数据写入,实现步骤如下: - -1. 继承 `WriteSupport` 接口并重写 `createWriter` 方法,并使用这个方法创建自定义的 `DataSourceWriter` 接口。 -2. 继承 `DataSourceWriter` 接口,创建 `NebulaDataSourceVertexWriter` 类和 `NebulaDataSourceEdgeWriter` 类。重写 `createWriterFactory` 方法并返回自定义的 `DataWriterFactory`。重写 `commit` 方法,用于提交整个事务。重写 `abort` 方法,用于做事务回滚。 - - !!! Note - - NebulaGraph v1.1.0 不支持事务操作,所以,在这个实现中,`commit` 和 `abort` 无实质性操作。 - -3. 继承 `DataWriterFactory`,创建 `NebulaVertexWriterFactory` 类和 `NebulaEdgeWriterFactory` 类,重写 `createWriter` 方法返回自定义的 `DataWriter`。 -4. 继承 `DataWriter`,创建 `NebulaVertexWriter` 类和 `NebulaEdgeWriter` 类。重写 `write` 方法,用于写出数据。重写 `commit` 方法,用于提交事务。重写 `abort` 方法,用于做事务回滚。 - - !!! Note - - NebulaGraph v1.1.0 不支持事务操作,所以在 `DataWriter` 中,`commit` 和 `abort` 无实质性操作。 - -NebulaGraph Spark Connector Writer 的实现类图如下: - -![NebulaGraph Spark Connector Writer 实现类图](https://docs-cdn.nebula-graph.com.cn/figures/sc-ug-002.png "NebulaGraph Spark Connector Writer 实现类图") - -`NebulaVertexWriter` 和 `NebulaEdgeWriter 的 write` 方法中定义了具体写入逻辑。逐条写入数据的逻辑概括如下: - -1. 创建客户端,连接 NebulaGraph 的 Graph 服务。 -2. 指定即将写入数据的 NebulaGraph 图空间。 -3. 构造 NebulaGraph 插入数据的 nGQL 语句。 -4. 提交 nGQL 语句,执行写入操作。 -5. 定义回调函数接收写入操作执行结果。 - -### 批量数据写入 - -NebulaGraph Spark Connector Writer 批量写入数据的实现与 [NebulaGraph Exchange](../../nebula-exchange/about-exchange/ex-ug-what-is-exchange.md) 类似,即通过对 DataFrame 进行 `map` 操作批量数据的累计提交。 - -## 应用示例 - -参考 [NebulaGraph Spark Connector Writer 应用示例](sc-ug-writer-example.md)。 diff --git a/docs-2.0/spark-connector/writer/sc-ug-writer-example.md b/docs-2.0/spark-connector/writer/sc-ug-writer-example.md deleted file mode 100644 index 36cca6b07e2..00000000000 --- a/docs-2.0/spark-connector/writer/sc-ug-writer-example.md +++ /dev/null @@ -1,134 +0,0 @@ -# NebulaGraph Spark Connector Writer 应用示例 - -本文以一个示例说明如何使用 NebulaGraph Spark Connector Writer 向 NebulaGraph 写入点和边数据。 - -## 前提条件 - -使用 NebulaGraph Spark Connector Writer 前,用户需要确认以下信息: - -- 机器上已经安装了以下软件: - - Apache Spark™ 2.3.0 及更高版本 - - Scala - - Java:1.8 - -- 已经成功编译 NebulaGraph Spark Connector,并已经将 `nebula-spark-1.x.y.jar` 复制到本地 Maven 库。详细信息参考[编译 NebulaGraph Spark Connector](../sc-ug-compile.md)。 - -- 待写入的点和边数据源。在本示例中所用的数据源为 JSON 文件,用户可以从 [nebula-java 库](https://github.com/vesoft-inc/nebula-java/tree/v1.0/examples/src/main/resources "点击前往 GitHub 网站") 中下载。 - -- NebulaGraph 的 Graph 服务 IP 地址及端口号。在本示例中,对应的信息为 `127.0.0.1:3699`。 - -- 在 NebulaGraph 中创建 Schema,并获取以下信息: - - 图空间名称和分区数量。在本示例中,对应的信息为 `nb` 和 `100`。 - - 点的信息,包括 Tag 和 VID 映射策略(`hash`)。 - - 边的信息,包括起点和终点对应的 Tag,以及 VID 映射策略(`hash`)。 - -- (可选)如果是批量写入,需要确认单次写入的最大数据条数,默认为 2000。详见本文 `batchInsert` 配置项说明。 - -## 操作步骤 - -参考以下步骤使用 NebulaGraph Spark Connector Writer 向 NebulaGraph 写入数据。 - -### 第 1 步 - -在 Maven 项目的 POM 文件中加入 `nebula-spark` 依赖。 - -```pom - - com.vesoft - nebula-spark - 1.x.y - -``` - -!!! Note - - `` 建议配置为最新发布的 NebulaGraph Java Client 版本号。用户可以在 [nebula-java 仓库的 Releases 页面](https://github.com/vesoft-inc/nebula-java/releases "点击前往 GitHub 网站") 查看最新的 v1.x 版本。 - -### 第 2 步 - -根据逐条或批量写入需求,参考以下示例在 Spark 应用程序中完成配置。 - -#### 逐条写入数据 - -示例代码如下: - -```shell -// 构造点和边数据的 DataFrame, -// 这里使用 nebula-java 库 v1.0 分支里 nebula-java/examples/src/main/resources 目录下的示例数据, -// 示例数据在本地的存储路径为 examples/src/main/resources - val vertexDF = spark.read.json("examples/src/main/resources/vertex") - vertexDF.show() - val edgeDF = spark.read.json("examples/src/main/resources/edge") - edgeDF.show() - -// 写入点 - vertexDF.write - .nebula("127.0.0.1:3699", "nb", "100") - .writeVertices("player", "vertexId", "hash") - -// 写入边 - edgeDF.write - .nebula("127.0.0.1:3699", "nb", "100") - .wirteEdges("follow", "src_id", "dst_id") -``` - -示例代码中的配置说明如下: - -- `nebula(address: String, space: String, partitionNum: String)` - - `address`:NebulaGraph 的 Graph 服务地址及端口,可以配置多个地址,以英文逗号分隔,如 `“ip1:port,ip2:port”`,端口默认为 `3699`。 - - `space`:NebulaGraph 中即将写入数据的图空间名称。 - - `partitionNum`:在 NebulaGraph 中创建图空间时指定的 `partitionNum` 的值。如果未指定,这里填写 `100`。 - -- `writeVertices(tag: String, vertexField: String, policy: String = "")` - - `tag`:点对应的 NebulaGraph 图空间中的 Tag 名称。 - - `vertexField`:DataFrame 中可作为 NebulaGraph 点 VID 的列。例如,如果 DataFrame 有三列,分别为 a、b、c,其中 a 列作为点 VID 列,则该参数设置为 `"a"`。 - - `policy`:如果 DataFrame 中 `vertexField` 列的数据类型非数值型,则需要配置 NebulaGraph 中 VID 的映射策略,即该参数设置为 `"hash"`。如果 `vertexField` 列的数据类型为整数型,则不需要配置。 - -- `writeEdges(edge: String, srcVertexField: String, dstVertexField: String, policy: String = "")` - - `edge`:边对应的 NebulaGraph 图空间中的 Edge type 名称。 - - `srcVertexField` 和 `dstVertexField`:DataFrame 中可作为边起点和边终点的列。列值必须同为整数型或同为非数值型。 - - `policy`:如果 DataFrame 中 `srcVertexField` 列和 `dstVertexField` 列的数据类型非数值型,则需要配置 NebulaGraph 中 VID 的映射策略,即该参数设置为 `"hash"`。如果 `srcVertexField` 列和 `dstVertexField` 列的数据类型为整数型,则不需要配置。 - -#### 批量写入数据 - -示例代码如下: - -```shell -// 构造点和边数据的 DataFrame, -// 这里使用 nebula-java 库 v1.0 分支里 nebula-java/examples/src/main/resources 目录下的示例数据, -// 示例数据在本地的存储路径为 examples/src/main/resources -val vertexDF = spark.read.json("examples/src/main/resources/vertex") - vertexDF.show() -val edgeDF = spark.read.json("examples/src/main/resources/edge") - edgeDF.show() - -// 批量写入点 -new NebulaBatchWriterUtils() - .batchInsert("127.0.0.1:3699", "nb", 2000) - .batchToNebulaVertex(vertexDF, "player", "vertexId") - -// 批量写入边 -new NebulaBatchWriterUtils() - .batchInsert("127.0.0.1:3699", "nb", 2000) - .batchToNebulaEdge(edgeDF, "follow", "source", "target") -``` - -示例代码中的配置说明如下: - -- `batchInsert(address: String, space: String, batch: Int = 2000)`: - - `address`:NebulaGraph 的 Graph 服务地址及端口,可以配置多个地址,以英文逗号分隔,如 `“ip1:port,ip2:port”`,端口默认为 `3699`。 - - `space`:NebulaGraph 中即将写入数据的图空间名称。 - - `batch`:批量写入时一批次的数据条数,可选,默认为 2000。 - -- `batchToNebulaVertex(data: DataFrame, tag: String, vertexField: String, policy: String = "")`: - - `data`:待写入 NebulaGraph 的 DataFrame 数据。 - - `tag`:NebulaGraph 图空间中对应的 Tag 名称。 - - `vertexField`:DataFrame 中可作为 NebulaGraph 点 VID 的列。例如,如果 DataFrame 有三列,分别为 a、b、c,其中 a 列作为点 VID 列,则该参数设置为 `"a"`。 - - `policy`:如果 DataFrame 中 `vertexField` 列的数据类型非数值型,则需要配置 NebulaGraph 中 VID 的映射策略,即该参数设置为 `"hash"`。如果 `vertexField` 列的数据类型为整数型,则不需要配置。 - -- `batchToNebulaEdge(data: DataFrame,  edge: String, srcVertexField: String, dstVertexField: String, rankField: String = "",  policy: String = "")`: - - `data`:待写入 NebulaGraph 的 DataFrame 数据。 - - `edge`:NebulaGraph 中对应的 Edge type。 - - `srcVertexField` 和 `dstVertexField`:DataFrame 中可作为边起点和边终点的列。列值必须同为整数型或同为非数值型。 - - `rankField`:DataFrame 中可作为边 `rank` 值的列,可选配。 - - `policy`:可选。如果 DataFrame 中 `srcVertexField` 列和 `dstVertexField` 列的数据类型非数值型,则需要配置 NebulaGraph 中 VID 的映射策略,即该参数设置为 `"hash"`。如果 `srcVertexField` 列和 `dstVertexField` 列的数据类型为整数型,则不需要配置。 diff --git a/docs-2.0/stylesheets/extra.css b/docs-2.0/stylesheets/extra.css index 66e78d33260..82ab28aaeaf 100644 --- a/docs-2.0/stylesheets/extra.css +++ b/docs-2.0/stylesheets/extra.css @@ -2,17 +2,17 @@ max-width: initial; } -/* NebulaGraph 黑夜主题色 */ +/* 黑夜主题色 */ :root{ --md-primary-fg-color: #FF0000; /* 导航栏页面颜色 */ - --md-accent-fg-color: #49BDF0; /* 选中/悬浮颜色 */ + --md-accent-fg-color: #49BDF0; /* 选中/悬浮链接的颜色 */ } -/* NebulaGraph 白天主题色 */ +/* 白天主题色 */ [data-md-color-scheme="nebula"]{ --md-primary-fg-color: #F7A7A0; /* 导航栏页面颜色 */ - --md-accent-fg-color: #7DBB7C; /* 选中/悬浮颜色 */ - + --md-accent-fg-color: #7DBB7C; /* 选中/悬浮链接的颜色 */ + --md-typeset-a-color: #0FA37F!important; /* 白天的链接颜色 */ --md-code-fg-color: rgb(12, 21, 26); /* 代码段字体色 */ --md-code-bg-color: #eaebec;/* 代码段背景色 */ --md-typeset-color: #000000;/* 普通背景字 */ diff --git a/docs-2.0/synchronization-and-migration/2.balance-syntax.md b/docs-2.0/synchronization-and-migration/2.balance-syntax.md index fbec73345b5..f6ef9441208 100644 --- a/docs-2.0/synchronization-and-migration/2.balance-syntax.md +++ b/docs-2.0/synchronization-and-migration/2.balance-syntax.md @@ -1,6 +1,6 @@ # BALANCE -`BALANCE`语句可以让 NebulaGraph 的 Storage 服务实现负载均衡。更多`BALANCE`语句示例和 Storage 负载均衡,请参见 [Storage 负载均衡](../8.service-tuning/load-balance.md)。 +`BALANCE`语句可以让{{nebula.name}}的 Storage 服务实现负载均衡。更多`BALANCE`语句示例和 Storage 负载均衡,请参见 [Storage 负载均衡](../8.service-tuning/load-balance.md)。 `BALANCE`语法说明如下。 diff --git a/docs-2.0/synchronization-and-migration/replication-between-clusters.md b/docs-2.0/synchronization-and-migration/replication-between-clusters.md index 1473f62c1a9..71490a1f301 100644 --- a/docs-2.0/synchronization-and-migration/replication-between-clusters.md +++ b/docs-2.0/synchronization-and-migration/replication-between-clusters.md @@ -1,6 +1,6 @@ # 集群间数据同步 -NebulaGraph 支持在集群间进行数据同步,即主集群 A 的数据可以近实时地复制到从集群 B 中,方便用户进行异地灾备或分流,降低数据丢失的风险,保证数据安全。 +{{nebula.name}}支持在集群间进行数据同步,即主集群 A 的数据可以近实时地复制到从集群 B 中,方便用户进行异地灾备或分流,降低数据丢失的风险,保证数据安全。 !!! enterpriseonly @@ -24,7 +24,7 @@ NebulaGraph 支持在集群间进行数据同步,即主集群 A 的数据可 ## 注意事项 -- 主从集群必须是同一个 NebulaGraph 版本,否则数据同步会失败。 +- 主从集群的数据库版本必须相同,否则数据同步会失败。 - 数据同步的基本单位是图空间,即只可以设置从一个图空间到另一个图空间的数据同步。 @@ -65,7 +65,7 @@ drainer:机器 IP 地址为`192.168.10.104`,只启动 drainer 服务。 ### 1.搭建主从集群、listener 和 drainer 服务 -1. 在所有机器上安装 NebulaGraph,修改配置文件: +1. 在所有机器上安装{{nebula.name}},修改配置文件: - 主、从集群修改:`nebula-graphd.conf`、`nebula-metad.conf`、`nebula-storaged.conf`。 @@ -95,7 +95,7 @@ drainer:机器 IP 地址为`192.168.10.104`,只启动 drainer 服务。 2. 在主从集群和 listener 服务的机器上放置 License 文件,路径为安装目录的`share/resources/`内。 -3. 在所有机器的 NebulaGraph 安装目录内启动对应的服务: +3. 在所有机器的{{nebula.name}}安装目录内启动对应的服务: - 主、从集群启动命令:`sudo scripts/nebula.service start all`。 @@ -182,7 +182,7 @@ drainer:机器 IP 地址为`192.168.10.104`,只启动 drainer 服务。 3. 设置 listener 服务。 ``` - //设置 listener 服务,待同步的图空间名称为replication_basketballplayer(下文将在从集群中创建)。 + //设置 listener 服务,待同步的图空间名称为 replication_basketballplayer(下文将在从集群中创建)。 nebula> ADD LISTENER SYNC META 192.168.10.103:9569 STORAGE 192.168.10.103:9789 TO SPACE replication_basketballplayer; //查看 listener 状态。 nebula> SHOW LISTENER SYNC; diff --git a/mkdocs.yml b/mkdocs.yml index 2bb317693b8..c90a30a2797 100644 --- a/mkdocs.yml +++ b/mkdocs.yml @@ -1,12 +1,24 @@ +# nav.ent.begin +site_name: 悦数图数据库手册 +site_description: Documentation for Yueshu Graph Database +site_author: 悦数图数据库 +# nav.ent.end +# nav.comm.begin site_name: NebulaGraph Database 手册 site_description: Documentation for NebulaGraph Database -site_author: NebulaGraph +site_author: NebulaGraph +# nav.comm.end site_url: https://docs.nebula-graph.com.cn/ repo_name: 'vesoft-inc/nebula' repo_url: 'https://github.com/vesoft-inc/nebula' docs_dir: docs-2.0 +# nav.ent.begin +copyright: Copyright © 2023 悦数图数据库 - 浙ICP备20010487号 +# nav.ent.end +# nav.comm.begin copyright: Copyright © 2023 NebulaGraph - 浙ICP备20010487号 - +# nav.comm.end + # modify when release: edit_uri: 'https://github.com/vesoft-inc/nebula-docs-cn/edit/master/docs-2.0/' @@ -81,7 +93,7 @@ plugins: - spark-connector/* - 4.deployment-and-installation/5.zone.md - 4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-from-200-to-latest.md - # ent.begin + # exclude.ent.begin - 3.ngql-guide/6.functions-and-expressions/17.ES-function.md - 4.deployment-and-installation/deploy-license.md - 5.configurations-and-logs/2.log-management/audit-log.md @@ -93,13 +105,27 @@ plugins: - nebula-operator/8.custom-cluster-configurations/8.3.balance-data-when-scaling-storage.md - nebula-operator/10.backup-restore-using-operator.md - synchronization-and-migration/replication-between-clusters.md - - 20.appendix/8.about-license/ + - 20.appendix/8.about-license/* - nebula-dashboard-ent/4.cluster-operator/operator/scale.md - - 6.monitor-and-metrics/3.bbox/ - - backup-and-restore/nebula-br-ent/ - # ent.end - # comm.begin - # comm.end + - 6.monitor-and-metrics/3.bbox/* + - backup-and-restore/nebula-br-ent/* + - nebula-dashboard-ent/* + - nebula-explorer/* + - 20.appendix/release-notes/nebula-ent-release-note.md + - 20.appendix/release-notes/dashboard-ent-release-note.md + - 20.appendix/release-notes/explorer-release-note.md + - 20.appendix/8.about-license.md + - 4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-ent-from-3.x-3.4.md + # exclude.ent.end + # exclude.comm.begin + - backup-and-restore/nebula-br/* + - 4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-graph-to-latest.md + - nebula-studio/* + - nebula-dashboard/ + - 20.appendix/release-notes/nebula-comm-release-note.md + - 20.appendix/release-notes/studio-release-note.md + - 20.appendix/release-notes/dashboard-comm-release-note.md + # exclude.comm.end # Exclude the file with the following file name. # - abc.md @@ -158,6 +184,12 @@ extra: base200: 2.0.0 branch: release-3.4 tag: v3.4.1 + # nav.ent.begin + name: 悦数图数据库 + # nav.ent.end + # nav.comm.begin + name: NebulaGraph + # nav.comm.end studio: base111b: 1.1.1-beta base220: 2.2.1 @@ -168,6 +200,12 @@ extra: release: 3.4.0 branch: release-3.4 tag: v3.4.0 + # nav.ent.begin + name: 悦数图探索 + # nav.ent.end + # nav.comm.begin + name: NebulaGraph Explorer + # nav.comm.end exchange_ent: release: 3.4.0 branch: release-3.4 @@ -188,6 +226,12 @@ extra: release: 3.4.0 branch: release-3.4 tag: v3.4.0 + # nav.ent.begin + name: 悦数图计算 + # nav.ent.end + # nav.comm.begin + name: NebulaGraph Analytics + # nav.comm.end sparkconnector: release: 3.4.0 branch: release-3.4 @@ -209,6 +253,12 @@ extra: release: 3.4.2 tag: v3.4.2 branch: release-3.4 + # nav.ent.begin + name: 悦数运维监控 + # nav.ent.end + # nav.comm.begin + name: NebulaGraph Dashboard + # nav.comm.end console: release: 3.4.0 branch: release-3.4 @@ -220,6 +270,12 @@ extra: br_ent: release: 3.4.1 tag: v3.4.1 + # nav.ent.begin + name: 悦数备份&恢复 + # nav.ent.end + # nav.comm.begin + name: NebulaGraph Backup&Restore + # nav.comm.end agent: release: 3.4.0 tag: v3.4.0 @@ -261,15 +317,17 @@ extra: release: 3.4.0 branch: release-3.4 tag: v3.4.0 + # nav.ent.begin + name: 悦数黑匣子 + # nav.ent.end + # nav.comm.begin + name: NebulaGraph BlackBox + # nav.comm.end cloud: azureRelease: 3.1.1 # Azure云兼容的最新内核版本 aliyunRelease: 3.4.0 # 阿里云兼容的最新内核版本 azureLatestRelease: 3.1.0 # 支持Azure云的最新文档版本 aliyunLatestRelease: 3.4.0 # 支持阿里云的最新文档版本 - ent: - ent_begin: #文档包含企业版时需补全该注释(),只包含社区版时只保留注释头( #文档包含企业版时需补全该注释(),只包含社区版时只保留注释尾(-->) - nav: - 前言: README.md @@ -291,12 +349,24 @@ nav: - 入门概览: 2.quick-start/1.quick-start-overview.md - 从云开始(免费试用): - 步骤 1:创建云服务实例: 2.quick-start/2.quick-start-on-cloud/1.create-instance-on-cloud.md +# nav.ent.begin + - 步骤 2:连接悦数图数据库: 2.quick-start/2.quick-start-on-cloud/2.connect-to-nebulagraph-on-cloud.md +# nav.ent.end +# nav.comm.begin - 步骤 2:连接 NebulaGraph: 2.quick-start/2.quick-start-on-cloud/2.connect-to-nebulagraph-on-cloud.md +# nav.comm.end - 步骤 3:管理数据: 2.quick-start/2.quick-start-on-cloud/3.how-to-query-on-cloud.md - 本地部署: +# nav.ent.begin + - 步骤 1:安装悦数图数据库: 2.quick-start/3.quick-start-on-premise/2.install-nebula-graph.md + - 步骤 2:启动悦数图数据库: 2.quick-start/3.quick-start-on-premise/5.start-stop-service.md + - 步骤 3:连接悦数图数据库: 2.quick-start/3.quick-start-on-premise/3.connect-to-nebula-graph.md +# nav.ent.end +# nav.comm.begin - 步骤 1:安装 NebulaGraph: 2.quick-start/3.quick-start-on-premise/2.install-nebula-graph.md - 步骤 2:启动 NebulaGraph: 2.quick-start/3.quick-start-on-premise/5.start-stop-service.md - 步骤 3:连接 NebulaGraph: 2.quick-start/3.quick-start-on-premise/3.connect-to-nebula-graph.md +# nav.comm.end - 步骤 4:注册 Storage 服务: 2.quick-start/3.quick-start-on-premise/3.1add-storage-hosts.md - 步骤 5:使用基本 nGQL 命令: 2.quick-start/3.quick-start-on-premise/4.nebula-graph-crud.md - nGQL 命令汇总: 2.quick-start/6.cheatsheet-for-ngql-command.md @@ -348,8 +418,9 @@ nav: - 条件表达式函数: 3.ngql-guide/6.functions-and-expressions/5.conditional-expressions.md - 谓词函数: 3.ngql-guide/6.functions-and-expressions/8.predicate.md - geo 函数: 3.ngql-guide/6.functions-and-expressions/14.geo.md -#ent + # nav.ent.begin - 自定义函数: 3.ngql-guide/6.functions-and-expressions/9.user-defined-functions.md + # nav.ent.end - 通用查询语句: - MATCH: 3.ngql-guide/7.general-query-statements/2.match.md @@ -459,19 +530,34 @@ nav: - 使用 Docker Compose 部署: 4.deployment-and-installation/2.compile-and-install-nebula-graph/3.deploy-nebula-graph-with-docker-compose.md - 使用 RPM/DEB 包部署多机集群: 4.deployment-and-installation/2.compile-and-install-nebula-graph/deploy-nebula-graph-cluster.md - 使用生态工具安装: 4.deployment-and-installation/2.compile-and-install-nebula-graph/6.deploy-nebula-graph-with-peripherals.md +# nav.ent.begin + - 安装存算合并版悦数图数据库: 4.deployment-and-installation/standalone-deployment.md +# nav.ent.end +# nav.comm.begin - 安装存算合并版 NebulaGraph: 4.deployment-and-installation/standalone-deployment.md -#ent - - 设置 NebulaGraph 企业版 License: 4.deployment-and-installation/deploy-license.md +# nav.comm.end + # nav.ent.begin + - 设置 NebulaGraph 企业版 License: 4.deployment-and-installation/deploy-license.md + # nav.ent.end - 管理服务: 4.deployment-and-installation/manage-service.md - 连接服务: 4.deployment-and-installation/connect-to-nebula-graph.md - 管理 Storage 主机: 4.deployment-and-installation/manage-storage-host.md # - 管理逻辑机架(Zone): 4.deployment-and-installation/5.zone.md - 升级版本: + # nav.comm.begin - 升级 NebulaGraph 至 v3.4(社区版): 4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-graph-to-latest.md - # - 升级 v3.x 至 v3.4(社区版): 4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-from-300-to-latest.md - - 升级 NebulaGraph 至 v3.4(企业版): 4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-ent-from-3.x-3.4.md + # nav.comm.end + - 升级 v3.x 至 v3.4(社区版): 4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-from-300-to-latest.md + # nav.ent.begin + - 升级悦数图数据库至 v3.4(企业版): 4.deployment-and-installation/3.upgrade-nebula-graph/upgrade-nebula-ent-from-3.x-3.4.md + # nav.ent.end +# nav.ent.begin + - 卸载悦数图数据库: 4.deployment-and-installation/4.uninstall-nebula-graph.md +# nav.ent.end +# nav.comm.begin - 卸载 NebulaGraph: 4.deployment-and-installation/4.uninstall-nebula-graph.md +# nav.comm.end - 配置与日志: - 配置: @@ -482,44 +568,51 @@ nav: - Linux 内核配置: 5.configurations-and-logs/1.configurations/6.kernel-config.md - 日志: - 运行日志: 5.configurations-and-logs/2.log-management/logs.md -#ent + # nav.ent.begin - 审计日志(企业版): 5.configurations-and-logs/2.log-management/audit-log.md + # nav.ent.end - 监控: - - 查询 NebulaGraph 监控指标: 6.monitor-and-metrics/1.query-performance-metrics.md + - 查询监控指标: 6.monitor-and-metrics/1.query-performance-metrics.md - RocksDB 统计数据: 6.monitor-and-metrics/2.rocksdb-statistics.md -#ent - - 黑匣子: - - 黑匣子介绍: 6.monitor-and-metrics/3.bbox/3.1.bbox.md + # nav.ent.begin + - 悦数黑匣子: + - 悦数黑匣子介绍: 6.monitor-and-metrics/3.bbox/3.1.bbox.md - Nebula-BBox 工具: 6.monitor-and-metrics/3.bbox/3.2.bbox-reviewer.md + # nav.ent.end - 数据安全: - 验证和授权: - 身份验证: 7.data-security/1.authentication/1.authentication.md - 用户管理: 7.data-security/1.authentication/2.management-user.md - 内置角色权限: 7.data-security/1.authentication/3.role-list.md -#ent + # nav.ent.begin - OpenLDAP 验证: 7.data-security/1.authentication/4.ldap.md + # nav.ent.end - SSL 加密: 7.data-security/4.ssl.md - 备份与恢复: + # nav.comm.begin - NebulaGraph BR(社区版): - BR(社区版)概述: backup-and-restore/nebula-br/1.what-is-br.md - 安装 BR: backup-and-restore/nebula-br/2.compile-br.md - 使用 BR 备份数据: backup-and-restore/nebula-br/3.br-backup-data.md - 使用 BR 恢复数据: backup-and-restore/nebula-br/4.br-restore-data.md -#ent - - NebulaGraph BR(企业版): - - BR(企业版)概述: backup-and-restore/nebula-br-ent/1.br-ent-overview.md - - 安装 BR: backup-and-restore/nebula-br-ent/2.install-tools.md - - 使用 BR 备份数据: backup-and-restore/nebula-br-ent/3.backup-data.md - - 使用 BR 恢复数据: backup-and-restore/nebula-br-ent/4.restore-data.md + # nav.comm.end + # nav.ent.begin + - 悦数备份&恢复: + - 悦数备份&恢复概述: backup-and-restore/nebula-br-ent/1.br-ent-overview.md + - 安装: backup-and-restore/nebula-br-ent/2.install-tools.md + - 备份数据: backup-and-restore/nebula-br-ent/3.backup-data.md + - 恢复数据: backup-and-restore/nebula-br-ent/4.restore-data.md + # nav.ent.end - 快照: backup-and-restore/3.manage-snapshot.md - 同步与迁移: - 负载均衡: synchronization-and-migration/2.balance-syntax.md -#ent + # nav.ent.begin - 集群间数据同步: synchronization-and-migration/replication-between-clusters.md + # nav.ent.end - 最佳实践: - Compaction: 8.service-tuning/compaction.md @@ -541,8 +634,7 @@ nav: - NebulaGraph Go: 14.client/6.nebula-go-client.md # - NebulaGraph Cloud: nebula-cloud.md - -#ent + # nav.ent.begin - NebulaGraph Cloud: - 什么是 NebulaGraph Cloud: nebula-cloud/1.what-is-cloud.md - Nebula Graph Cloud 阿里云版: @@ -550,6 +642,7 @@ nav: - 使用服务实例: nebula-cloud/nebula-cloud-on-alibabacloud/2.use-cloud-services.md - 扩缩容服务: nebula-cloud/nebula-cloud-on-alibabacloud/4.scaling-services.md - 删除服务实例: nebula-cloud/nebula-cloud-on-alibabacloud/3.delete-service-instance.md + # nav.ent.end # - NebulaGraph Cloud Azure版: # - 创建订阅: nebula-cloud/nebula-cloud-on-azure/2.how-to-create-subsciption.md # - 配置Solution: nebula-cloud/nebula-cloud-on-azure/3.how-to-set-solution.md @@ -563,6 +656,7 @@ nav: # - 用户服务条款: nebula-cloud/nebula-cloud-on-azure/7.terms-and-conditions.md # - 隐私政策条款: nebula-cloud/nebula-cloud-on-azure/8.privacy-policy.md + # nav.comm.begin - NebulaGraph Studio: - 认识 NebulaGraph Studio: - 什么是 NebulaGraph Studio: nebula-studio/about-studio/st-ug-what-is-graph-studio.md @@ -586,19 +680,23 @@ nav: - 连接数据库错误: nebula-studio/troubleshooting/st-ug-config-server-errors.md - 无法访问 Studio: nebula-studio/troubleshooting/st-ug-connection-errors.md - Studio 常见问题: nebula-studio/troubleshooting/st-ug-faq.md - + # nav.comm.end + + # nav.comm.begin - NebulaGraph Dashboard(社区版): - 什么是 NebulaGraph Dashboard: nebula-dashboard/1.what-is-dashboard.md - 部署 Dashboard: nebula-dashboard/2.deploy-dashboard.md - 连接 Dashboard: nebula-dashboard/3.connect-dashboard.md - Dashboard 页面介绍: nebula-dashboard/4.use-dashboard.md - 监控指标说明: nebula-dashboard/6.monitor-parameter.md - - - NebulaGraph Dashboard(企业版): - - 什么是 NebulaGraph Dashboard 企业版: nebula-dashboard-ent/1.what-is-dashboard-ent.md - - 部署 NebulaGraph Dashboard 企业版: nebula-dashboard-ent/2.deploy-connect-dashboard-ent.md - - 连接 Dashboard: nebula-dashboard-ent/3.connect-dashboard.md - - NebulaGraph Dashboard 企业版 License: nebula-dashboard-ent/11.dashboard-ent-license.md + # nav.comm.end + + # nav.ent.begin + - 悦数运维监控: + - 什么是悦数运维监控: nebula-dashboard-ent/1.what-is-dashboard-ent.md + - 部署悦数运维监控: nebula-dashboard-ent/2.deploy-connect-dashboard-ent.md + - 连接悦数运维监控: nebula-dashboard-ent/3.connect-dashboard.md + - 悦数运维监控 License: nebula-dashboard-ent/11.dashboard-ent-license.md - 创建及导入集群: - 创建集群: nebula-dashboard-ent/3.create-import-dashboard/1.create-cluster.md - 导入集群: nebula-dashboard-ent/3.create-import-dashboard/2.import-cluster.md @@ -634,13 +732,15 @@ nav: - 安装包管理: nebula-dashboard-ent/system-settings/manage-package.md - 监控指标说明: nebula-dashboard-ent/7.monitor-parameter.md - 常见问题 FAQ: nebula-dashboard-ent/8.faq.md + # nav.ent.end - - NebulaGraph Explorer: - - 什么是 NebulaGraph Explorer: nebula-explorer/about-explorer/ex-ug-what-is-explorer.md + # nav.ent.begin + - 悦数图探索: + - 什么是悦数图探索: nebula-explorer/about-explorer/ex-ug-what-is-explorer.md - 安装与登录: - - 部署 Explorer: nebula-explorer/deploy-connect/ex-ug-deploy.md + - 部署悦数图探索: nebula-explorer/deploy-connect/ex-ug-deploy.md - 连接数据库: nebula-explorer/deploy-connect/ex-ug-connect.md - - NebulaGraph Explorer License(企业版): nebula-explorer/deploy-connect/3.explorer-license.md + - 悦数图探索 License: nebula-explorer/deploy-connect/3.explorer-license.md - 页面概览: nebula-explorer/ex-ug-page-overview.md - 数据库管理: - Schema 草图: nebula-explorer/db-management/draft.md @@ -679,6 +779,7 @@ nav: - 系统设置: nebula-explorer/system-settings.md - 基本操作和快捷键: nebula-explorer/ex-ug-shortcuts.md - 常见问题 FAQ: nebula-explorer/faq.md + # nav.ent.end - NebulaGraph Importer: - 使用 NebulaGraph Importer: nebula-importer/use-importer.md @@ -709,27 +810,46 @@ nav: - 导入 Kafka 数据: nebula-exchange/use-exchange/ex-ug-import-from-kafka.md - 导入通用 JDBC 数据: nebula-exchange/use-exchange/ex-ug-import-from-jdbc.md - 导入 SST 文件数据: nebula-exchange/use-exchange/ex-ug-import-from-sst.md - - 导出 NebulaGraph 数据: nebula-exchange/use-exchange/ex-ug-export-from-nebula.md + # nav.ent.begin + - 导出悦数图数据库数据: nebula-exchange/use-exchange/ex-ug-export-from-nebula.md + # nav.ent.end - Exchange 常见问题: nebula-exchange/ex-ug-FAQ.md - NebulaGraph Operator: - 什么是 NebulaGraph Operator: nebula-operator/1.introduction-to-nebula-operator.md - 使用流程: nebula-operator/6.get-started-with-operator.md - 部署 NebulaGraph Operator: nebula-operator/2.deploy-nebula-operator.md +# nav.ent.begin + - 部署悦数图数据库: + - 使用 Kubectl 部署悦数图数据库集群: nebula-operator/3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md + - 使用 Helm 部署悦数图数据库集群: nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md + - 连接悦数图数据库: nebula-operator/4.connect-to-nebula-graph-service.md + - 配置悦数图数据库: + - 自定义悦数图数据库集群的配置参数: nebula-operator/8.custom-cluster-configurations/8.1.custom-conf-parameter.md +# nav.ent.end +# nav.comm.begin - 部署 NebulaGraph: - 使用 Kubectl 部署 NebulaGraph 集群: nebula-operator/3.deploy-nebula-graph-cluster/3.1create-cluster-with-kubectl.md - 使用 Helm 部署 NebulaGraph 集群: nebula-operator/3.deploy-nebula-graph-cluster/3.2create-cluster-with-helm.md - 连接 NebulaGraph: nebula-operator/4.connect-to-nebula-graph-service.md - 配置 NebulaGraph: - 自定义 NebulaGraph 集群的配置参数: nebula-operator/8.custom-cluster-configurations/8.1.custom-conf-parameter.md +# nav.comm.end - 回收 PV: nebula-operator/8.custom-cluster-configurations/8.2.pv-reclaim.md -#ent + # nav.ent.begin - 均衡扩容后的 Storage 数据: nebula-operator/8.custom-cluster-configurations/8.3.balance-data-when-scaling-storage.md - - 管理集群日志: nebula-operator/8.custom-cluster-configurations/8.4.manage-running-logs.md - - 升级 NebulaGraph: nebula-operator/9.upgrade-nebula-cluster.md + # nav.ent.end + - 管理集群日志: nebula-operator/8.custom-cluster-configurations/8.4.manage-running-logs.md +# nav.ent.begin + - 升级悦数图数据库: nebula-operator/9.upgrade-nebula-cluster.md +# nav.ent.end +# nav.comm.begin + - 升级 NebulaGraph: nebula-operator/9.upgrade-nebula-cluster.md +# nav.comm.end - 配置滚动更新策略: nebula-operator/11.rolling-update-strategy.md -#ent - - 备份与恢复: nebula-operator/10.backup-restore-using-operator.md + # nav.ent.begin + - 备份与恢复: nebula-operator/10.backup-restore-using-operator.md + # nav.ent.end - 故障自愈: nebula-operator/5.operator-failover.md - 常见问题: nebula-operator/7.operator-faq.md @@ -737,10 +857,11 @@ nav: - 算法简介: graph-computing/algorithm-description.md - NebulaGraph Algorithm: graph-computing/nebula-algorithm.md - - NebulaGraph Analytics: graph-computing/nebula-analytics.md - - NebulaGraph Analytics License: graph-computing/analytics-ent-license.md - - NebulaGraph Explorer 工作流: graph-computing/use-explorer.md - +# nav.ent.begin + - 悦数图计算: graph-computing/nebula-analytics.md + - 悦数图计算 License: graph-computing/analytics-ent-license.md + - 悦数图探索工作流: graph-computing/use-explorer.md +# nav.ent.end - NebulaGraph Spark Connector: nebula-spark-connector.md - NebulaGraph Flink Connector: nebula-flink-connector.md @@ -749,19 +870,34 @@ nav: - 附录: - Release Note: + # nav.comm.begin - NebulaGraph 社区版: 20.appendix/release-notes/nebula-comm-release-note.md - - NebulaGraph 企业版: 20.appendix/release-notes/nebula-ent-release-note.md + # nav.comm.end + # nav.ent.begin + - 悦数图数据库: 20.appendix/release-notes/nebula-ent-release-note.md + # nav.ent.end + # nav.comm.begin - NebulaGraph Studio: 20.appendix/release-notes/studio-release-note.md + # nav.comm.end + # nav.comm.begin - NebulaGraph Dashboard 社区版: 20.appendix/release-notes/dashboard-comm-release-note.md - - NebulaGraph Dashboard 企业版: 20.appendix/release-notes/dashboard-ent-release-note.md - - NebulaGraph Explorer: 20.appendix/release-notes/explorer-release-note.md + # nav.comm.end + # nav.ent.begin + - 悦数运维监控: 20.appendix/release-notes/dashboard-ent-release-note.md + # nav.ent.end + # nav.ent.begin + - 悦数图探索: 20.appendix/release-notes/explorer-release-note.md + # nav.ent.end - 学习路径: 20.appendix/learning-path.md -#ent + # nav.ent.begin - 关于 License: 20.appendix/8.about-license.md + # nav.ent.end - 常见问题 FAQ: 20.appendix/0.FAQ.md - 生态工具概览: 20.appendix/6.eco-tool-version.md - 导入工具选择: 20.appendix/write-tools.md + # nav.comm.begin - 社区参与: 15.contribution/how-to-contribute.md + # nav.comm.end - 年表: 20.appendix/history.md - 思维导图: 20.appendix/mind-map.md - 错误码: 20.appendix/error-code.md diff --git a/overrides/partials/header.html b/overrides/partials/header.html index 79043ae61d5..adb60a1dc5d 100644 --- a/overrides/partials/header.html +++ b/overrides/partials/header.html @@ -36,7 +36,6 @@ {% endfor %} {% endif %} - 论坛 {% if config.extra.alternate %}
diff --git a/prepare.sh b/prepare.sh index 79a38e80b4c..b9b032bbe8f 100644 --- a/prepare.sh +++ b/prepare.sh @@ -8,7 +8,6 @@ pip install -r ./requirements.txt # Render content according to the database_edition in mkdocs.yml python ./scripts/conditional_render.py python ./scripts/conditional_yml.py -python ./scripts/auto_release.py # zh language sudo apt install font-manager fonts-noto-cjk language-pack-zh-hans fonts-arphic-ukai fonts-arphic-uming fonts-ipafont-mincho fonts-ipafont-gothic fonts-unfonts-core diff --git a/scripts/auto_release.py b/scripts/auto_release.py index 5c7b63e3818..6ef2ffc4ad2 100644 --- a/scripts/auto_release.py +++ b/scripts/auto_release.py @@ -39,4 +39,4 @@ def update_mkdocs_yml(doc_version): else: raise Exception("The value of doc_version is not found in mkdocs.yml") update_github_actions(doc_version) - update_mkdocs_yml(doc_version) + update_mkdocs_yml(doc_version) \ No newline at end of file diff --git a/scripts/conditional_yml.py b/scripts/conditional_yml.py index fa8cdf410e0..d8407545541 100644 --- a/scripts/conditional_yml.py +++ b/scripts/conditional_yml.py @@ -1,10 +1,19 @@ -# Rules for processing the mkdocs.yml file: -# - When `database_edition` is `community`, keep all content between tags `# ent.begin` and `# ent.end`, and delete all content between tags `# comm.begin` and `# comm.end`. -# - When `database_edition` is `enterprise`, keep all content between `# comm.begin` and `# comm.end`, and delete all content between `# ent.begin` and `# ent.end` -# - When `database_edition` is `both`, delete all content between `# ent.begin` and `# ent.end`, and between `# comm.begin` and `# comm.end`. -# - Always keep the tags. +# This script processes the 'mkdocs.yml' file based on the value of 'database_edition' in the following manner: + +# 1. If the value of 'database_edition' is 'enterprise': +# - Remove the text between '# exclude.ent.begin' and '# exclude.ent.end' +# - Keep the text between '# exclude.comm.begin' and '# exclude.comm.end' +# - Keep the text between '# nav.ent.begin' and '# nav.ent.end' +# - Remove the text between '# nav.comm.begin' and '# nav.comm.end' + +# 2. If the value of 'database_edition' is 'community': +# - Keep the text between '# nav.ent.begin' and '# nav.ent.end' +# - Remove the text between '# nav.comm.begin' and '# nav.comm.end' +# - Remove the text between '# nav.ent.begin' and '# nav.ent.end' +# - Keep the text between '# nav.comm.begin' and '# nav.comm.end' + +# 3. If the value of 'database_edition' is 'both', no changes are made to the file content. -import os import re import yaml @@ -15,25 +24,30 @@ def process_mkdocs_yml(mkdocs_yml_path, database_edition): content = f.read() if database_edition == 'enterprise': content = re.sub( - r'#\s*ent\.begin(.*?)#\s*ent\.end', + r'#\s*exclude\.ent\.begin(.*?)#\s*exclude\.ent\.end', '', content, flags=re.DOTALL) content = re.sub( - r'#\s*comm\.begin(.*?)#\s*comm\.end', + r'#\s*exclude\.comm\.begin(.*?)#\s*exclude\.comm\.end', '\\1', content, flags=re.DOTALL) - elif database_edition == 'community': content = re.sub( - r'#\s*ent\.begin(.*?)#\s*ent\.end', + r'#\s*nav\.ent\.begin(.*?)#\s*nav\.ent\.end', '\\1', content, flags=re.DOTALL) content = re.sub( - r'#\s*comm\.begin(.*?)#\s*comm\.end', + r'#\s*nav\.comm\.begin(.*?)#\s*nav\.comm\.end', '', content, flags=re.DOTALL) - elif database_edition == 'both': + elif database_edition == 'community': content = re.sub( - r'#\s*ent\.begin(.*?)#\s*ent\.end', + r'#\s*exclude\.ent\.begin(.*?)#\s*exclude\.ent\.end', + '\\1', content, flags=re.DOTALL) + content = re.sub( + r'#\s*exclude\.comm\.begin(.*?)#\s*exclude\.comm\.end', '', content, flags=re.DOTALL) content = re.sub( - r'#\s*comm\.begin(.*?)#\s*comm\.end', + r'#\s*nav\.ent\.begin(.*?)#\s*nav\.ent\.end', '', content, flags=re.DOTALL) + content = re.sub( + r'#\s*nav\.comm\.begin(.*?)#\s*nav\.comm\.end', + '\\1', content, flags=re.DOTALL) with open(mkdocs_yml_path, 'w', encoding='utf-8') as f: f.write(content) @@ -44,4 +58,4 @@ def process_mkdocs_yml(mkdocs_yml_path, database_edition): database_edition = config.get("extra", {}).get("database_edition", "both") if database_edition not in ['community', 'enterprise', 'both']: raise ValueError("Invalid value for database_edition: {}".format(database_edition)) - process_mkdocs_yml(mkdocs_yml_path, database_edition) \ No newline at end of file + process_mkdocs_yml(mkdocs_yml_path, database_edition)