Skip to content

Commit

Permalink
Update nebula-spark-connector.md (#1473)
Browse files Browse the repository at this point in the history
  • Loading branch information
cooper-lzy committed Feb 16, 2022
1 parent e9afb00 commit b06ec02
Showing 1 changed file with 3 additions and 3 deletions.
6 changes: 3 additions & 3 deletions docs-2.0/nebula-spark-connector.md
Original file line number Diff line number Diff line change
Expand Up @@ -229,7 +229,7 @@ df.write.nebula(config, nebulaWriteVertexConfig).writeVertices()
|`withSpace` || Nebula Graph 图空间名称。 |
|`withTag` || 写入点时需要关联的 Tag 名称。 |
|`withVidField` || DataFrame 中作为点 ID 的列。 |
|`withVidPolicy` || 写入点 ID 时,采用的映射函数,Nebula Graph 2.x 仅支持 HASH。默认不做映射。 |
|`withVidPolicy` || 写入点 ID 时,采用的映射函数,Nebula Graph 仅支持 HASH。默认不做映射。 |
|`withVidAsProp` || DataFrame 中作为点 ID 的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保 Tag 中有和`VidField`相同的属性名。 |
|`withUser` || Nebula Graph 用户名。若未开启[身份验证](7.data-security/1.authentication/1.authentication.md),无需配置用户名和密码。 |
|`withPasswd` || Nebula Graph 用户名对应的密码。 |
Expand All @@ -243,9 +243,9 @@ df.write.nebula(config, nebulaWriteVertexConfig).writeVertices()
|`withSpace` || Nebula Graph 图空间名称。 |
|`withEdge` || 写入边时需要关联的 Edge type 名称。 |
|`withSrcIdField` || DataFrame 中作为起始点的列。 |
|`withSrcPolicy` || 写入起始点时,采用的映射函数,Nebula Graph 2.x 仅支持 HASH。默认不做映射。 |
|`withSrcPolicy` || 写入起始点时,采用的映射函数,Nebula Graph 仅支持 HASH。默认不做映射。 |
|`withDstIdField` || DataFrame 中作为目的点的列。 |
|`withDstPolicy` || 写入目的点时,采用的映射函数,Nebula Graph 2.x 仅支持 HASH。默认不做映射。 |
|`withDstPolicy` || 写入目的点时,采用的映射函数,Nebula Graph 仅支持 HASH。默认不做映射。 |
|`withRankField` || DataFrame 中作为 rank 的列。默认不写入 rank。 |
|`withSrcAsProperty` || DataFrame 中作为起始点的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保 Edge type 中有和`SrcIdField`相同的属性名。 |
|`withDstAsProperty` || DataFrame 中作为目的点的列是否也作为属性写入。默认值为`false`。如果配置为`true`,请确保 Edge type 中有和`DstIdField`相同的属性名。 |
Expand Down

0 comments on commit b06ec02

Please sign in to comment.