Skip to content
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
The table of contents is too big for display.
Diff view
Diff view
  •  
  •  
  •  
2 changes: 1 addition & 1 deletion docs/api/paddle/CPUPlace_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -8,7 +8,7 @@ CPUPlace



``CPUPlace`` 是一个设备描述符,指定 ``CPUPlace`` ``Tensor`` 将被自动分配在该设备上,并且模型将会运行在该设备上。
``CPUPlace`` 是一个设备描述符,指定 ``CPUPlace`` ``Tensor`` 将被自动分配在该设备上,并且模型将会运行在该设备上。

代码示例
::::::::::::
Expand Down
4 changes: 2 additions & 2 deletions docs/api/paddle/CUDAPinnedPlace_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -8,8 +8,8 @@ CUDAPinnedPlace



``CUDAPinnedPlace`` 是一个设备描述符,它所指代的页锁定内存由 CUDA 函数 ``cudaHostAlloc()`` 在主机内存上分配,主机的操作系统将不会对这块内存进行分页和交换操作,可以通过直接内存访问技术访问,加速主机和 GPU 之间的数据拷贝。
有关 CUDA 的数据转移和 ``pinned memory``,参见 `官方文档 <https://docs.nvidia.com/cuda/cuda-c-best-practices-guide/index.html#pinned-memory>`_ 。
``CUDAPinnedPlace`` 是一个设备描述符,它所指代的页锁定内存由 CUDA 函数 ``cudaHostAlloc()`` 在主机内存上分配,主机的操作系统将不会对这块内存进行分页和交换操作,可以通过直接内存访问技术访问,加速主机和 GPU 之间的数据拷贝。
有关 CUDA 的数据转移和 ``pinned memory`` ,参见 `官方文档 <https://docs.nvidia.com/cuda/cuda-c-best-practices-guide/index.html#pinned-memory>`_ 。

代码示例
::::::::::::
Expand Down
10 changes: 5 additions & 5 deletions docs/api/paddle/CUDAPlace_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -9,12 +9,12 @@ CUDAPlace



``CUDAPlace`` 是一个设备描述符,表示一个分配或将要分配 ``Tensor`` 的 GPU 设备。
每个 ``CUDAPlace`` 有一个 ``dev_id`` (设备 id)来表明当前的 ``CUDAPlace`` 所代表的显卡编号,编号从 0 开始。
``dev_id`` 不同的 ``CUDAPlace`` 所对应的内存不可相互访问。
``CUDAPlace`` 是一个设备描述符,表示一个分配或将要分配 ``Tensor`` 的 GPU 设备。
每个 ``CUDAPlace`` 有一个 ``dev_id`` (设备 id)来表明当前的 ``CUDAPlace`` 所代表的显卡编号,编号从 0 开始。
``dev_id`` 不同的 ``CUDAPlace`` 所对应的内存不可相互访问。
这里编号指的是可见显卡的逻辑编号,而不是显卡实际的编号。
可以通过 ``CUDA_VISIBLE_DEVICES`` 环境变量限制程序能够使用的 GPU 设备,程序启动时会遍历当前的可见设备,并从 0 开始为这些设备编号。
如果没有设置 ``CUDA_VISIBLE_DEVICES``,则默认所有的设备都是可见的,此时逻辑编号与实际编号是相同的。
可以通过 ``CUDA_VISIBLE_DEVICES`` 环境变量限制程序能够使用的 GPU 设备,程序启动时会遍历当前的可见设备,并从 0 开始为这些设备编号。
如果没有设置 ``CUDA_VISIBLE_DEVICES`` ,则默认所有的设备都是可见的,此时逻辑编号与实际编号是相同的。

参数
::::::::::::
Expand Down
18 changes: 9 additions & 9 deletions docs/api/paddle/DataParallel_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -8,19 +8,19 @@ DataParallel

通过数据并行模式执行动态图模型。

目前,``DataParallel`` 仅支持以多进程的方式执行动态图模型。
目前, ``DataParallel`` 仅支持以多进程的方式执行动态图模型。

支持两种使用方式:

1. 使用 ``paddle.distributed.spawn`` 方法启动,例如:
1. 使用 ``paddle.distributed.spawn`` 方法启动,例如:

``python demo.py`` (spawn need to be called in ``__main__`` method)
``python demo.py`` (spawn need to be called in ``__main__`` method)

2. 使用 ``paddle.distributed.launch`` 方法启动,例如:
2. 使用 ``paddle.distributed.launch`` 方法启动,例如:

``python -m paddle.distributed.launch –selected_gpus=0,1 demo.py``
``python -m paddle.distributed.launch –selected_gpus=0,1 demo.py``

其中 ``demo.py`` 脚本的代码可以是下面的示例代码。
其中 ``demo.py`` 脚本的代码可以是下面的示例代码。

参数
::::::::::::
Expand All @@ -33,7 +33,7 @@ DataParallel

返回
::::::::::::
支持数据并行的 ``Layer``。
支持数据并行的 ``Layer``

代码示例
::::::::::::
Expand Down Expand Up @@ -64,7 +64,7 @@ state_dict(destination=None, include_sublayers=True)

**参数**

- **destination** (dict,可选) - 如果提供 ``destination``,则所有参数和持久的 buffers 都将存放在 ``destination`` 中。默认值:None。
- **destination** (dict,可选) - 如果提供 ``destination`` ,则所有参数和持久的 buffers 都将存放在 ``destination`` 中。默认值:None。
- **include_sublayers** (bool,可选) - 如果设置为 True,则包括子层的参数和 buffers。默认值:True。

**返回**
Expand All @@ -78,7 +78,7 @@ COPY-FROM: paddle.DataParallel.state_dict
set_state_dict(state_dict, use_structured_name=True)
'''''''''

根据传入的 ``state_dict`` 设置 parameters 和持久的 buffers。所有 parameters 和 buffers 将由 ``state_dict`` 中的 ``Tensor`` 设置。
根据传入的 ``state_dict`` 设置 parameters 和持久的 buffers。所有 parameters 和 buffers 将由 ``state_dict`` 中的 ``Tensor`` 设置。

**参数**

Expand Down
2 changes: 1 addition & 1 deletion docs/api/paddle/LazyGuard_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -7,7 +7,7 @@ LazyGuard



LazyGuard 是一个用于设置模型(继承自 ``paddle.nn.Layer`` ) 中参数延迟初始化的上下文管理器。配合使用 python 的 ``with`` 语句来将 ``with LazyGuard():`` 代码块下所有模型在实例化时,其内部的参数均不会立即申请内存空间。
LazyGuard 是一个用于设置模型(继承自 ``paddle.nn.Layer`` ) 中参数延迟初始化的上下文管理器。配合使用 python 的 ``with`` 语句来将 ``with LazyGuard():`` 代码块下所有模型在实例化时,其内部的参数均不会立即申请内存空间。


代码示例
Expand Down
Loading