From 6c38e6bd2228c4f2ca4214a5b5b651c6f322ec0c Mon Sep 17 00:00:00 2001 From: Yami <156195357+Le-soleile@users.noreply.github.com> Date: Sat, 20 Sep 2025 21:26:49 +0800 Subject: [PATCH 1/5] Update searchsorted_cn.rst --- docs/api/paddle/searchsorted_cn.rst | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/docs/api/paddle/searchsorted_cn.rst b/docs/api/paddle/searchsorted_cn.rst index 318be10795b..e00756f3b72 100644 --- a/docs/api/paddle/searchsorted_cn.rst +++ b/docs/api/paddle/searchsorted_cn.rst @@ -12,8 +12,8 @@ searchsorted - **sorted_sequence** (Tensor) - 输入的 N 维或一维 Tensor,支持的数据类型:bfloat16、float16、float32、float64、int32、int64。该 Tensor 的数值在其最后一个维度递增。 - **values** (Tensor) - 输入的 N 维 Tensor,支持的数据类型:bfloat16、float16、float32、float64、int32、int64。 - **out_int32** (bool,可选) - 输出的数据类型支持 int32、int64。默认值为 False,表示默认的输出数据类型为 int64。 - - **right** (bool,可选) - 根据给定 ``values`` 在 ``sorted_sequence`` 查找对应的上边界或下边界。如果 ``sorted_sequence``的值为 nan 或 inf,则返回最内层维度的大小。默认值为 False,表示在 ``sorted_sequence`` 的查找给定 ``values`` 的下边界。 - - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。 + - **right** (bool,可选) - 根据给定 ``values`` 在 ``sorted_sequence`` 查找对应的上边界或下边界。如果 ``sorted_sequence`` 的值为 nan 或 inf,则返回最内层维度的大小。默认值为 False,表示在 ``sorted_sequence`` 的查找给定 ``values`` 的下边界。 + - **name** (str,可选) - 具体用法请参见 :ref: `api_guide_Name`,一般无需设置,默认值为 None。 返回 :::::::: From d914e7e14e35883e3e696cf018bee6e3a2bee7f6 Mon Sep 17 00:00:00 2001 From: Yami <156195357+Le-soleile@users.noreply.github.com> Date: Sat, 20 Sep 2025 21:31:13 +0800 Subject: [PATCH 2/5] Update GradScaler_cn.rst --- docs/api/paddle/amp/GradScaler_cn.rst | 10 +++++----- 1 file changed, 5 insertions(+), 5 deletions(-) diff --git a/docs/api/paddle/amp/GradScaler_cn.rst b/docs/api/paddle/amp/GradScaler_cn.rst index 73b95363def..541f21cb53f 100644 --- a/docs/api/paddle/amp/GradScaler_cn.rst +++ b/docs/api/paddle/amp/GradScaler_cn.rst @@ -7,13 +7,13 @@ GradScaler -GradScaler 用于动态图模式下的"自动混合精度"的训练。它控制 loss 的缩放比例,有助于避免浮点数溢出的问题。这个类具有 ``scale()``、 ``unscale_()``、 ``step()``、 ``update()``、 ``minimize()``和参数的``get()/set()``等方法。 +GradScaler 用于动态图模式下的"自动混合精度"的训练。它控制 loss 的缩放比例,有助于避免浮点数溢出的问题。这个类具有 ``scale()``、 ``unscale_()``、 ``step()``、 ``update()``、 ``minimize()`` 和参数的 ``get()/set()`` 等方法。 ``scale()`` 用于让 loss 乘上一个缩放的比例。 ``unscale_()`` 用于让 loss 除去一个缩放的比例。 ``step()`` 与 ``optimizer.step()`` 类似,执行参数的更新,不更新缩放比例 loss_scaling。 ``update()`` 更新缩放比例。 -``minimize()`` 与 ``optimizer.minimize()`` 类似,执行参数的更新,同时更新缩放比例 loss_scaling,等效与``step()``+``update()``。 +``minimize()`` 与 ``optimizer.minimize()`` 类似,执行参数的更新,同时更新缩放比例 loss_scaling,等效与 ``step()``+``update()``。 通常,GradScaler 和 ``paddle.amp.auto_cast`` 一起使用,来实现动态图模式下的"自动混合精度"。 @@ -43,7 +43,7 @@ scale(var) ''''''''' 将 Tensor 乘上缩放因子,返回缩放后的输出。 -如果这个 :class:`GradScaler` 的实例不使用 loss scaling,则返回的输出将保持不变。 +如果这个 :class: `GradScaler` 的实例不使用 loss scaling,则返回的输出将保持不变。 **参数** @@ -57,7 +57,7 @@ scale(var) COPY-FROM: paddle.amp.GradScaler.scale -minimize(optimizer, *args, **kwargs) +minimize(optimizer, args, kwargs) ''''''''' 这个函数与 ``optimizer.minimize()`` 类似,用于执行参数更新。 @@ -288,7 +288,7 @@ load_state_dict(state_dict) **参数** -- **state_dict** (dict) - 用于设置或更新 GradScaler 对象的属性参数,dict 需要是``GradScaler.state_dict()``的返回值。 +- **state_dict** (dict) - 用于设置或更新 GradScaler 对象的属性参数,dict 需要是 ``GradScaler.state_dict()`` 的返回值。 **代码示例** From 06fa601be77e3b9d48272a58f7a27602304f5148 Mon Sep 17 00:00:00 2001 From: Yami <156195357+Le-soleile@users.noreply.github.com> Date: Sun, 21 Sep 2025 20:09:59 +0800 Subject: [PATCH 3/5] Update searchsorted_cn.rst --- docs/api/paddle/searchsorted_cn.rst | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/api/paddle/searchsorted_cn.rst b/docs/api/paddle/searchsorted_cn.rst index e00756f3b72..36917323956 100644 --- a/docs/api/paddle/searchsorted_cn.rst +++ b/docs/api/paddle/searchsorted_cn.rst @@ -13,7 +13,7 @@ searchsorted - **values** (Tensor) - 输入的 N 维 Tensor,支持的数据类型:bfloat16、float16、float32、float64、int32、int64。 - **out_int32** (bool,可选) - 输出的数据类型支持 int32、int64。默认值为 False,表示默认的输出数据类型为 int64。 - **right** (bool,可选) - 根据给定 ``values`` 在 ``sorted_sequence`` 查找对应的上边界或下边界。如果 ``sorted_sequence`` 的值为 nan 或 inf,则返回最内层维度的大小。默认值为 False,表示在 ``sorted_sequence`` 的查找给定 ``values`` 的下边界。 - - **name** (str,可选) - 具体用法请参见 :ref: `api_guide_Name`,一般无需设置,默认值为 None。 + - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。 返回 :::::::: From c104b2b540268655643fbee7b76ee6bbf758da37 Mon Sep 17 00:00:00 2001 From: Yami <156195357+Le-soleile@users.noreply.github.com> Date: Sun, 21 Sep 2025 20:11:34 +0800 Subject: [PATCH 4/5] Update GradScaler_cn.rst --- docs/api/paddle/amp/GradScaler_cn.rst | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/docs/api/paddle/amp/GradScaler_cn.rst b/docs/api/paddle/amp/GradScaler_cn.rst index 541f21cb53f..1b4b2223aea 100644 --- a/docs/api/paddle/amp/GradScaler_cn.rst +++ b/docs/api/paddle/amp/GradScaler_cn.rst @@ -13,7 +13,7 @@ GradScaler 用于动态图模式下的"自动混合精度"的训练。它控制 ``unscale_()`` 用于让 loss 除去一个缩放的比例。 ``step()`` 与 ``optimizer.step()`` 类似,执行参数的更新,不更新缩放比例 loss_scaling。 ``update()`` 更新缩放比例。 -``minimize()`` 与 ``optimizer.minimize()`` 类似,执行参数的更新,同时更新缩放比例 loss_scaling,等效与 ``step()``+``update()``。 +``minimize()`` 与 ``optimizer.minimize()`` 类似,执行参数的更新,同时更新缩放比例 loss_scaling,等效与 ``step()`` + ``update()``。 通常,GradScaler 和 ``paddle.amp.auto_cast`` 一起使用,来实现动态图模式下的"自动混合精度"。 @@ -43,7 +43,7 @@ scale(var) ''''''''' 将 Tensor 乘上缩放因子,返回缩放后的输出。 -如果这个 :class: `GradScaler` 的实例不使用 loss scaling,则返回的输出将保持不变。 +如果这个 :class:`GradScaler` 的实例不使用 loss scaling,则返回的输出将保持不变。 **参数** From 2cc9f7aafaefcb54d377f724a3d74795060d75d0 Mon Sep 17 00:00:00 2001 From: Yami <156195357+Le-soleile@users.noreply.github.com> Date: Mon, 22 Sep 2025 17:59:48 +0800 Subject: [PATCH 5/5] Update GradScaler_cn.rst MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit 已108-109行增加回车,谢谢 @Echo-Nie --- docs/api/paddle/amp/GradScaler_cn.rst | 3 ++- 1 file changed, 2 insertions(+), 1 deletion(-) diff --git a/docs/api/paddle/amp/GradScaler_cn.rst b/docs/api/paddle/amp/GradScaler_cn.rst index 1b4b2223aea..ac123ea7d18 100644 --- a/docs/api/paddle/amp/GradScaler_cn.rst +++ b/docs/api/paddle/amp/GradScaler_cn.rst @@ -106,7 +106,8 @@ unscale_(optimizer) ``minimize()`` 用法同上。 **参数** - - **optimizer** (Optimizer) - 用于更新参数的优化器。 + +- **optimizer** (Optimizer) - 用于更新参数的优化器。 **代码示例**