Skip to content

Latest commit

 

History

History
58 lines (45 loc) · 3.02 KB

Overview_cn.rst

File metadata and controls

58 lines (45 loc) · 3.02 KB

paddle.optimizer

paddle.optimizer 目录下包含飞桨框架支持的优化器算法相关的 API 与学习率衰减相关的 API。具体如下:

优化器算法相关 API

API 名称 API 功能
:ref:`Adadelta <cn_api_paddle_optimizer_Adadelta>`
Adadelta 优化器
:ref:`Adagrad <cn_api_paddle_optimizer_Adagrad>`
Adagrad 优化器
:ref:`Adam <cn_api_paddle_optimizer_Adam>`
Adam 优化器
:ref:`Adamax <cn_api_paddle_optimizer_Adamax>`
Adamax 优化器
:ref:`AdamW <cn_api_paddle_optimizer_AdamW>`
AdamW 优化器
:ref:`Lamb <cn_api_paddle_optimizer_Lamb>`
Lamb 优化器
:ref:`LBFGS <cn_api_paddle_optimizer_LBFGS>`
LBFGS 优化器
:ref:`Momentum <cn_api_paddle_optimizer_Momentum>`
Momentum 优化器
:ref:`Optimizer <cn_api_paddle_optimizer_Optimizer>`
飞桨框架优化器基类
:ref:`RMSProp <cn_api_paddle_optimizer_RMSProp>`
RMSProp 优化器
:ref:`SGD <cn_api_paddle_optimizer_SGD>`
SGD 优化器

学习率衰减相关 API

API 名称 API 功能
:ref:`CosineAnnealingDecay <cn_api_paddle_optimizer_lr_CosineAnnealingDecay>`
Cosine Annealing 学习率衰减
:ref:`ExponentialDecay <cn_api_paddle_optimizer_lr_ExponentialDecay>`
Exponential 学习率衰减
:ref:`InverseTimeDecay <cn_api_paddle_optimizer_lr_InverseTimeDecay>`
Inverse Time 学习率衰减
:ref:`LRScheduler <cn_api_paddle_optimizer_lr_LRScheduler>`
学习率衰减的基类
:ref:`LambdaDecay <cn_api_paddle_optimizer_lr_LambdaDecay>`
Lambda 学习率衰减
:ref:`LinearWarmup <cn_api_paddle_optimizer_lr_LinearWarmup>`
Linear Warmup 学习率衰减
:ref:`MultiStepDecay <cn_api_paddle_optimizer_lr_MultiStepDecay>`
MultiStep 学习率衰减
:ref:`NaturalExpDecay <cn_api_paddle_optimizer_lr_NaturalExpDecay>`
NatualExp 学习率衰减
:ref:`NoamDecay <cn_api_paddle_optimizer_lr_NoamDecay>`
Norm 学习率衰减
:ref:`PiecewiseDecay <cn_api_paddle_optimizer_lr_PiecewiseDecay>`
分段设置学习率
:ref:`PolynomialDecay <cn_api_paddle_optimizer_lr_scheduler_PolynomialDecay>`
多项式学习率衰减
:ref:`ReduceOnPlateau <cn_api_paddle_optimizer_lr_ReduceOnPlateau>`
loss 自适应学习率衰减
:ref:`StepDecay <cn_api_paddle_optimizer_lr_StepDecay>`
按指定间隔轮数学习率衰减
:ref:`MultiplicativeDecay <cn_api_paddle_optimizer_lr_MultiplicativeDecay>`
根据 lambda 函数进行学习率衰减
:ref:`OneCycleLR <cn_api_paddle_optimizer_lr_OneCycleLR>`
One Cycle 学习率衰减
:ref:`CyclicLR <cn_api_paddle_optimizer_lr_CyclicLR>`
Cyclic 学习率衰减