Skip to content

Latest commit

 

History

History
77 lines (42 loc) · 2.35 KB

optimizer_schedules.md

File metadata and controls

77 lines (42 loc) · 2.35 KB

Optimization

.optimization モジュールは以下を提供します。

  • モデルの微調整に使用できる重み減衰が修正されたオプティマイザー、および
  • _LRSchedule から継承するスケジュール オブジェクトの形式のいくつかのスケジュール:
  • 複数のバッチの勾配を累積するための勾配累積クラス

AdamW (PyTorch)

[[autodoc]] AdamW

AdaFactor (PyTorch)

[[autodoc]] Adafactor

AdamWeightDecay (TensorFlow)

[[autodoc]] AdamWeightDecay

[[autodoc]] create_optimizer

Schedules

Learning Rate Schedules (Pytorch)

[[autodoc]] SchedulerType

[[autodoc]] get_scheduler

[[autodoc]] get_constant_schedule

[[autodoc]] get_constant_schedule_with_warmup

[[autodoc]] get_cosine_schedule_with_warmup

[[autodoc]] get_cosine_with_hard_restarts_schedule_with_warmup

[[autodoc]] get_linear_schedule_with_warmup

[[autodoc]] get_polynomial_decay_schedule_with_warmup

[[autodoc]] get_inverse_sqrt_schedule

Warmup (TensorFlow)

[[autodoc]] WarmUp

Gradient Strategies

GradientAccumulator (TensorFlow)

[[autodoc]] GradientAccumulator