AdamW
类keras.optimizers.AdamW(
learning_rate=0.001,
weight_decay=0.004,
beta_1=0.9,
beta_2=0.999,
epsilon=1e-07,
amsgrad=False,
clipnorm=None,
clipvalue=None,
global_clipnorm=None,
use_ema=False,
ema_momentum=0.99,
ema_overwrite_frequency=None,
loss_scale_factor=None,
gradient_accumulation_steps=None,
name="adamw",
**kwargs
)
实现 AdamW 算法的优化器。
AdamW 优化是一种随机梯度下降方法,它基于一阶和二阶矩的自适应估计,并增加了一种根据论文“解耦权重衰减正则化”(作者:Loshchilov, Hutter et al., 2019)中讨论的技术来衰减权重的方法。
根据 Kingma et al., 2014 的说法,基础的 Adam 方法“计算效率高,内存需求小,对梯度的对角重缩放不变,并且非常适合数据/参数规模庞大的问题”。
参数
keras.optimizers.schedules.LearningRateSchedule
实例,或者一个不接受任何参数并返回实际值的可调用对象。学习率。默认为 0.001
。0.9
。0.999
。False
。False
。如果为 True
,则应用指数移动平均 (EMA)。EMA 包括计算模型权重的指数移动平均(随着每个训练批次后权重的变化),并定期用其移动平均值覆盖权重。use_ema=True
时使用。这是计算模型权重 EMA 时使用的动量:new_average = ema_momentum * old_average + (1 - ema_momentum) * current_variable_value
。None
,默认为 None
。仅在 use_ema=True
时使用。每经过 ema_overwrite_frequency
次迭代步骤,我们就用模型变量的移动平均值覆盖它。如果为 None
,优化器在训练过程中不会覆盖模型变量,你需要在训练结束时通过调用 optimizer.finalize_variable_values()
来显式覆盖变量(这会原地更新模型变量)。使用内置的 fit()
训练循环时,这会在最后一个 epoch 后自动发生,你无需执行任何操作。None
。如果是一个浮点数,在计算梯度之前,损失会乘以比例因子;在更新变量之前,梯度会乘以比例因子的倒数。这对于混合精度训练期间防止下溢非常有用。另外,keras.optimizers.LossScaleOptimizer
会自动设置一个损失比例因子。None
。如果是一个整数,模型和优化器变量不会在每一步更新;而是每隔 gradient_accumulation_steps
步更新一次,使用自上次更新以来梯度的平均值。这被称为“梯度累积”。当你的批次大小非常小时,这有助于减少每次更新步骤中的梯度噪声。EMA 频率会查看“累积”迭代次数(优化器步骤 // gradient_accumulation_steps)。学习率调度器会查看“真实”迭代次数(优化器步骤)。参考文献
adam
的文献amsgrad
的文献。