Keras 3 API 文档 / Callbacks API / EarlyStopping

EarlyStopping

[源代码]

EarlyStopping

keras.callbacks.EarlyStopping(
    monitor="val_loss",
    min_delta=0,
    patience=0,
    verbose=0,
    mode="auto",
    baseline=None,
    restore_best_weights=False,
    start_from_epoch=0,
)

当监控的指标停止改善时,停止训练。

假设训练的目标是最小化损失。在这种情况下,需要监控的指标是 "loss",模式是 "min"model.fit() 训练循环将在每个 epoch 结束时检查损失是否不再下降,并考虑 min_deltapatience(如果适用)。一旦发现损失不再下降,model.stop_training 将被标记为 True,训练将终止。

需要监控的数量必须在 logs 字典中可用。要做到这一点,请在 model.compile() 中传递损失或指标。

参数

  • monitor:要监控的数量。默认为 "val_loss"
  • min_delta:要被视为改善的监控数量的最小变化,即小于 min_delta 的绝对变化将被视为没有改善。默认为 0
  • patience:在训练停止之前,没有改善的 epoch 数量。默认为 0
  • verbose:详细程度模式,0 或 1。模式 0 为静默模式,模式 1 在回调执行操作时显示消息。默认为 0
  • mode{"auto", "min", "max"} 中的一个。在 min 模式下,当监控的数量停止下降时,训练将停止;在 "max" 模式下,当监控的数量停止增加时,训练将停止;在 "auto" 模式下,方向将根据监控数量的名称自动推断。默认为 "auto"
  • baseline:监控数量的基线值。如果不是 None,当模型没有显示出相对于基线的改进时,训练将停止。默认为 None
  • restore_best_weights:是否从监控数量的最佳值对应的 epoch 恢复模型权重。如果为 False,则使用训练最后一步获得的模型权重。无论与 baseline 的性能如何,都会恢复一个 epoch。如果没有 epoch 能够改进 baseline,训练将运行 patience 个 epoch,并从该集合中的最佳 epoch 恢复权重。默认为 False
  • start_from_epoch:在开始监控改进之前要等待的 epoch 数量。这允许一个预热期,在此期间不期望有任何改进,因此训练不会停止。默认为 0

示例

>>> callback = keras.callbacks.EarlyStopping(monitor='loss',
...                                               patience=3)
>>> # This callback will stop the training when there is no improvement in
>>> # the loss for three consecutive epochs.
>>> model = keras.models.Sequential([keras.layers.Dense(10)])
>>> model.compile(keras.optimizers.SGD(), loss='mse')
>>> history = model.fit(np.arange(100).reshape(5, 20), np.zeros(5),
...                     epochs=10, batch_size=1, callbacks=[callback],
...                     verbose=0)
>>> len(history.history['loss'])  # Only 4 epochs are run.
4