Keras 3 API 文档 / 回调 API / 提前停止

提前停止

[源代码]

EarlyStopping

keras.callbacks.EarlyStopping(
    monitor="val_loss",
    min_delta=0,
    patience=0,
    verbose=0,
    mode="auto",
    baseline=None,
    restore_best_weights=False,
    start_from_epoch=0,
)

当监控的指标停止改进时停止训练。

假设训练的目标是最小化损失。因此,要监控的指标将是 'loss',模式将是 'min'model.fit() 训练循环将在每个 epoch 结束时检查损失是否不再减少,如果适用,则考虑 min_deltapatience。一旦发现不再减少,model.stop_training 将标记为 True,训练终止。

要监控的数量需要在 logs 字典中可用。为此,请在 model.compile() 中传递损失或指标。

参数

  • monitor:要监控的数量。默认为 "val_loss"
  • min_delta:要符合改进的监控数量的最小变化,即小于 min_delta 的绝对变化将计为无改进。默认为 0
  • patience:没有改进后将停止训练的 epoch 数量。默认为 0
  • verbose:详细程度模式,0 或 1。模式 0 静默,模式 1 在回调采取行动时显示消息。默认为 0
  • mode{"auto", "min", "max"} 之一。在 min 模式下,当监控的数量停止减少时,训练将停止;在 "max" 模式下,当监控的数量停止增加时,它将停止;在 "auto" 模式下,方向会根据监控数量的名称自动推断。默认为 "auto"
  • baseline:监控数量的基线值。如果非 None,则如果模型没有显示出优于基线的改进,训练将停止。默认为 None
  • restore_best_weights:是否从监控数量最佳值的 epoch 恢复模型权重。如果 False,则使用训练最后一步获得的模型权重。无论相对于 baseline 的性能如何,都将恢复一个 epoch。如果没有任何 epoch 优于 baseline,训练将运行 patience 个 epoch 并从该集中最佳 epoch 恢复权重。默认为 False
  • start_from_epoch:在开始监控改进之前要等待的 epoch 数量。这允许一个预热期,在此期间不期望有改进,因此训练不会停止。默认为 0

示例

>>> callback = keras.callbacks.EarlyStopping(monitor='loss',
...                                               patience=3)
>>> # This callback will stop the training when there is no improvement in
>>> # the loss for three consecutive epochs.
>>> model = keras.models.Sequential([keras.layers.Dense(10)])
>>> model.compile(keras.optimizers.SGD(), loss='mse')
>>> history = model.fit(np.arange(100).reshape(5, 20), np.zeros(5),
...                     epochs=10, batch_size=1, callbacks=[callback],
...                     verbose=0)
>>> len(history.history['loss'])  # Only 4 epochs are run.
4