Keras 2 API文档 / 度量 / 概率度量

概率指标

[源代码]

BinaryCrossentropy

tf_keras.metrics.BinaryCrossentropy(
    name="binary_crossentropy", dtype=None, from_logits=False, label_smoothing=0
)

计算标签和预测之间的交叉熵度量。

这是在只有两个标签类别(0 和 1)时使用的交叉熵度量类。

参数

  • name:(可选)指标实例的字符串名称。
  • dtype:(可选)指标结果的数据类型。
  • from_logits:(可选) 输出是否应为 logits 张量。默认情况下,我们认为输出编码了一个概率分布。
  • label_smoothing:(可选) [0, 1] 之间的浮点数。当 > 0 时,标签值将被平滑,这意味着标签值的置信度会降低。例如,label_smoothing=0.2 意味着我们将使用 0 的标签值 0.11 的标签值 0.9

独立用法

>>> m = tf.keras.metrics.BinaryCrossentropy()
>>> m.update_state([[0, 1], [0, 0]], [[0.6, 0.4], [0.4, 0.6]])
>>> m.result().numpy()
0.81492424
>>> m.reset_state()
>>> m.update_state([[0, 1], [0, 0]], [[0.6, 0.4], [0.4, 0.6]],
...                sample_weight=[1, 0])
>>> m.result().numpy()
0.9162905

compile() API 一起使用

model.compile(
    optimizer='sgd',
    loss='binary_crossentropy',
    metrics=[tf.keras.metrics.BinaryCrossentropy()])

[源代码]

CategoricalCrossentropy

tf_keras.metrics.CategoricalCrossentropy(
    name="categorical_crossentropy",
    dtype=None,
    from_logits=False,
    label_smoothing=0,
    axis=-1,
)

计算标签和预测之间的交叉熵度量。

这是在有多个标签类别(2 个或更多)时使用的交叉熵度量类。这里我们假设标签是以 one_hot 表示法给出的。例如,当标签值为 [2, 0, 1] 时,y_true = [[0, 0, 1], [1, 0, 0], [0, 1, 0]]。

参数

  • name:(可选)指标实例的字符串名称。
  • dtype:(可选)指标结果的数据类型。
  • from_logits:(可选) 输出是否应为 logits 张量。默认情况下,我们认为输出编码了一个概率分布。
  • label_smoothing:(可选) [0, 1] 之间的浮点数。当 > 0 时,标签值将被平滑,这意味着标签值的置信度会降低。例如,label_smoothing=0.2 意味着我们将使用 0 的标签值 0.11 的标签值 0.9
  • axis:(可选) -1 是计算熵的维度。默认为 -1

独立用法

>>> # EPSILON = 1e-7, y = y_true, y` = y_pred
>>> # y` = clip_ops.clip_by_value(output, EPSILON, 1. - EPSILON)
>>> # y` = [[0.05, 0.95, EPSILON], [0.1, 0.8, 0.1]]
>>> # xent = -sum(y * log(y'), axis = -1)
>>> #      = -((log 0.95), (log 0.1))
>>> #      = [0.051, 2.302]
>>> # Reduced xent = (0.051 + 2.302) / 2
>>> m = tf.keras.metrics.CategoricalCrossentropy()
>>> m.update_state([[0, 1, 0], [0, 0, 1]],
...                [[0.05, 0.95, 0], [0.1, 0.8, 0.1]])
>>> m.result().numpy()
1.1769392
>>> m.reset_state()
>>> m.update_state([[0, 1, 0], [0, 0, 1]],
...                [[0.05, 0.95, 0], [0.1, 0.8, 0.1]],
...                sample_weight=tf.constant([0.3, 0.7]))
>>> m.result().numpy()
1.6271976

compile() API 一起使用

model.compile(
  optimizer='sgd',
  loss='categorical_crossentropy',
  metrics=[tf.keras.metrics.CategoricalCrossentropy()])

[源代码]

SparseCategoricalCrossentropy

tf_keras.metrics.SparseCategoricalCrossentropy(
    name: str = "sparse_categorical_crossentropy",
    dtype: Union[str, tensorflow.python.framework.dtypes.DType, NoneType] = None,
    from_logits: bool = False,
    ignore_class: Optional[int] = None,
    axis: int = -1,
)

计算标签和预测之间的交叉熵度量。

当有两个或更多标签类别时,使用此交叉熵度量。我们期望标签以整数形式提供。如果你想使用 one-hot 表示法提供标签,请使用 CategoricalCrossentropy 度量。对于 y_pred,每个特征应有 # classes 个浮点值,对于 y_true,每个特征应有单个浮点值。

在下面的代码片段中,每个示例的 y_true 有一个浮点值,每个示例的 y_pred# classes 个浮点值。y_true 的形状为 [batch_size]y_pred 的形状为 [batch_size, num_classes]

参数

  • name:(可选)指标实例的字符串名称。
  • dtype:(可选)指标结果的数据类型。
  • from_logits:(可选) 输出是否应为 logits 张量。默认情况下,我们认为输出编码了一个概率分布。
  • ignore_class: 可选整数。在评估指标计算过程中要忽略的类别的 ID。这在分割问题中处理“空”(void)类别(通常为 -1 或 255)的分割图时非常有用。默认情况下(ignore_class=None),所有类别都会被考虑。
  • axis:(可选) 计算熵的维度。默认为 -1

独立用法

>>> # y_true = one_hot(y_true) = [[0, 1, 0], [0, 0, 1]]
>>> # logits = log(y_pred)
>>> # softmax = exp(logits) / sum(exp(logits), axis=-1)
>>> # softmax = [[0.05, 0.95, EPSILON], [0.1, 0.8, 0.1]]
>>> # xent = -sum(y * log(softmax), 1)
>>> # log(softmax) = [[-2.9957, -0.0513, -16.1181],
>>> #                [-2.3026, -0.2231, -2.3026]]
>>> # y_true * log(softmax) = [[0, -0.0513, 0], [0, 0, -2.3026]]
>>> # xent = [0.0513, 2.3026]
>>> # Reduced xent = (0.0513 + 2.3026) / 2
>>> m = tf.keras.metrics.SparseCategoricalCrossentropy()
>>> m.update_state([1, 2],
...                [[0.05, 0.95, 0], [0.1, 0.8, 0.1]])
>>> m.result().numpy()
1.1769392
>>> m.reset_state()
>>> m.update_state([1, 2],
...                [[0.05, 0.95, 0], [0.1, 0.8, 0.1]],
...                sample_weight=tf.constant([0.3, 0.7]))
>>> m.result().numpy()
1.6271976

compile() API 一起使用

model.compile(
  optimizer='sgd',
  loss='sparse_categorical_crossentropy',
  metrics=[tf.keras.metrics.SparseCategoricalCrossentropy()])

[源代码]

KLDivergence

tf_keras.metrics.KLDivergence(name="kullback_leibler_divergence", dtype=None)

计算 y_truey_pred 之间的 Kullback-Leibler 散度度量。

metric = y_true * log(y_true / y_pred)

参数

  • name:(可选)指标实例的字符串名称。
  • dtype:(可选)指标结果的数据类型。

独立用法

>>> m = tf.keras.metrics.KLDivergence()
>>> m.update_state([[0, 1], [0, 0]], [[0.6, 0.4], [0.4, 0.6]])
>>> m.result().numpy()
0.45814306
>>> m.reset_state()
>>> m.update_state([[0, 1], [0, 0]], [[0.6, 0.4], [0.4, 0.6]],
...                sample_weight=[1, 0])
>>> m.result().numpy()
0.9162892

compile() API 一起使用

model.compile(optimizer='sgd',
              loss='categorical_crossentropy',
              metrics=[tf.keras.metrics.KLDivergence()])

[源代码]

Poisson

tf_keras.metrics.Poisson(name="poisson", dtype=None)

计算 y_truey_pred 之间的泊松分数。

🐟 🐟 🐟

其定义为:poisson_score = y_pred - y_true * log(y_pred)

参数

  • name:(可选)指标实例的字符串名称。
  • dtype:(可选)指标结果的数据类型。

独立用法

>>> m = tf.keras.metrics.Poisson()
>>> m.update_state([[0, 1], [0, 0]], [[1, 1], [0, 0]])
>>> m.result().numpy()
0.49999997
>>> m.reset_state()
>>> m.update_state([[0, 1], [0, 0]], [[1, 1], [0, 0]],
...                sample_weight=[1, 0])
>>> m.result().numpy()
0.99999994

compile() API 一起使用

model.compile(optimizer='sgd',
              loss='categorical_crossentropy',
              metrics=[tf.keras.metrics.Poisson()])