Hinge
类keras.losses.Hinge(reduction="sum_over_batch_size", name="hinge", dtype=None)
计算 y_true
和 y_pred
之间的铰链损失。
公式
loss = maximum(1 - y_true * y_pred, 0)
预期 y_true
值为 -1 或 1。如果提供二进制 (0 或 1) 标签,我们将将其转换为 -1 或 1。
参数
"sum_over_batch_size"
。支持的选项为 "sum"
、"sum_over_batch_size"
或 None
。None
,这意味着使用 keras.backend.floatx()
。keras.backend.floatx()
是一个 "float32"
,除非设置为不同的值(通过 keras.backend.set_floatx()
)。如果提供了 keras.DTypePolicy
,则将使用 compute_dtype
。SquaredHinge
类keras.losses.SquaredHinge(
reduction="sum_over_batch_size", name="squared_hinge", dtype=None
)
计算 y_true
和 y_pred
之间的平方铰链损失。
公式
loss = square(maximum(1 - y_true * y_pred, 0))
预期 y_true
值为 -1 或 1。如果提供二进制 (0 或 1) 标签,我们将将其转换为 -1 或 1。
参数
"sum_over_batch_size"
。支持的选项为 "sum"
、"sum_over_batch_size"
或 None
。None
,这意味着使用 keras.backend.floatx()
。keras.backend.floatx()
是一个 "float32"
,除非设置为不同的值(通过 keras.backend.set_floatx()
)。如果提供了 keras.DTypePolicy
,则将使用 compute_dtype
。CategoricalHinge
类keras.losses.CategoricalHinge(
reduction="sum_over_batch_size", name="categorical_hinge", dtype=None
)
计算 y_true
和 y_pred
之间的分类铰链损失。
公式
loss = maximum(neg - pos + 1, 0)
其中 neg=maximum((1-y_true)*y_pred)
且 pos=sum(y_true*y_pred)
参数
"sum_over_batch_size"
。支持的选项为 "sum"
、"sum_over_batch_size"
或 None
。None
,这意味着使用 keras.backend.floatx()
。keras.backend.floatx()
是一个 "float32"
,除非设置为不同的值(通过 keras.backend.set_floatx()
)。如果提供了 keras.DTypePolicy
,则将使用 compute_dtype
。hinge
函数keras.losses.hinge(y_true, y_pred)
计算 y_true
和 y_pred
之间的铰链损失。
公式
loss = mean(maximum(1 - y_true * y_pred, 0), axis=-1)
参数
y_true
值为 -1 或 1。如果提供二进制 (0 或 1) 标签,它们将转换为 -1 或 1,形状为 [batch_size, d0, .. dN]
。[batch_size, d0, .. dN]
。返回
形状为 [batch_size, d0, .. dN-1]
的铰链损失值。
示例
>>> y_true = np.random.choice([-1, 1], size=(2, 3))
>>> y_pred = np.random.random(size=(2, 3))
>>> loss = keras.losses.hinge(y_true, y_pred)
squared_hinge
函数keras.losses.squared_hinge(y_true, y_pred)
计算 y_true
和 y_pred
之间的平方铰链损失。
公式
loss = mean(square(maximum(1 - y_true * y_pred, 0)), axis=-1)
参数
y_true
值为 -1 或 1。如果提供二进制 (0 或 1) 标签,我们将将其转换为 -1 或 1,形状为 [batch_size, d0, .. dN]
。[batch_size, d0, .. dN]
。返回
形状为 [batch_size, d0, .. dN-1]
的平方铰链损失值。
示例
>>> y_true = np.random.choice([-1, 1], size=(2, 3))
>>> y_pred = np.random.random(size=(2, 3))
>>> loss = keras.losses.squared_hinge(y_true, y_pred)
categorical_hinge
函数keras.losses.categorical_hinge(y_true, y_pred)
计算 y_true
和 y_pred
之间的分类铰链损失。
公式
loss = maximum(neg - pos + 1, 0)
其中 neg=maximum((1-y_true)*y_pred)
且 pos=sum(y_true*y_pred)
参数
y_true
值为 {-1, +1}
或 {0, 1}
(即,一个独热编码张量),形状为 [batch_size, d0, .. dN]
。[batch_size, d0, .. dN]
。返回
形状为 [batch_size, d0, .. dN-1]
的分类铰链损失值。
示例
>>> y_true = np.random.randint(0, 3, size=(2,))
>>> y_true = np.eye(np.max(y_true) + 1)[y_true]
>>> y_pred = np.random.random(size=(2, 3))
>>> loss = keras.losses.categorical_hinge(y_true, y_pred)