Keras 3 API 文档 / 层 API / 激活层 / LeakyReLU 层

LeakyReLU 层

[源代码]

LeakyReLU

keras.layers.LeakyReLU(negative_slope=0.3, **kwargs)

线性整流单元 (ReLU) 激活层的泄露版本。

此层允许在单元未激活时使用小的梯度。

公式

f(x) = alpha * x if x < 0
f(x) = x if x >= 0

示例

leaky_relu_layer = LeakyReLU(negative_slope=0.5)
input = np.array([-10, -5, 0.0, 5, 10])
result = leaky_relu_layer(input)
# result = [-5. , -2.5,  0. ,  5. , 10.]

参数

  • negative_slope: 浮点数 >= 0.0。负斜率系数。默认值为 0.3
  • **kwargs: 基础层关键字参数,例如 namedtype