Keras 2 API 文档 / 层 API / 激活层 / LeakyReLU 层

LeakyReLU 层

[源代码]

LeakyReLU

tf_keras.layers.LeakyReLU(alpha=0.3, **kwargs)

整流线性单元 (Rectified Linear Unit) 的 Leaky 版本。

当单元不活跃时,它允许存在一个小的梯度。

    f(x) = alpha * x if x < 0
    f(x) = x if x >= 0

用法

>>> layer = tf.keras.layers.LeakyReLU()
>>> output = layer([-3.0, -1.0, 0.0, 2.0])
>>> list(output.numpy())
[-0.9, -0.3, 0.0, 2.0]
>>> layer = tf.keras.layers.LeakyReLU(alpha=0.1)
>>> output = layer([-3.0, -1.0, 0.0, 2.0])
>>> list(output.numpy())
[-0.3, -0.1, 0.0, 2.0]

输入形状

任意。当将此层用作模型中的第一层时,请使用关键字参数 input_shape(整数元组,不包括批量轴)。

输出形状

与输入形状相同。

参数

  • alpha: 浮点数 >= 0.。负斜率系数。默认为 0.3