Keras 2 API 文档 / 层 API / 激活层 / PReLU 层

PReLU 层

[源代码]

PReLU

tf_keras.layers.PReLU(
    alpha_initializer="zeros",
    alpha_regularizer=None,
    alpha_constraint=None,
    shared_axes=None,
    **kwargs
)

参数化 ReLU(Rectified Linear Unit)。

它遵循

    f(x) = alpha * x for x < 0
    f(x) = x for x >= 0

其中 alpha 是一个与 x 具有相同形状的可学习数组。

输入形状

任意。当将此层用作模型中的第一层时,使用关键字参数 input_shape(整数元组,不包括样本轴)。

输出形状

形状与输入相同。

参数

  • alpha_initializer:权重初始化函数。
  • alpha_regularizer:权重正则化器。
  • alpha_constraint:权重约束。
  • shared_axes:用于共享激活函数可学习参数的轴。例如,如果输入特征图来自具有输出形状 (batch, height, width, channels) 的 2D 卷积,并且您希望跨空间共享参数,以便每个滤波器只有一个参数集,则将 shared_axes 设置为 [1, 2]