PReLU 层

[源代码]

PReLU

keras.layers.PReLU(
    alpha_initializer="Zeros",
    alpha_regularizer=None,
    alpha_constraint=None,
    shared_axes=None,
    **kwargs
)

参数化 ReLU 激活层。

公式

f(x) = alpha * x for x < 0
f(x) = x for x >= 0

其中 alpha 是一个学习到的数组,形状与 x 相同。

参数

  • alpha_initializer: 权重的初始化器函数。
  • alpha_regularizer: 权重的正则化器。
  • alpha_constraint: 权重的约束。
  • shared_axes: 用于激活函数的共享可学习参数的轴。例如,如果传入的特征图来自一个输出形状为 (batch, height, width, channels) 的 2D 卷积,并且您希望在空间上共享参数,以便每个卷积核只有一个参数集,则将 shared_axes 设置为 [1, 2]
  • **kwargs:基础层关键字参数,例如 namedtype