PReLU 类keras.layers.PReLU(
alpha_initializer="Zeros",
alpha_regularizer=None,
alpha_constraint=None,
shared_axes=None,
**kwargs
)
参数化 ReLU 激活层。
公式
f(x) = alpha * x for x < 0
f(x) = x for x >= 0
其中 alpha 是一个学习到的数组,形状与 x 相同。
参数
(batch, height, width, channels) 的 2D 卷积,并且您希望在空间上共享参数,以便每个卷积核只有一个参数集,则将 shared_axes 设置为 [1, 2]。name 和 dtype。