PReLU
类keras.layers.PReLU(
alpha_initializer="Zeros",
alpha_regularizer=None,
alpha_constraint=None,
shared_axes=None,
**kwargs
)
参数化整流线性单元激活层。
公式
f(x) = alpha * x for x < 0
f(x) = x for x >= 0
其中 alpha
是一个与 x 形状相同的学习数组。
参数
(batch, height, width, channels)
的二维卷积,并且希望跨空间共享参数,以便每个滤波器只有一组参数,则设置 shared_axes=[1, 2]
。name
和 dtype
。