PReLU
类tf_keras.layers.PReLU(
alpha_initializer="zeros",
alpha_regularizer=None,
alpha_constraint=None,
shared_axes=None,
**kwargs
)
带参数修正线性单元。
它遵循以下公式:
f(x) = alpha * x for x < 0
f(x) = x for x >= 0
其中 alpha
是一个与 x 具有相同形状的可学习数组。
输入形状
任意形状。当将此层用作模型中的第一层时,请使用关键字参数 input_shape
(整数元组,不包括样本轴)。
输出形状
与输入具有相同的形状。
参数
(batch, height, width, channels)
的 2D 卷积,并且您希望跨空间共享参数,以便每个滤波器只有一组参数,则设置 shared_axes=[1, 2]
。