GroupNormalization 类tf_keras.layers.GroupNormalization(
groups=32,
axis=-1,
epsilon=0.001,
center=True,
scale=True,
beta_initializer="zeros",
gamma_initializer="ones",
beta_regularizer=None,
gamma_regularizer=None,
beta_constraint=None,
gamma_constraint=None,
**kwargs
)
Group normalization 层。
Group Normalization 将通道划分为组,并在每个组内计算均值和方差进行归一化。经验表明,在一定范围内的小批量大小下,其准确率比 Batch Normalization 更稳定,前提是学习率与批量大小成线性比例调整。
与 Layer Normalization 的关系:如果组的数量设置为 1,则此操作几乎与 Layer Normalization 相同(有关详细信息,请参阅 Layer Normalization 文档)。
与 Instance Normalization 的关系:如果组的数量设置为输入维度(组的数量等于通道的数量),则此操作与 Instance Normalization 相同。
参数
32。-1 是输入的最后一个维度。默认为 -1。beta 的偏移量添加到归一化张量。如果为 False,则忽略 beta。默认为 True。gamma。如果为 False,则不使用 gamma。当下一层是线性的(例如 nn.relu)时,可以禁用此选项,因为缩放将由下一层完成。默认为 True。input_shape(整数元组,不包括样本轴)。 # 输出形状 与输入形状相同。调用参数
参考: - Yuxin Wu & Kaiming He, 2018