GRU 层

[源代码]

GRU

tf_keras.layers.GRU(
    units,
    activation="tanh",
    recurrent_activation="sigmoid",
    use_bias=True,
    kernel_initializer="glorot_uniform",
    recurrent_initializer="orthogonal",
    bias_initializer="zeros",
    kernel_regularizer=None,
    recurrent_regularizer=None,
    bias_regularizer=None,
    activity_regularizer=None,
    kernel_constraint=None,
    recurrent_constraint=None,
    bias_constraint=None,
    dropout=0.0,
    recurrent_dropout=0.0,
    return_sequences=False,
    return_state=False,
    go_backwards=False,
    stateful=False,
    unroll=False,
    time_major=False,
    reset_after=True,
    **kwargs
)

门控循环单元 - Cho et al. 2014。

有关 RNN API 用法的详细信息,请参阅 TF-Keras RNN API 指南

基于可用的运行时硬件和约束,该层将选择不同的实现(基于cuDNN或纯TensorFlow)以最大化性能。如果GPU可用且层的参数满足cuDNN核的要求(详情请参阅下方),则该层将使用快速的cuDNN实现。

使用 cuDNN 实现的要求是

  1. activation == tanh
  2. recurrent_activation == sigmoid
  3. recurrent_dropout 为 0 == 0
  4. unrollFalse
  5. use_biasTrue
  6. reset_afterTrue
  7. 输入(如果使用掩码)严格进行右填充。
  8. 在最外层上下文中启用 Eager execution。

GRU 实现有两种变体。默认版本基于 v3,并在矩阵乘法之前应用重置门。另一个版本基于 原始 版本,顺序相反。

第二个变体与 CuDNNGRU(仅限 GPU)兼容,并允许在 CPU 上进行推理。因此,它为 kernelrecurrent_kernel 提供了单独的偏置。要使用此变体,请设置 reset_after=Truerecurrent_activation='sigmoid'

例如

>>> inputs = tf.random.normal([32, 10, 8])
>>> gru = tf.keras.layers.GRU(4)
>>> output = gru(inputs)
>>> print(output.shape)
(32, 4)
>>> gru = tf.keras.layers.GRU(4, return_sequences=True, return_state=True)
>>> whole_sequence_output, final_state = gru(inputs)
>>> print(whole_sequence_output.shape)
(32, 10, 4)
>>> print(final_state.shape)
(32, 4)

参数

  • units:正整数,输出空间的维度。
  • activation:要使用的激活函数。默认值:双曲正切(tanh)。如果传入 None,则不应用激活函数(即“线性”激活函数:a(x) = x)。
  • recurrent_activation:用于循环步骤的激活函数。默认:sigmoid (sigmoid)。如果传入 None,则不应用激活函数(即“线性”激活:a(x) = x)。
  • use_bias: 布尔值(默认 True),表示该层是否使用偏置向量。
  • kernel_initializer:用于线性变换输入的 kernel 权重矩阵的初始化器。默认值:glorot_uniform
  • recurrent_initializer:用于循环状态线性变换的 recurrent_kernel 权重矩阵的初始化器。默认值:orthogonal
  • bias_initializer:偏置向量的初始化器。默认值:zeros
  • kernel_regularizer:应用于 kernel 权重矩阵的正则化函数。默认:None
  • recurrent_regularizer:应用于 recurrent_kernel 权重矩阵的正则化函数。默认:None
  • bias_regularizer:应用于偏差向量的正则化函数。默认:None
  • activity_regularizer:应用于层输出(其“激活”)的正则化函数。默认值:None
  • kernel_constraint:应用于 kernel 权重矩阵的约束函数。默认:None
  • recurrent_constraint:应用于 recurrent_kernel 权重矩阵的约束函数。默认:None
  • bias_constraint:应用于偏差向量的约束函数。默认:None
  • dropout:介于 0 和 1 之间的浮点数。用于输入线性变换的单位丢弃比例。默认:0。
  • recurrent_dropout:介于 0 和 1 之间的浮点数。用于循环状态线性变换的单位丢弃比例。默认:0。
  • return_sequences:布尔值。是否返回输出序列中的最后一个输出,还是返回整个序列。默认值:False
  • return_state:布尔值。除了输出之外,是否返回最后一个状态。默认值:False
  • go_backwards: 布尔值(默认为 False)。如果为 True,则向后处理输入序列并返回反转的序列。
  • stateful:布尔值(默认 False)。如果为 True,则批处理中索引 i 的每个样本的最后一个状态将用作下一个批处理中索引 i 的样本的初始状态。
  • unroll:布尔值(默认 False)。如果为 True,则网络将被展开,否则将使用符号循环。展开可以加速 RNN,但通常更占用内存。展开仅适用于短序列。
  • time_majorinputsoutputs 张量的形状格式。如果为 True,则输入和输出的形状为 [timesteps, batch, feature],而在 False 的情况下,形状为 [batch, timesteps, feature]。使用 time_major = True 效率稍高,因为它避免了 RNN 计算开始和结束时的转置。然而,大多数 TensorFlow 数据是批次主导的,因此默认情况下此函数接受批次主导形式的输入并发出批次主导形式的输出。
  • reset_after:GRU 约定(是在矩阵乘法之前还是之后应用重置门)。False = “之前”,True = “之后”(默认值且兼容 cuDNN)。

调用参数

  • inputs:一个三维张量,形状为 [batch, timesteps, feature]
  • mask:形状为 [samples, timesteps] 的二进制张量,指示给定时间步是否应被屏蔽(可选)。单个 True 条目表示相应的时序应被使用,而 False 条目表示相应的时序应被忽略。默认为 None
  • training:布尔值,指示该层应在训练模式还是推理模式下运行。此参数在调用 cell 时传递给 cell。仅在使用了 dropoutrecurrent_dropout 时才相关(可选)。默认为 None
  • initial_state:初始状态张量列表,在第一次调用单元时传递(可选,None 会创建零填充的初始状态张量)。默认为 None