LSTM 层

[源]

LSTM

tf_keras.layers.LSTM(
    units,
    activation="tanh",
    recurrent_activation="sigmoid",
    use_bias=True,
    kernel_initializer="glorot_uniform",
    recurrent_initializer="orthogonal",
    bias_initializer="zeros",
    unit_forget_bias=True,
    kernel_regularizer=None,
    recurrent_regularizer=None,
    bias_regularizer=None,
    activity_regularizer=None,
    kernel_constraint=None,
    recurrent_constraint=None,
    bias_constraint=None,
    dropout=0.0,
    recurrent_dropout=0.0,
    return_sequences=False,
    return_state=False,
    go_backwards=False,
    stateful=False,
    time_major=False,
    unroll=False,
    **kwargs
)

长短期记忆层 (LSTM) - Hochreiter 1997。

有关 RNN API 用法的详细信息,请参阅TF-Keras RNN API 指南

基于可用的运行时硬件和约束条件,此层将选择不同的实现(基于 cuDNN 或纯 TensorFlow)以最大化性能。如果 GPU 可用并且该层的所有参数都满足 cuDNN 内核的要求(详见下文),该层将使用快速的 cuDNN 实现。

使用 cuDNN 实现的要求如下:

  1. activation == tanh
  2. recurrent_activation == sigmoid
  3. recurrent_dropout == 0
  4. unrollFalse
  5. use_biasTrue
  6. 输入(如果使用掩码)必须严格右填充。
  7. 在最外层上下文启用了 Eager execution。

例如

>>> inputs = tf.random.normal([32, 10, 8])
>>> lstm = tf.keras.layers.LSTM(4)
>>> output = lstm(inputs)
>>> print(output.shape)
(32, 4)
>>> lstm = tf.keras.layers.LSTM(4, return_sequences=True, return_state=True)
>>> whole_seq_output, final_memory_state, final_carry_state = lstm(inputs)
>>> print(whole_seq_output.shape)
(32, 10, 4)
>>> print(final_memory_state.shape)
(32, 4)
>>> print(final_carry_state.shape)
(32, 4)

参数

  • units: 正整数,输出空间的维度。
  • activation: 要使用的激活函数。默认值:双曲正切 (tanh)。如果传入 None,则不应用任何激活函数(即“线性”激活:a(x) = x)。
  • recurrent_activation: 用于循环步长的激活函数。默认值:sigmoid (sigmoid)。如果传入 None,则不应用任何激活函数(即“线性”激活:a(x) = x)。
  • use_bias: 布尔值(默认值 True),指示层是否使用偏置向量。
  • kernel_initializer: kernel 权重矩阵的初始化器,用于输入的线性变换。默认值:glorot_uniform
  • recurrent_initializer: recurrent_kernel 权重矩阵的初始化器,用于循环状态的线性变换。默认值:orthogonal
  • bias_initializer: 偏置向量的初始化器。默认值:zeros
  • unit_forget_bias: 布尔值(默认值 True)。如果为 True,则在初始化时为遗忘门的偏置添加 1。将其设为 True 还会强制设置 bias_initializer="zeros"。Jozefowicz 等人的研究推荐此做法(见 此处)。
  • kernel_regularizer: 应用于 kernel 权重矩阵的正则化函数。默认值:None
  • recurrent_regularizer: 应用于 recurrent_kernel 权重矩阵的正则化函数。默认值:None
  • bias_regularizer: 应用于偏置向量的正则化函数。默认值:None
  • activity_regularizer: 应用于层输出(其“激活”)的正则化函数。默认值:None
  • kernel_constraint: 应用于 kernel 权重矩阵的约束函数。默认值:None
  • recurrent_constraint: 应用于 recurrent_kernel 权重矩阵的约束函数。默认值:None
  • bias_constraint: 应用于偏置向量的约束函数。默认值:None
  • dropout: 介于 0 和 1 之间的浮点数。输入线性变换中要丢弃的单元比例。默认值:0。
  • recurrent_dropout: 介于 0 和 1 之间的浮点数。循环状态线性变换中要丢弃的单元比例。默认值:0。
  • return_sequences: 布尔值。是否返回输出序列中的最后一个输出或整个序列。默认值:False
  • return_state: 布尔值。是否在输出之外返回最后一个状态。默认值:False
  • go_backwards: 布尔值(默认值 False)。如果为 True,则反向处理输入序列并返回反向序列。
  • stateful: 布尔值(默认值 False)。如果为 True,则一个 batch 中索引为 i 的每个样本的最后一个状态将用作下一个 batch 中索引为 i 的样本的初始状态。
  • time_major: inputsoutputs 张量的形状格式。如果为 True,输入和输出的形状将是 [timesteps, batch, feature],否则将是 [batch, timesteps, feature]。使用 time_major = True 会更有效率,因为它避免了 RNN 计算开始和结束时的转置操作。然而,大多数 TensorFlow 数据是 batch-major 格式的,因此默认情况下,此函数接受 batch-major 格式的输入并输出 batch-major 格式的结果。
  • unroll: 布尔值(默认值 False)。如果为 True,网络将展开(unroll),否则将使用符号循环。展开可以加速 RNN 计算,但往往会占用更多内存。展开仅适用于短序列。

调用参数

  • inputs: 形状为 [batch, timesteps, feature] 的 3D 张量。
  • mask: 形状为 [batch, timesteps] 的二进制张量,指示是否应屏蔽给定时间步长(可选)。单个 True 条目表示应使用相应的时间步长,而 False 条目表示应忽略相应的时间步长。默认值:None
  • training: Python 布尔值,指示层应在训练模式还是推理模式下运行。此参数在调用 cell 时传递给它。这仅在使用 dropoutrecurrent_dropout 时相关(可选)。默认值:None
  • initial_state: 要传递给 cell 首次调用的初始状态张量列表(可选,None 会创建填充零的初始状态张量)。默认值:None