Keras 3 API 文档 / 层 API / 循环层 / LSTM 单元层

LSTM 单元层

[源代码]

LSTMCell

keras.layers.LSTMCell(
    units,
    activation="tanh",
    recurrent_activation="sigmoid",
    use_bias=True,
    kernel_initializer="glorot_uniform",
    recurrent_initializer="orthogonal",
    bias_initializer="zeros",
    unit_forget_bias=True,
    kernel_regularizer=None,
    recurrent_regularizer=None,
    bias_regularizer=None,
    kernel_constraint=None,
    recurrent_constraint=None,
    bias_constraint=None,
    dropout=0.0,
    recurrent_dropout=0.0,
    seed=None,
    **kwargs
)

LSTM 层的单元类。

此类处理整个时间序列输入中的一个步骤,而 keras.layer.LSTM 处理整个序列。

参数

  • units: 正整数,输出空间的维度。
  • activation: 使用的激活函数。默认值:双曲正切 (tanh)。如果传递 None,则不应用激活函数(即“线性”激活:a(x) = x)。
  • recurrent_activation: 用于循环步骤的激活函数。默认值:sigmoid (sigmoid)。如果传递 None,则不应用激活函数(即“线性”激活:a(x) = x)。
  • use_bias: 布尔值,(默认值 True),指示层是否应该使用偏置向量。
  • kernel_initializer: 用于输入线性变换的 kernel 权重矩阵的初始化器。默认值:"glorot_uniform"
  • recurrent_initializer: 用于循环状态线性变换的 recurrent_kernel 权重矩阵的初始化器。默认值:"orthogonal"
  • bias_initializer: 偏置向量的初始化器。默认值:"zeros"
  • unit_forget_bias: 布尔值(默认值 True)。如果为 True,则在初始化时将遗忘门的偏置加上 1。将其设置为 True 也会强制 bias_initializer="zeros"。这在Jozefowicz 等人中推荐。
  • kernel_regularizer: 应用于 kernel 权重矩阵的正则化函数。默认值:None
  • recurrent_regularizer: 应用于 recurrent_kernel 权重矩阵的正则化函数。默认值:None
  • bias_regularizer: 应用于偏置向量的正则化函数。默认值:None
  • kernel_constraint: 应用于 kernel 权重矩阵的约束函数。默认值:None
  • recurrent_constraint: 应用于 recurrent_kernel 权重矩阵的约束函数。默认值:None
  • bias_constraint: 应用于偏置向量的约束函数。默认值:None
  • dropout: 0 到 1 之间的浮点数。输入线性变换中要丢弃的单元的分数。默认值:0。
  • recurrent_dropout: 0 到 1 之间的浮点数。循环状态线性变换中要丢弃的单元的分数。默认值:0。
  • seed: 丢弃的随机种子。

调用参数

  • inputs: 形状为 (batch, features) 的二维张量。
  • states: 形状为 (batch, units) 的二维张量,它是前一个时间步的状态。
  • training: Python 布尔值,指示层应该处于训练模式还是推理模式。仅当使用 dropoutrecurrent_dropout 时才相关。

示例

>>> inputs = np.random.random((32, 10, 8))
>>> rnn = keras.layers.RNN(keras.layers.LSTMCell(4))
>>> output = rnn(inputs)
>>> output.shape
(32, 4)
>>> rnn = keras.layers.RNN(
...    keras.layers.LSTMCell(4),
...    return_sequences=True,
...    return_state=True)
>>> whole_sequence_output, final_state = rnn(inputs)
>>> whole_sequence_output.shape
(32, 10, 4)
>>> final_state.shape
(32, 4)