Keras 3 API文档 / 层API / 循环层 / ConvLSTM1D层

ConvLSTM1D 层

[源代码]

ConvLSTM1D

keras.layers.ConvLSTM1D(
    filters,
    kernel_size,
    strides=1,
    padding="valid",
    data_format=None,
    dilation_rate=1,
    activation="tanh",
    recurrent_activation="sigmoid",
    use_bias=True,
    kernel_initializer="glorot_uniform",
    recurrent_initializer="orthogonal",
    bias_initializer="zeros",
    unit_forget_bias=True,
    kernel_regularizer=None,
    recurrent_regularizer=None,
    bias_regularizer=None,
    activity_regularizer=None,
    kernel_constraint=None,
    recurrent_constraint=None,
    bias_constraint=None,
    dropout=0.0,
    recurrent_dropout=0.0,
    seed=None,
    return_sequences=False,
    return_state=False,
    go_backwards=False,
    stateful=False,
    **kwargs
)

1D 卷积 LSTM。

与 LSTM 层类似,但输入变换和循环变换都是卷积的。

参数

  • filters:int,输出空间的维度(卷积中的过滤器数量)。
  • kernel_size: int 或包含1个整数的元组/列表,指定卷积窗口的大小。
  • strides:int 或 1 个整数的元组/列表,指定卷积的步长。strides > 1dilation_rate > 1 不兼容。
  • padding: string,"valid""same"(不区分大小写)。"valid" 表示不填充。"same" 会在输入的左/右或上/下均匀填充,使输出具有与输入相同的 height/width 维度。
  • data_format: string,可以是 "channels_last""channels_first"。输入中的维度顺序。"channels_last" 对应形状为 (batch, steps, features) 的输入,而 "channels_first" 对应形状为 (batch, features, steps) 的输入。它默认为 Keras 配置文件 ~/.keras/keras.json 中的 image_data_format 值。如果从未设置过,则默认为 "channels_last"
  • dilation_rate:int 或 1 个整数的元组/列表,指定用于扩张卷积的扩张率。
  • activation:要使用的激活函数。默认应用双曲正切激活函数 (tanh(x))。
  • recurrent_activation:用于循环步骤的激活函数。
  • use_bias:布尔值,表示该层是否使用偏置向量。
  • kernel_initializerkernel 权重矩阵的初始化器,用于输入的线性变换。
  • recurrent_initializerrecurrent_kernel 权重矩阵的初始化器,用于循环状态的线性变换。
  • bias_initializer:偏置向量的初始化器。
  • unit_forget_bias: Boolean。如果为 True,则在初始化时在遗忘门(forget gate)的偏置项上加 1。与 bias_initializer="zeros" 结合使用。此方法推荐在 Jozefowicz 等人,2015 中使用。
  • kernel_regularizer:应用于 kernel 权重矩阵的正则化函数。
  • recurrent_regularizer:应用于 recurrent_kernel 权重矩阵的正则化函数。
  • bias_regularizer:应用于偏置向量的正则化函数。
  • activity_regularizer:应用于输出的正则化函数。
  • kernel_constraint:应用于 kernel 权重矩阵的约束函数。
  • recurrent_constraint:应用于 recurrent_kernel 权重矩阵的约束函数。
  • bias_constraint:应用于偏置向量的约束函数。
  • dropout:介于 0 和 1 之间的浮点数。用于输入线性变换的单元丢弃率。
  • recurrent_dropout:介于 0 和 1 之间的浮点数。用于循环状态线性变换的单元丢弃率。
  • seed:丢弃层的随机种子。
  • return_sequences:布尔值。是否返回输出序列中的最后一个输出,还是返回整个序列。默认值:False
  • return_state:布尔值。除了输出之外,是否返回最后一个状态。默认值:False
  • go_backwards:布尔值(默认值:False)。如果为 True,则反向处理输入序列并返回反向序列。
  • stateful:布尔值(默认值:False)。如果为 True,则批次中索引 i 处每个样本的最后一个状态将用作下一个批次中索引 i 处样本的初始状态。
  • unroll: Boolean(默认:False)。如果为 True,网络将被展开,否则将使用符号循环。展开可以加速 RNN,但通常会消耗更多内存。展开仅适用于短序列。

调用参数

  • inputs:一个 4D 张量。
  • initial_state:要传递给单元第一次调用的初始状态张量列表。
  • mask:形状为 (samples, timesteps) 的二进制张量,指示给定时间步是否应被掩码。
  • training:Python 布尔值,指示层应在训练模式下还是在推断模式下运行。这仅在设置了 dropoutrecurrent_dropout 时相关。

输入形状

  • 如果 data_format="channels_first": 4D 张量,形状为:(samples, time, channels, rows)
  • 如果 data_format="channels_last": 4D 张量,形状为:(samples, time, rows, channels)

输出形状

  • 如果 return_state: 一个张量列表。第一个张量是输出。剩余的张量是最后的状态,每个都是3D张量,形状为:(samples, filters, new_rows) (如果 data_format='channels_first') 或形状为:(samples, new_rows, filters) (如果 data_format='channels_last')。由于填充,rows 的值可能会发生变化。
  • 如果 return_sequences: 4D 张量,形状为:(samples, timesteps, filters, new_rows) (如果 data_format='channels_first') 或形状为:(samples, timesteps, new_rows, filters) (如果 data_format='channels_last')。
  • 否则,3D 张量,形状为:(samples, filters, new_rows) (如果 data_format='channels_first') 或形状为:(samples, new_rows, filters) (如果 data_format='channels_last')。

参考文献