Keras 3 API 文档 / 层 API / 循环层 / ConvLSTM3D 层

ConvLSTM3D 层

[源代码]

ConvLSTM3D

keras.layers.ConvLSTM3D(
    filters,
    kernel_size,
    strides=1,
    padding="valid",
    data_format=None,
    dilation_rate=1,
    activation="tanh",
    recurrent_activation="sigmoid",
    use_bias=True,
    kernel_initializer="glorot_uniform",
    recurrent_initializer="orthogonal",
    bias_initializer="zeros",
    unit_forget_bias=True,
    kernel_regularizer=None,
    recurrent_regularizer=None,
    bias_regularizer=None,
    activity_regularizer=None,
    kernel_constraint=None,
    recurrent_constraint=None,
    bias_constraint=None,
    dropout=0.0,
    recurrent_dropout=0.0,
    seed=None,
    return_sequences=False,
    return_state=False,
    go_backwards=False,
    stateful=False,
    **kwargs
)

三维卷积 LSTM。

类似于 LSTM 层,但输入变换和循环变换都是卷积。

参数

  • filters: 整数,输出空间的维度(卷积中的过滤器数量)。
  • kernel_size: 整数或包含 3 个整数的元组/列表,指定卷积窗口的大小。
  • strides: 整数或包含 3 个整数的元组/列表,指定卷积的步长。strides > 1dilation_rate > 1 不兼容。
  • padding: 字符串,"valid""same"(不区分大小写)。"valid" 表示不填充。"same" 会导致在输入的左右或上下均匀填充,以便输出具有与输入相同的宽高维度。
  • data_format: 字符串,"channels_last""channels_first"。输入中维度的顺序。"channels_last" 对应于形状为 (batch, steps, features) 的输入,而 "channels_first" 对应于形状为 (batch, features, steps) 的输入。它默认为在 Keras 配置文件 ~/.keras/keras.json 中找到的 image_data_format 值。如果你从未设置它,那么它将是 "channels_last"
  • dilation_rate: 整数或包含 3 个整数的元组/列表,指定用于膨胀卷积的膨胀率。
  • activation: 要使用的激活函数。默认情况下应用双曲正切激活函数 (tanh(x))。
  • recurrent_activation: 用于循环步骤的激活函数。
  • use_bias: 布尔值,指示层是否使用偏置向量。
  • kernel_initializer: 用于输入线性变换的 kernel 权重矩阵的初始化器。
  • recurrent_initializer: 用于循环状态线性变换的 recurrent_kernel 权重矩阵的初始化器。
  • bias_initializer: 偏置向量的初始化器。
  • unit_forget_bias: 布尔值。如果 True,则在初始化时将 1 添加到遗忘门的偏置。与 bias_initializer="zeros" 结合使用。这在 Jozefowicz 等人,2015 中推荐。
  • kernel_regularizer: 应用于 kernel 权重矩阵的正则化函数。
  • recurrent_regularizer: 应用于 recurrent_kernel 权重矩阵的正则化函数。
  • bias_regularizer: 应用于偏置向量的正则化函数。
  • activity_regularizer: 应用于的正则化函数。
  • kernel_constraint: 应用于 kernel 权重矩阵的约束函数。
  • recurrent_constraint: 应用于 recurrent_kernel 权重矩阵的约束函数。
  • bias_constraint: 应用于偏置向量的约束函数。
  • dropout: 0 到 1 之间的浮点数。输入线性变换中要丢弃的单元的分数。
  • recurrent_dropout: 0 到 1 之间的浮点数。循环状态线性变换中要丢弃的单元的分数。
  • seed: 丢弃的随机种子。
  • return_sequences: 布尔值。是否返回输出序列中的最后一个输出,或返回完整的序列。默认值:False
  • return_state: 布尔值。是否除了输出之外还要返回最后一个状态。默认值:False
  • go_backwards: 布尔值(默认值:False)。如果 True,则反向处理输入序列并返回反转后的序列。
  • stateful: 布尔值(默认值 False)。如果 True,则批次中索引为 i 的每个样本的最后一个状态将用作后续批次中索引为 i 的样本的初始状态。
  • unroll: 布尔值(默认值:False)。如果 True,则网络将被展开,否则将使用符号循环。展开可以加快 RNN 的速度,尽管它往往更占用内存。展开仅适用于短序列。

调用参数

  • inputs: 一个 6D 张量。
  • mask: 形状为 (samples, timesteps) 的二进制张量,指示是否应该屏蔽给定的时间步长。
  • training: Python 布尔值,指示层应该在训练模式下还是推理模式下运行。这仅在设置了 dropoutrecurrent_dropout 时才相关。
  • initial_state: 要传递到单元第一次调用的初始状态张量的列表。

输入形状

  • 如果 data_format='channels_first':5D 张量,形状为:(samples, time, channels, *spatial_dims)
  • 如果 data_format='channels_last':5D 张量,形状为:(samples, time, *spatial_dims, channels)

输出形状

  • 如果 return_state:张量列表。第一个张量是输出。其余张量是最后一个状态,每个 4D 张量的形状为:如果 data_format='channels_first' 则为 (samples, filters, *spatial_dims),如果 data_format='channels_last' 则为 (samples, *spatial_dims, filters)
  • 如果 return_sequences:5D 张量,形状为:如果 data_format='channels_first' 则为 (samples, timesteps, filters, *spatial_dims),如果 data_format='channels_last' 则为 (samples, timesteps, *spatial_dims, filters)
  • 否则,4D 张量,形状为:如果 data_format='channels_first' 则为 (samples, filters, *spatial_dims),如果 data_format='channels_last' 则为 (samples, *spatial_dims, filters)

参考文献