LSTM 类tf_keras.layers.LSTM(
units,
activation="tanh",
recurrent_activation="sigmoid",
use_bias=True,
kernel_initializer="glorot_uniform",
recurrent_initializer="orthogonal",
bias_initializer="zeros",
unit_forget_bias=True,
kernel_regularizer=None,
recurrent_regularizer=None,
bias_regularizer=None,
activity_regularizer=None,
kernel_constraint=None,
recurrent_constraint=None,
bias_constraint=None,
dropout=0.0,
recurrent_dropout=0.0,
return_sequences=False,
return_state=False,
go_backwards=False,
stateful=False,
time_major=False,
unroll=False,
**kwargs
)
长短期记忆层 - Hochreiter 1997。
有关 RNN API 用法的详细信息,请参阅 TF-Keras RNN API 指南。
基于可用的运行时硬件和约束,此层将选择不同的实现(基于 cuDNN 或纯 TensorFlow)以最大化性能。如果 GPU 可用且该层的所有参数都符合 cuDNN 内核的要求(有关详细信息,请参见下文),则该层将使用快速的 cuDNN 实现。
使用 cuDNN 实现的要求是
activation == tanhrecurrent_activation == sigmoidrecurrent_dropout 为 0 == 0unroll 为 Falseuse_bias 为 True例如
>>> inputs = tf.random.normal([32, 10, 8])
>>> lstm = tf.keras.layers.LSTM(4)
>>> output = lstm(inputs)
>>> print(output.shape)
(32, 4)
>>> lstm = tf.keras.layers.LSTM(4, return_sequences=True, return_state=True)
>>> whole_seq_output, final_memory_state, final_carry_state = lstm(inputs)
>>> print(whole_seq_output.shape)
(32, 10, 4)
>>> print(final_memory_state.shape)
(32, 4)
>>> print(final_carry_state.shape)
(32, 4)
参数
tanh)。如果传入 None,则不应用激活函数(即“线性”激活函数:a(x) = x)。sigmoid)。如果传入 None,则不应用激活函数(即“线性”激活:a(x) = x)。True),表示该层是否使用偏置向量。kernel 权重矩阵的初始化器。默认值:glorot_uniform。recurrent_kernel 权重矩阵的初始化器。默认值:orthogonal。zeros。True)。如果为 True,则在初始化时在遗忘门(forget gate)的偏置上加 1。设置为 True 也会强制 bias_initializer="zeros"。这在 Jozefowicz 等人 的论文中被推荐。kernel 权重矩阵的正则化函数。默认:None。recurrent_kernel 权重矩阵的正则化函数。默认:None。None。None。kernel 权重矩阵的约束函数。默认:None。recurrent_kernel 权重矩阵的约束函数。默认:None。None。False。False。False)。如果为 True,则向后处理输入序列并返回反转的序列。False)。如果为 True,则批次中索引 i 的每个样本的最后状态将用作下一个批次中索引 i 的样本的初始状态。inputs 和 outputs 张量的形状格式。如果为 True,则输入和输出的形状为 [timesteps, batch, feature],而在 False 的情况下,其形状为 [batch, timesteps, feature]。使用 time_major = True 效率更高一些,因为它避免了 RNN 计算开始和结束时的转置。然而,大多数 TensorFlow 数据是批次主导的,因此默认情况下此函数以批次主导的形式接受输入并发出输出。False)。如果为 True,则网络将被展开,否则将使用符号循环。展开可以加速 RNN,尽管它往往更占用内存。展开仅适用于短序列。调用参数
[batch, timesteps, feature]。[batch, timesteps] 的二进制张量,用于指示是否应屏蔽给定时间步(可选)。单独的 True 条目表示应使用相应的时间步,而 False 条目表示应忽略相应的时间步。默认为 None。dropout 或 recurrent_dropout 时才相关(可选)。默认为 None。None 会创建零填充的初始状态张量)。默认为 None。