LSTM
类keras.layers.LSTM(
units,
activation="tanh",
recurrent_activation="sigmoid",
use_bias=True,
kernel_initializer="glorot_uniform",
recurrent_initializer="orthogonal",
bias_initializer="zeros",
unit_forget_bias=True,
kernel_regularizer=None,
recurrent_regularizer=None,
bias_regularizer=None,
activity_regularizer=None,
kernel_constraint=None,
recurrent_constraint=None,
bias_constraint=None,
dropout=0.0,
recurrent_dropout=0.0,
seed=None,
return_sequences=False,
return_state=False,
go_backwards=False,
stateful=False,
unroll=False,
use_cudnn="auto",
**kwargs
)
长短期记忆层 - Hochreiter 1997。
根据可用的运行时硬件和约束,此层将选择不同的实现(基于 cuDNN 或后端本地)以最大限度地提高性能。如果存在 GPU,并且层的所有参数都满足 cuDNN 内核的要求(有关详细信息,请参见下文),则在使用 TensorFlow 后端时,层将使用快速 cuDNN 实现。使用 cuDNN 实现的要求是
activation
== tanh
recurrent_activation
== sigmoid
dropout
== 0 且 recurrent_dropout
== 0unroll
为 False
use_bias
为 True
例如
>>> inputs = np.random.random((32, 10, 8))
>>> lstm = keras.layers.LSTM(4)
>>> output = lstm(inputs)
>>> output.shape
(32, 4)
>>> lstm = keras.layers.LSTM(
... 4, return_sequences=True, return_state=True)
>>> whole_seq_output, final_memory_state, final_carry_state = lstm(inputs)
>>> whole_seq_output.shape
(32, 10, 4)
>>> final_memory_state.shape
(32, 4)
>>> final_carry_state.shape
(32, 4)
参数
tanh
)。如果您传递 None
,则不应用任何激活(即“线性”激活:a(x) = x
)。sigmoid
)。如果您传递 None
,则不应用任何激活(即“线性”激活:a(x) = x
)。True
),层是否应使用偏置向量。kernel
权重矩阵的初始化器。默认值:"glorot_uniform"
。recurrent_kernel
权重矩阵的初始化器。默认值:"orthogonal"
。"zeros"
。True
)。如果为 True
,则在初始化时将 1 添加到遗忘门的偏置。将其设置为 True
还将强制 bias_initializer="zeros"
。这在 Jozefowicz 等人 中推荐。kernel
权重矩阵的正则化函数。默认值:None
。recurrent_kernel
权重矩阵的正则化函数。默认值:None
。None
。None
。kernel
权重矩阵的约束函数。默认值:None
。recurrent_kernel
权重矩阵的约束函数。默认值:None
。None
。False
。False
。False
)。如果为 True
,则反向处理输入序列并返回反转的序列。False
)。如果为 True
,则批次中索引 i 处每个样本的最后一个状态将用作后续批次中索引 i 处样本的初始状态。True
,则网络将被展开,否则将使用符号循环。展开可以加快 RNN 的速度,尽管它往往会占用更多内存。展开只适用于短序列。"auto"
将尝试在可行时使用 cuDNN,如果不可行,则将回退到默认实现。调用参数
(batch, timesteps, feature)
的 3D 张量。(samples, timesteps)
的二元张量,指示是否应屏蔽给定时间步(可选)。单个 True
条目表示应使用相应的时间步,而 False
条目表示应忽略相应的时间步。默认为 None
。dropout
或 recurrent_dropout
时才相关(可选)。默认为 None
。None
将导致创建零填充的初始状态张量)。默认为 None
。