RNN 类keras.layers.RNN(
cell,
return_sequences=False,
return_state=False,
go_backwards=False,
stateful=False,
unroll=False,
zero_output_for_mask=False,
**kwargs
)
循环层的基类。
参数
call(input_at_t, states_at_t) 方法,返回 (output_at_t, states_at_t_plus_1)。单元的 call 方法还可以接受可选参数 constants,请参阅下面的“关于传递外部常量”部分。state_size 属性。它可以是单个整数(单个状态),在这种情况下,它就是循环状态的大小。它也可以是整数列表/元组(每个状态的大小)。output_size 属性,单个整数。get_initial_state(batch_size=None) 方法,用于创建应作为初始状态馈送给 call() 的张量,如果用户未通过其他方式指定任何初始状态。返回的初始状态应具有形状 (batch_size, cell.state_size)。单元可能会选择创建一个充满零的张量,或者基于单元实现的而其他值。inputs 是 RNN 层的输入张量,形状为 (batch_size, timesteps, features)。如果单元没有实现此方法,RNN 层将创建一个形状为 (batch_size, cell.state_size) 的全零张量。如果 cell 是 RNN 单元实例的列表,则这些单元将在 RNN 中堆叠在一起,从而形成一个高效的堆叠 RNN。False)。是否返回输出序列中的最后一个输出,还是返回整个序列。False)。是否在输出之外返回最后一个状态。False)。如果为 True,则反向处理输入序列并返回反转后的序列。False)。如果为 True,则一个批次中每个样本的最后一个状态将用作下一个批次中相同索引样本的初始状态。False)。如果为 True,则网络将被展开,否则将使用符号循环。展开可以加速 RNN,尽管它往往更占用内存。展开仅适用于短序列。False)。输出是否应为掩码时间步使用零。请注意,此字段仅在使用 return_sequences 为 True 且提供了 mask 时使用。如果您想在不干扰掩码时间步的情况下重用 RNN 的原始输出序列,例如合并双向 RNN,这可能会很有用。调用参数
(batch_size, timesteps, features) 的 3D 张量。[batch_size, timesteps] 的二进制张量,指示是否应掩码给定的时间步。单个 True 条目表示应使用相应的时间步,而 False 条目表示应忽略相应的时间步。输出形状
return_state:一个张量列表。第一个张量是输出。其余张量是最后一个状态,每个形状为 (batch_size, state_size),其中 state_size 可以是高维张量形状。return_sequences:形状为 (batch_size, timesteps, output_size) 的 3D 张量。掩码
此层支持对具有可变时间步数的输入数据进行掩码。要将掩码引入您的数据,请使用 mask_zero 参数设置为 True 的 keras.layers.Embedding 层。
关于 RNN 中状态性的注意事项
您可以将 RNN 层设置为“stateful”(有状态),这意味着为一个批次中的样本计算的状态将用作下一个批次中相同样本的初始状态。这假设不同连续批次中的样本之间存在一对一的映射。
启用状态性
stateful=True。batch_size=... 传递给模型的 Input 层。请记住,在调用 fit() 时也指定相同的 batch_size=...,或者使用生成器类的数据源,如 keras.utils.PyDataset 或 tf.data.Dataset。fit() 时指定 shuffle=False,因为您的批次应按时间顺序排列。要重置模型的状态,请在特定层或整个模型上调用 .reset_state()。
关于指定 RNN 初始状态的注意事项
您可以通过将关键字参数 initial_state 传递给 RNN 层来以符号方式指定其初始状态。initial_state 的值应为表示 RNN 层初始状态的张量或张量列表。
您可以通过调用 reset_state() 并传递关键字参数 states 来以数值方式指定 RNN 层的初始状态。states 的值应为表示 RNN 层初始状态的 numpy 数组或 numpy 数组列表。
示例
from keras.layers import RNN
from keras import ops
# First, let's define a RNN Cell, as a layer subclass.
class MinimalRNNCell(keras.Layer):
def __init__(self, units, **kwargs):
super().__init__(**kwargs)
self.units = units
self.state_size = units
def build(self, input_shape):
self.kernel = self.add_weight(shape=(input_shape[-1], self.units),
initializer='uniform',
name='kernel')
self.recurrent_kernel = self.add_weight(
shape=(self.units, self.units),
initializer='uniform',
name='recurrent_kernel')
def call(self, inputs, states):
prev_output = states[0]
h = ops.matmul(inputs, self.kernel)
output = h + ops.matmul(prev_output, self.recurrent_kernel)
return output, [output]
# Let's use this cell in a RNN layer:
cell = MinimalRNNCell(32)
x = keras.Input((None, 5))
layer = RNN(cell)
y = layer(x)
# Here's how to use the cell to build a stacked RNN:
cells = [MinimalRNNCell(32), MinimalRNNCell(64)]
x = keras.Input((None, 5))
layer = RNN(cells)
y = layer(x)