SimpleRNN 类tf_keras.layers.SimpleRNN(
units,
activation="tanh",
use_bias=True,
kernel_initializer="glorot_uniform",
recurrent_initializer="orthogonal",
bias_initializer="zeros",
kernel_regularizer=None,
recurrent_regularizer=None,
bias_regularizer=None,
activity_regularizer=None,
kernel_constraint=None,
recurrent_constraint=None,
bias_constraint=None,
dropout=0.0,
recurrent_dropout=0.0,
return_sequences=False,
return_state=False,
go_backwards=False,
stateful=False,
unroll=False,
**kwargs
)
全连接 RNN,其输出会反馈给输入。
有关 RNN API 用法的详细信息,请参阅TF-Keras RNN API 指南。
参数
tanh)。如果传入 None,则不应用激活(即:“线性”激活:a(x) = x)。True),表示该层是否使用偏置向量。kernel 权重矩阵的初始化器,用于输入的线性变换。默认值:glorot_uniform。recurrent_kernel 权重矩阵的初始化器,用于循环状态的线性变换。默认值:orthogonal。zeros。kernel 权重矩阵的正则化函数。默认值:None。recurrent_kernel 权重矩阵的正则化函数。默认值:None。None。None。kernel 权重矩阵的约束函数。默认值:None。recurrent_kernel 权重矩阵的约束函数。默认值:None。None。False。False调用参数
[batch, timesteps, feature]。[batch, timesteps] 的二元张量,指示是否应屏蔽给定时间步。单个 True 条目表示应利用相应时间步,而 False 条目表示应忽略相应时间步。dropout 或 recurrent_dropout 时才相关。示例
inputs = np.random.random([32, 10, 8]).astype(np.float32)
simple_rnn = tf.keras.layers.SimpleRNN(4)
output = simple_rnn(inputs) # The output has shape `[32, 4]`.
simple_rnn = tf.keras.layers.SimpleRNN(
4, return_sequences=True, return_state=True)
# whole_sequence_output has shape `[32, 10, 4]`.
# final_state has shape `[32, 4]`.
whole_sequence_output, final_state = simple_rnn(inputs)