TokenAndPositionEmbedding
类keras_nlp.layers.TokenAndPositionEmbedding(
vocabulary_size,
sequence_length,
embedding_dim,
tie_weights=True,
embeddings_initializer="uniform",
mask_zero=False,
**kwargs
)
一个将词元嵌入和位置嵌入相加的层。
词元嵌入和位置嵌入是表示句子中的词语及其顺序的方式。此层创建了一个 keras.layers.Embedding
词元嵌入和一个 keras_nlp.layers.PositionEmbedding
位置嵌入,并在调用时将它们的输出相加。此层假设输入中的最后一个维度对应于序列维度。
参数
reverse
投影矩阵共享相同的权重。mask_zero
设置为 True,那么词汇表中索引 0 将无法使用(input_dim
应该等于词汇表大小加 1)。keras.layers.Layer
的其他关键字参数,包括name
、trainable
、dtype
等。示例
inputs = np.ones(shape=(1, 50), dtype="int32")
embedding_layer = keras_nlp.layers.TokenAndPositionEmbedding(
vocabulary_size=10_000,
sequence_length=50,
embedding_dim=128,
)
outputs = embedding_layer(inputs)