Я работаю над проблемой машинного перевода. Я использую следующую модель:
Model = Sequential([
Embedding(english_vocab_size, 256, input_length=english_max_len, mask_zero=True),
LSTM(256, activation='relu'),
RepeatVector(german_max_len),
LSTM(256, activation='relu', return_sequences=True),
Dense(german_vocab_size, activation='softmax')
])
Здесь english_vocab_size
и english_max_len
- общее количество английских слов в английском словаре и количество слов в каждом английском предложении соответственно. То же самое с german_vocab_size
и german_max_len
.
Теперь, как я могу добавить слой tf.keras.layers.AdditiveAttention
в эту модель?
Изменить - Я много пытался найти хорошие руководства по реализации слоя tf.keras.layers.AdditiveAttention
в задаче nlp, но не нашел ни одного. Итак, я думаю, что если бы кто-нибудь мог объяснить, как я могу поместить слой tf.keras.layers.AdditiveAttention
в эту модель, этот человек будет первым, кто даст очень четкое объяснение того, как использовать tf.keras.layers.AdditiveAttention
, поскольку тогда это будет очень четкая реализация того, как использовать tf.keras.layers.AdditiveAttention
слой!