Публикации по теме 'sequence-to-sequence'
Введение во внимание
Почему и что
Нашим самым большим источником замешательства была «письменность» семоногих. Похоже, что он вообще не писал; это больше походило на набор замысловатых графических дизайнов. Логограммы не были расположены рядами, спиралью или каким-либо линейным образом. Вместо этого Flapper или Raspberry писали предложение, склеивая столько логограмм, сколько нужно, в гигантское скопление.
Эти строки из новеллы Теда Чанга «История вашей жизни» , возможно, дают хорошее..
Интуиция в области нейронных сетей: 4. Коннекционистская временная классификация
Близкие!
Сегодня я собираюсь поговорить о теме, на понимание которой у меня ушло много времени (на самом деле очень много времени), как мотивации использования, так и его работы - Connectionist Temporal Classification (CTC) .
Прежде чем говорить о CTC , давайте сначала разберемся, что такое модели Sequence-to-Sequence :-)
Модели последовательность-последовательность: . Это нейронные сети, которые принимают любую последовательность - символы, слова, пиксели изображения и выдают..
Вопросы по теме 'sequence-to-sequence'
TypeError: невозможно обработать объекты _thread.lock в Seq2Seq
У меня проблемы с использованием ведер в моей модели Tensorflow. Когда я запускаю его с buckets = [(100, 100)] , он работает нормально. Когда я запускаю его с buckets = [(100, 100), (200, 200)] , он вообще не работает (трассировка стека внизу)....
24958 просмотров
schedule
18.02.2022
Tensorflow NotFoundError
Я запускаю собственный код для обучения моей собственной модели Seq2Seq на тензорном потоке. Я использую ячейки multi-rnn и embedding_attention_seq2seq. При восстановлении модели получаю следующую ошибку:
2017-07-14 13:49:13.693612: W...
866 просмотров
schedule
22.07.2022
Tensorflow в C++: успешное чтение буфера протокола для модели декодера кодировщика LSTM
Я отлаживаю эту проблему некоторое время. Я разработал модель кодировщика-декодера LSTM, которую я планирую развернуть на C++.
Сохранив модель в формате файла .pb , я могу импортировать модель и данные и развернуть их в Python. Однако, когда я...
273 просмотров
schedule
23.07.2022
keras pad_sequence для строкового типа данных
У меня есть список предложений. Я хочу добавить к ним отступы; но когда я использую keras pad_sequence следующим образом:
from keras.preprocessing.sequence import pad_sequences
s = [["this", "is", "a", "book"], ["this", "is", "not"]]
g =...
1448 просмотров
schedule
28.08.2022
Прогнозирование многомерной бинарной последовательности с помощью CRF
этот вопрос является расширением этого , который фокусируется на LSTM, а не на CRF . К сожалению, у меня нет опыта работы с CRF, поэтому я задаю эти вопросы.
Проблема:
Я хотел бы предсказать последовательность двоичного сигнала для...
367 просмотров
schedule
06.09.2022
Как построить декодер с использованием динамического rnn в Tensorflow?
Я знаю, как создать кодировщик с использованием динамического rnn в Tensorflow, но мой вопрос в том, как мы можем использовать его для декодера? Потому что в декодер на каждом временном шаге мы должны подавать прогноз предыдущего временного шага....
336 просмотров
schedule
19.04.2023
Как построить кодировщик из загруженной модели в Keras?
У меня есть модель кодировщика-декодера, структура которой такая же, как у machinelearningmastery.com с num_encoder_tokens = 1949 , num_decoder_tokens = 1944 и latent_dim = 2048 .
Я хотел бы построить модели кодировщика и декодера, загрузив...
337 просмотров
schedule
09.10.2023
TensorFlow: номер. эпох против №. шагов обучения
Недавно я экспериментировал с seq2seq от Google, чтобы настроить небольшую систему NMT. Мне удалось заставить все работать, но меня все еще интересует точная разница между количеством эпох и количеством шагов обучения модели.
Если я не ошибаюсь,...
2961 просмотров
schedule
27.04.2024