Публикации по теме 'sequence-to-sequence'


Введение во внимание
Почему и что Нашим самым большим источником замешательства была «письменность» семоногих. Похоже, что он вообще не писал; это больше походило на набор замысловатых графических дизайнов. Логограммы не были расположены рядами, спиралью или каким-либо линейным образом. Вместо этого Flapper или Raspberry писали предложение, склеивая столько логограмм, сколько нужно, в гигантское скопление. Эти строки из новеллы Теда Чанга «История вашей жизни» , возможно, дают хорошее..

Интуиция в области нейронных сетей: 4. Коннекционистская временная классификация
Близкие! Сегодня я собираюсь поговорить о теме, на понимание которой у меня ушло много времени (на самом деле очень много времени), как мотивации использования, так и его работы - Connectionist Temporal Classification (CTC) . Прежде чем говорить о CTC , давайте сначала разберемся, что такое модели Sequence-to-Sequence :-) Модели последовательность-последовательность: . Это нейронные сети, которые принимают любую последовательность - символы, слова, пиксели изображения и выдают..

Вопросы по теме 'sequence-to-sequence'

TypeError: невозможно обработать объекты _thread.lock в Seq2Seq
У меня проблемы с использованием ведер в моей модели Tensorflow. Когда я запускаю его с buckets = [(100, 100)] , он работает нормально. Когда я запускаю его с buckets = [(100, 100), (200, 200)] , он вообще не работает (трассировка стека внизу)....
24958 просмотров

Tensorflow NotFoundError
Я запускаю собственный код для обучения моей собственной модели Seq2Seq на тензорном потоке. Я использую ячейки multi-rnn и embedding_attention_seq2seq. При восстановлении модели получаю следующую ошибку: 2017-07-14 13:49:13.693612: W...
866 просмотров
schedule 22.07.2022

Tensorflow в C++: успешное чтение буфера протокола для модели декодера кодировщика LSTM
Я отлаживаю эту проблему некоторое время. Я разработал модель кодировщика-декодера LSTM, которую я планирую развернуть на C++. Сохранив модель в формате файла .pb , я могу импортировать модель и данные и развернуть их в Python. Однако, когда я...
273 просмотров

keras pad_sequence для строкового типа данных
У меня есть список предложений. Я хочу добавить к ним отступы; но когда я использую keras pad_sequence следующим образом: from keras.preprocessing.sequence import pad_sequences s = [["this", "is", "a", "book"], ["this", "is", "not"]] g =...
1448 просмотров
schedule 28.08.2022

Прогнозирование многомерной бинарной последовательности с помощью CRF
этот вопрос является расширением этого , который фокусируется на LSTM, а не на CRF . К сожалению, у меня нет опыта работы с CRF, поэтому я задаю эти вопросы. Проблема: Я хотел бы предсказать последовательность двоичного сигнала для...
367 просмотров

Как построить декодер с использованием динамического rnn в Tensorflow?
Я знаю, как создать кодировщик с использованием динамического rnn в Tensorflow, но мой вопрос в том, как мы можем использовать его для декодера? Потому что в декодер на каждом временном шаге мы должны подавать прогноз предыдущего временного шага....
336 просмотров

Как построить кодировщик из загруженной модели в Keras?
У меня есть модель кодировщика-декодера, структура которой такая же, как у machinelearningmastery.com с num_encoder_tokens = 1949 , num_decoder_tokens = 1944 и latent_dim = 2048 . Я хотел бы построить модели кодировщика и декодера, загрузив...
337 просмотров

TensorFlow: номер. эпох против №. шагов обучения
Недавно я экспериментировал с seq2seq от Google, чтобы настроить небольшую систему NMT. Мне удалось заставить все работать, но меня все еще интересует точная разница между количеством эпох и количеством шагов обучения модели. Если я не ошибаюсь,...
2961 просмотров