Недавно я экспериментировал с seq2seq от Google, чтобы настроить небольшую систему NMT. Мне удалось заставить все работать, но меня все еще интересует точная разница между количеством эпох и количеством шагов обучения модели.
Если я не ошибаюсь, одна эпоха состоит из нескольких шагов обучения и проходит, как только все ваши данные обучения были обработаны один раз. Однако я не понимаю разницы между ними, когда смотрю на документацию в собственном руководстве Google по НМТ. Обратите внимание на последнюю строку следующего фрагмента.
export DATA_PATH=
export VOCAB_SOURCE=${DATA_PATH}/vocab.bpe.32000
export VOCAB_TARGET=${DATA_PATH}/vocab.bpe.32000
export TRAIN_SOURCES=${DATA_PATH}/train.tok.clean.bpe.32000.en
export TRAIN_TARGETS=${DATA_PATH}/train.tok.clean.bpe.32000.de
export DEV_SOURCES=${DATA_PATH}/newstest2013.tok.bpe.32000.en
export DEV_TARGETS=${DATA_PATH}/newstest2013.tok.bpe.32000.de
export DEV_TARGETS_REF=${DATA_PATH}/newstest2013.tok.de
export TRAIN_STEPS=1000000
Мне кажется, что есть только способ определить количество шагов обучения, а не количество эпох вашей модели. Возможно ли, что есть совпадение в терминологии и, таким образом, нет необходимости определять количество эпох?