На этой неделе мы стремились сделать CNN и текстовую классификацию нашего проекта. Параллельно с этим мы попытались сделать и текстовый генератор.
Вот как это работает..
LSTM динамически настраивает и запоминает места и использование слов.
На первый взгляд это выглядит пугающе. Давайте проигнорируем внутренности, а посмотрим только на входы и выходы устройства. Сеть имеет три входа. X_t — это ввод текущего временного шага. h_t-1 — это выходные данные предыдущего модуля LSTM, а C_t-1 — это «память» предыдущего модуля, что я считаю наиболее важным входом. Что касается выходов, h_t — это выход текущей сети. C_t — это память текущего юнита.
Следовательно, этот единственный блок принимает решение, учитывая текущий ввод, предыдущий вывод и предыдущую память. И он генерирует новый вывод и изменяет свою память.
Ниже вы можете увидеть наши жанры и количество резюме, содержащих этот жанр. Ясно видно, что у некоторых жанров есть всплески в количестве, в то время как у большинства есть небольшое количество резюме. Это создает непоследовательность и недостаток знаний для нашей модели. Таким образом, ему не хватает точности в жанрах с низким номером.
Вывод нашей модели LSTM можно увидеть ниже.
Точность нашей классификации:
Ссылки по теме:
Участники: