На этой неделе мы стремились сделать CNN и текстовую классификацию нашего проекта. Параллельно с этим мы попытались сделать и текстовый генератор.

Вот как это работает..

LSTM динамически настраивает и запоминает места и использование слов.

На первый взгляд это выглядит пугающе. Давайте проигнорируем внутренности, а посмотрим только на входы и выходы устройства. Сеть имеет три входа. X_t — это ввод текущего временного шага. h_t-1 — это выходные данные предыдущего модуля LSTM, а C_t-1 — это «память» предыдущего модуля, что я считаю наиболее важным входом. Что касается выходов, h_t — это выход текущей сети. C_t — это память текущего юнита.

Следовательно, этот единственный блок принимает решение, учитывая текущий ввод, предыдущий вывод и предыдущую память. И он генерирует новый вывод и изменяет свою память.

Ниже вы можете увидеть наши жанры и количество резюме, содержащих этот жанр. Ясно видно, что у некоторых жанров есть всплески в количестве, в то время как у большинства есть небольшое количество резюме. Это создает непоследовательность и недостаток знаний для нашей модели. Таким образом, ему не хватает точности в жанрах с низким номером.

Вывод нашей модели LSTM можно увидеть ниже.

Точность нашей классификации:

Ссылки по теме:





Участники:







MTUSTA — Medium
Читайте записи MTUSTA на Medium. Каждый день MTUSTA и тысячи других людей читают, пишут и делятся важным…medium.com