GAN

Если вы не знакомы с генеративными состязательными сетями (GAN), они представляют собой очень популярную технику генеративного моделирования, образованную путем сопоставления двух глубоких нейронных сетей, генератора и дискриминатора. Эта состязательная потеря вызвала интерес многих исследователей глубокого обучения и искусственного интеллекта. Однако, несмотря на красоту формулировки GAN и потрясающие результаты современных архитектур, GAN, как правило, очень сложно обучить. Один из лучших способов добиться лучших результатов с помощью сетей GAN - предоставить метки классов. Это основа модели условного GAN. В этой статье будет показано, как самостоятельное обучение может преодолеть необходимость в ярлыках классов для обучения GAN и конкурировать с производительностью моделей условных GAN.

Самостоятельное обучение

Прежде чем мы перейдем к рассмотрению того, как самообучение улучшает сети GAN, мы познакомимся с концепцией самоконтролируемого обучения. По сравнению с популярными семействами контролируемого и неконтролируемого обучения, самостоятельное обучение больше всего похоже на обучение без учителя. Самоконтролируемые задачи включают такие вещи, как раскрашивание изображения, прогнозирование относительного расположения извлеченных участков изображения или, в данном случае, прогнозирование угла поворота изображения. Эти задачи получили название «Самоконтроль», потому что данные поддаются этим суррогатным задачам. В этом смысле самоконтролируемые задачи принимают форму пар (X, Y), однако пары X, Y автоматически создаются из самого набора данных и не требуют маркировки человеком. В документе, обсуждаемом в этой статье, самоконтролируемое обучение резюмируется следующим образом: «Можно внести изменения в данное изображение и попросить сеть предсказать отредактированную часть». Это основная идея самостоятельного обучения.

Условные и безусловные GAN

Теперь мы свяжем самообучение с проблемами, связанными с обучением GAN. В своей идеальной форме GAN - это форма неконтролируемого генеративного моделирования, когда вы можете просто предоставить данные, а модель создаст из них синтетические данные. Однако современные сети GAN используют технику, называемую Conditional-GAN, которая превращает задачу генеративного моделирования в задачу контролируемого обучения, требующую помеченных данных. В условных сетях GAN метки классов встроены в генератор и дискриминатор для облегчения процесса генеративного моделирования. Безусловные GAN относятся к исходной идее Гудфеллоу, согласно которой для генеративного моделирования не требуются метки классов. Эта статья покажет вам, как задачи самообучения могут устранить необходимость в маркированных данных с помощью GAN.

Дополнительная задача вращения

В этой статье будут обсуждаться детали архитектуры GAN с самостоятельным обучением, представленные в следующем документе:



Вспомогательная задача самообучения, описанная в этой статье, на высоком уровне легко понять. (Изображено ниже)

Генераторная половина GAN совершенно не осведомлена о вспомогательной задаче вращения, за исключением того, что она должна научиться создавать изображения, которые имеют характеристики, аналогичные реальным изображениям при повороте. Задача вращения оказывает огромное влияние на дискриминаторную сеть. Дискриминатор теперь выполняет две задачи. Первый - предсказать, были ли изображения взяты из исходной обучающей выборки или созданы генератором, как и во всех GAN. Вторая задача - то, что делает эту статью такой интересной. Набор реальных и поддельных изображений поворачивается на равные части с поворотом на 0, 90, 180 и 270 градусов, и дискриминатор должен классифицировать угол поворота этих изображений. Ошибка вращения дискриминатора наказывается только ошибкой на реальных изображениях, чтобы препятствовать нездоровой сходимости от генератора.

Забывание дискриминатора

Авторы предполагают, что безусловные GAN плохо работают из-за сложности обучения на нестационарном распределении. Это проблема, которая тщательно изучается при непрерывном обучении, и в статьях обсуждаются многие подходы, такие как эластичное распределение веса, которые соединяют непрерывное обучение и GAN. Один интересный момент заключается в том, что в случае оптимального генератора дискриминатору не нужно изучать полезные функции.

Чтобы показать, как самоконтролируемая сеть GAN облегчает забывание дискриминатора, они извлекают признаки из дискриминатора и используют его для обучения модели логистической регрессии для классификации данных в контролируемой, дискриминационной задаче.

Этот график выше показывает, что безусловная GAN не сможет изучить полезные функции для различительных задач, тогда как функции, изученные самоконтролируемой GAN (с задачей классификации вспомогательного вращения), продолжают изучать полезные функции для моделей контролируемого обучения во время обучения. .

Что касается качества выходных изображений, на приведенном выше графике показан показатель FID, обычно используемый для количественной оценки качества изображения в двух вариантах самоконтролируемых сетей GAN, а также в моделях условной и безусловной GAN. Графики показывают, что SS-GAN с самомодулированной пакетной нормализацией (sBN) может работать так же хорошо, как Conditional-GAN как в ImageNet, так и в CIFAR-10, а график выше и справа показывает, как работает Unconditional-GAN. ужасно по задаче генерации ImageNet.

На приведенном выше графике сравниваются результаты использования функций дискриминатора для обучения моделей классификации с другими популярными задачами самообучения. Есть много разных способов настроить задачи самообучения, и мне было очень интересно увидеть это сравнение.

Спасибо за чтение! Это очень интересный результат, исследующий полностью неконтролируемое генеративное моделирование с помощью вспомогательных самоконтролируемых задач. Пожалуйста, ознакомьтесь с этой статьей для получения более подробной информации!