ResNets остаются крайне востребованными спустя 5,5 лет

He et al. представили ResNet в своей новаторской статье Глубокое остаточное обучение для распознавания изображений в конце 2015 года, и с тех пор практически каждая новая модель классификации изображений сравнивает свои результаты с ResNet или ее вариантами.

Необходимые знания: сверточные нейронные сети, проблема исчезающего градиента

  1. Почему? Теоретически углубление сверточных нейронных сетей полезно для задач классификации изображений, но простые сети, которые слишком глубоки, имеют проблему ухудшения точности обучения. вызвано исчезающими градиентами.
  2. Что? В этом документе представлена ​​структура глубокого остаточного обучения, использующая беспрепятственные соединения пропуска / быстрого доступа, чтобы избежать проблемы исчезающего градиента.
  3. Как? В каждом строительном блоке остаточного обучения входные данные разделяются на два пути (один путь проходит через все уровни обучения, а другой позволяет пропускать некоторые из уровней), которые поэлементно суммируются. на выходе. Серия блоков остаточного обучения эффективно упрощает сеть, чтобы уменьшить эффект исчезающих градиентов (так как существует меньше слоев для распространения), а также ограничивает пропущенные слои для изучения желаемого пространства признаков (F (x) ) на основе существующего сопоставления (H (x)).

Статьи по теме: