Публикации по теме 'regularization'


Методы регуляризации: вкратце
При обучении нейронных сетей важна не столько производительность на обучающем наборе, сколько то, что сеть способна применять знания, полученные во время обучения, к новым данным. Этот навык известен как обобщение, и существуют методы улучшения этой способности. В целом эти техники называются регуляризацией и именно о них мы и поговорим в этом посте. Что такое регуляризация? Какова его цель? Регуляризация — это метод ограничения эффектов переобучения. Переобучение — это..

Штрафные регрессии с JMP
В этом небольшом исследовании для прогнозирования цены серебра используется штрафная регрессия на основе ряда финансовых показателей. Штрафная логистическая регрессия или регуляризация - это тип логистической модели, которая штрафует или снижает влияние определенных переменных. Методы регуляризации используются, когда набор данных содержит значительное количество переменных без небольшого указания того, какие из них, в частности, будут использоваться в регрессионной модели. Чтобы..

Краткое введение в отсев в нейронных сетях
Выпадение означает игнорирование единиц во время фазы обучения определенного набора нейронов, которые выбираются случайным образом. Эти блоки не учитываются во время конкретного прохода вперед или назад. С технической точки зрения, на каждом этапе обучения отдельные узлы либо исключаются из сети с вероятностью (1-p), либо сохраняются с вероятностью «p», так что остается уменьшенная сеть; входящие и исходящие ребра к выпадающему узлу также удаляются. Нам нужен Dropout, чтобы..

Регуляризация в глубоком обучении
При обучении нейронной сети мы должны принять множество решений, как показано на рисунке ниже. Смещение и отклонение Посмотрев на ошибку алгоритма на обучающем наборе (который мы называем смещением) и на наборе разработчика (который мы называем дисперсией), мы можем попробовать разные вещи, чтобы улучшить алгоритм. Как справиться с высоким предвзятым отношением? Более крупная сеть, т.е. больше скрытых слоев или больше скрытых единиц. Тренируйся дольше. Попробуйте более..

Объяснение эффектов регуляризации L1 и L2
Лучшая визуализация регуляризации L1 и L2 Интуитивное объяснение того, почему регуляризация L1 уменьшает веса до 0. Регуляризация - популярный метод предотвращения переобучения моделей. Идея проста: я хочу, чтобы веса моей модели были небольшими, поэтому я добавлю штраф за большие веса. Двумя наиболее распространенными методами регуляризации являются регуляризация Лассо (или L1) и регуляризация Риджа (или L2). Они наказывают модель либо ее абсолютным весом (L1), либо квадратом ее..

Понимание разницы между методами регуляризации Ridge, Lasso и ElasticNet в Python
Сегодня мы поговорим о том, как упорядочить линейную регрессию, то есть сделать нашу модель более обобщенной для переобучения во время обучения. Линейная регрессия - простой, но мощный метод, так как после обучения она дает нам быстрое время прогнозирования, что является одной из наиболее важных функций, которые следует учитывать при разработке модели машинного обучения, потому что в реальном мире есть клиенты, ожидающие прогнозов, и они дольше ждут, качество обслуживания клиентов..

Снижение веса == Регуляризация L2?
Нейронные сети - отличные аппроксиматоры функций и экстракторы функций, но иногда их веса становятся слишком специализированными и вызывают переобучение. Именно здесь появляется концепция регуляризации, которую мы обсудим вместе с небольшими различиями между двумя основными методами регуляризации веса, которые ошибочно считаются одинаковыми. Вступление: Нейронные сети были впервые представлены в 1943 году Уорреном Маккалоком и Уолтером Питтсом, но не были достаточно популярны, так..