Машинное обучение можно кратко описать как обучение функции (f), которая отображает входные переменные (X), и следующие результаты представлены в выходных переменных (Y).

Y = f(x)

Машина учится на обучающих данных отображать целевую функцию, но конфигурация функции неизвестна. Различные алгоритмы делают различные выводы или предубеждения относительно структуры функции, поэтому наша задача, как практикующих специалистов по машинному обучению, - протестировать различные алгоритмы машинного обучения, чтобы увидеть, какой из них эффективен при моделировании основной функции. Таким образом, модели машинного обучения параметризованы, чтобы их поведение можно было настроить для конкретной задачи. Эти модели могут иметь много параметров, и поиск наилучшего сочетания параметров можно рассматривать как проблему поиска.

Можем ли мы быстро взглянуть на введение в параметры машинного обучения, чтобы правильно понять !! :)

Что такое параметр в модели машинного обучения?
Параметр модели - это внутренняя по отношению к модели переменная конфигурации, значение которой можно оценить на основе заданных данных.

  • Они требуются модели при прогнозировании.
  • Их ценности определяют умение модели решать вашу проблему.
  • Они оцениваются или извлекаются из исторических данных обучения.
  • Часто практикующий врач не устанавливает их вручную.
  • Они часто сохраняются как часть усвоенной модели.

Примеры параметров модели включают:

  • Веса в искусственной нейронной сети.
  • Опорные векторы в машине опорных векторов.
  • Коэффициенты линейной регрессии или логистической регрессии.

Алгоритмы машинного обучения делятся на две отдельные группы: параметрические и непараметрические модели.

Что такое параметрическая модель?
Модель обучения, которая суммирует данные с набором параметров фиксированного размера (независимо от количества экземпляров обучения). Алгоритмы параметрического машинного обучения оптимизируют функция к известному виду.

В параметрической модели вы точно знаете, какую модель вы собираетесь вписать в данные, например, линию линейной регрессии.
b0 + b1 * x1 + b2 * x2 = 0
где,
b0, b1, b2 → коэффициенты линии, которые контролируют точку пересечения и наклон
x1, x2 → входные переменные

Следование функциональной форме линейной линии значительно упрощает процесс обучения. Теперь нам нужно оценить коэффициенты линейного уравнения, и у нас есть прогностическая модель для проблемы. С помощью точки пересечения и коэффициента можно предсказать любое значение вместе с регрессией.

Предполагаемая функциональная форма всегда представляет собой линейную комбинацию входных переменных, и поэтому алгоритмы параметрического машинного обучения также часто называют «алгоритмами линейного машинного обучения».

Уравнение в алгоритмах предопределено. Добавление большего количества данных может просто изменить коэффициенты в уравнениях, а увеличение количества экземпляров не сделает вашу модель более сложной. Становится стабильным.

Еще несколько примеров алгоритмов параметрического машинного обучения:

  • Логистическая регрессия
  • Линейный дискриминантный анализ
  • Перцептрон
  • Наивный байесовский
  • Простые нейронные сети

Что такое непараметрическая модель?
Непараметрические алгоритмы машинного обучения - это те алгоритмы, которые не делают конкретных предположений о типе функции сопоставления. Они готовы выбрать любую функциональную форму из обучающих данных, не делая предположений.
Слово «непараметрический» не означает, что в значении отсутствуют параметры, существующие в нем, а скорее, что параметры настраиваются и могут изменяться. При работе с ранжированными данными можно обратиться к непараметрическому моделированию, в котором последовательность в том, что они упорядочены, является частью значимости параметров.

Простая для понимания непараметрическая модель - это алгоритм k-ближайших соседей, который делает прогнозы для нового экземпляра данных на основе наиболее похожих обучающих шаблонов k. Единственное предположение, которое он делает о наборе данных, заключается в том, что наиболее похожие шаблоны обучения, скорее всего, дадут аналогичный результат.

Еще несколько примеров популярных непараметрических алгоритмов машинного обучения:

  • k-Ближайшие соседи
  • Деревья решений, такие как CART и C4.5
  • Машины опорных векторов

Параметрическое и непараметрическое моделирование

  1. Параметрические модели имеют дело с дискретными значениями, а непараметрические модели используют непрерывные значения.
  2. Параметрические модели могут вывести традиционные измерения, связанные с нормальным распределением, включая среднее значение, медианное значение и моду. Хотя некоторые непараметрические распределения обычно ориентированы, часто нельзя предполагать, что данные поступают из нормального распределения.
  3. Конструирование признаков важно в параметрических моделях. Потому что вы можете отравить параметрические модели, если добавите много несвязанных функций. Непараметрические модели в основном обрабатывают конструкцию признаков. Мы можем передать все данные, которые у нас есть, в эти непараметрические алгоритмы, и алгоритм может игнорировать несущественные особенности. Это не приведет к переобучению.
  4. Параметрическая модель может предсказывать будущие значения, используя только параметры. Хотя непараметрические алгоритмы машинного обучения часто медленнее и требуют больших объемов данных, они довольно гибкие, поскольку сводят к минимуму предположения, которые они делают о данных.

В этом посте мы узнали, что параметрические методы делают большие предположения о сопоставлении входных переменных с выходной переменной и, в свою очередь, быстрее обучаются, требуют меньше данных, но могут быть не такими мощными. Непараметрические методы делают мало предположений о целевой функции или вообще не делают их и, в свою очередь, требуют гораздо больше данных, медленнее обучаются и имеют более высокую сложность модели, но могут привести к более мощным моделям.