Полезно для тех, кто начинает свою карьеру в машинном обучении и хочет узнать больше о машинах опорных векторов — это статья без заметок, которые я подготовил, пока изучал ее (так что не думайте много о грамматике, это было специально), Я повторяю, что это то же самое, что и начало, и в SVM есть гораздо больше, особенно математика.

Мощная модель машинного обучения — линейная, нелинейная классификация, регрессия, обнаружение выбросов — хорошо подходит для наборов данных небольшого и среднего размера.

Интуиция, стоящая за линейной классификацией SVM

  • Линейно разделимые классы
  • Цель: Сопоставить самые широкие из возможных черно-белых классов улиц — Классификация с большими отступами — Нет эффекта от добавления экземпляров улицы — полностью определяется элементами на краю улицы — векторы поддержки (см. рис. 1)

Классификация жесткой маржи и классификация мягкой маржи

  • Жесткая классификация – Цель состоит в том, чтобы все экземпляры отображались на правильной стороне — нарушена ширина улицы – недостаток – плохо обобщается – Солн – мягкая классификация em> — Задача сохранить большинство экземпляров на правильной стороне — некоторыми экземплярами можно пренебречь для лучшего обобщения модели — Используя мягкую классификацию, мы получим ожидаемую модель.

Как масштабировать ширину улицы?

SVM — укажите гиперпараметр «C» — Меньше C → более широкая улица и больше C → Узкая улица

Нелинейная классификация SVM:

Большинство наборов данных не являются линейно разделимыми — добавление функций может превратить их из нелинейно разделимых в линейно разделимые. — а если нет — тогда следуй за мной

Решение 1 — трюк с полиномиальным ядром:

Если набор данных не является линейно разделимым, мы можем добавить полиномиальные функции, но полиномиальные функции низкой степени не могут работать со сложными наборами данных, а полиномиальные функции высокой степени замедлят модель — что тогда?

используйте трюк с ядром — указав ядро, мы можем получить результаты, как если бы мы добавили полиномы высокой степени, не добавляя их на самом деле.

Soln 2 — Добавление признаков сходства и использование гауссовского ядра RBF

Регрессия SVM:

Линейные наборы данных:

Как упоминалось ранее, svm поддерживает как линейную, нелинейную классификацию, так и регрессию. Основная цель регрессии прямо противоположна модели классификации, поскольку она пытается сохранить как можно больше экземпляров на улице и не зависит от новых экземпляров, добавленных на улице. улицы — ширина улицы контролируется ϵ (эпсилон), больше ϵ → шире улица и меньше ϵ → более узкая улица

Нелинейные наборы данных:

Опять же, вы можете использовать модель SVM на основе ядра — оставьте низкое значение гиперпараметра C для большей регуляризации.

LinearSVR и SVR:

LinearSVR масштабируется линейно в зависимости от размера обучающей выборки (~LinearSVC для классификации)

SVR — становится медленнее по мере увеличения размера набора данных (~SVC для классификации)

Таким образом, вы разобрались с интуицией SVM, теперь просто попрактикуйтесь в коде и ПРИЯТНОГО ОБУЧЕНИЯ!!!

Как со мной связаться: [email protected]