Полезно для тех, кто начинает свою карьеру в машинном обучении и хочет узнать больше о машинах опорных векторов — это статья без заметок, которые я подготовил, пока изучал ее (так что не думайте много о грамматике, это было специально), Я повторяю, что это то же самое, что и начало, и в SVM есть гораздо больше, особенно математика.
Мощная модель машинного обучения — линейная, нелинейная классификация, регрессия, обнаружение выбросов — хорошо подходит для наборов данных небольшого и среднего размера.
Интуиция, стоящая за линейной классификацией SVM
- Линейно разделимые классы
- Цель: Сопоставить самые широкие из возможных черно-белых классов улиц — Классификация с большими отступами — Нет эффекта от добавления экземпляров улицы — полностью определяется элементами на краю улицы — векторы поддержки (см. рис. 1)
Классификация жесткой маржи и классификация мягкой маржи
- Жесткая классификация – Цель состоит в том, чтобы все экземпляры отображались на правильной стороне — нарушена ширина улицы – недостаток – плохо обобщается – Солн – мягкая классификация em> — Задача сохранить большинство экземпляров на правильной стороне — некоторыми экземплярами можно пренебречь для лучшего обобщения модели — Используя мягкую классификацию, мы получим ожидаемую модель.
Как масштабировать ширину улицы?
SVM — укажите гиперпараметр «C» — Меньше C → более широкая улица и больше C → Узкая улица
Нелинейная классификация SVM:
Большинство наборов данных не являются линейно разделимыми — добавление функций может превратить их из нелинейно разделимых в линейно разделимые. — а если нет — тогда следуй за мной
Решение 1 — трюк с полиномиальным ядром:
Если набор данных не является линейно разделимым, мы можем добавить полиномиальные функции, но полиномиальные функции низкой степени не могут работать со сложными наборами данных, а полиномиальные функции высокой степени замедлят модель — что тогда?
используйте трюк с ядром — указав ядро, мы можем получить результаты, как если бы мы добавили полиномы высокой степени, не добавляя их на самом деле.
Soln 2 — Добавление признаков сходства и использование гауссовского ядра RBF
Регрессия SVM:
Линейные наборы данных:
Как упоминалось ранее, svm поддерживает как линейную, нелинейную классификацию, так и регрессию. Основная цель регрессии прямо противоположна модели классификации, поскольку она пытается сохранить как можно больше экземпляров на улице и не зависит от новых экземпляров, добавленных на улице. улицы — ширина улицы контролируется ϵ (эпсилон), больше ϵ → шире улица и меньше ϵ → более узкая улица
Нелинейные наборы данных:
Опять же, вы можете использовать модель SVM на основе ядра — оставьте низкое значение гиперпараметра C для большей регуляризации.
LinearSVR и SVR:
LinearSVR масштабируется линейно в зависимости от размера обучающей выборки (~LinearSVC для классификации)
SVR — становится медленнее по мере увеличения размера набора данных (~SVC для классификации)
Таким образом, вы разобрались с интуицией SVM, теперь просто попрактикуйтесь в коде и ПРИЯТНОГО ОБУЧЕНИЯ!!!
Как со мной связаться: [email protected]