Что такое машинное обучение?

  • Это технология, которая позволяет компьютерам, оснащенным алгоритмами, автоматически улучшаться благодаря опыту.
  • то есть машина учится на данных так же, как люди учатся на своем опыте.

Примечание.

Все методы машинного обучения классифицируются как методы искусственного интеллекта (ИИ); однако не весь ИИ можно считать ОД. Некоторые базовые механизмы, основанные на правилах, можно классифицировать как ИИ, но они не учатся на опыте; следовательно, они не относятся к категории ML.

Разница между машинным обучением и ИИ

Машинное обучение позволяет компьютерам, оснащенным алгоритмами, автоматически улучшаться благодаря опыту, что не является обязательным условием для ИИ.
ИИ — это область исследования, которая позволяет компьютерам учиться без явного программирования.

Типы алгоритмов машинного обучения

  • Обучение с учителем:алгоритм обучения с использованием размеченных данных.
  • Обучение без учителя.Алгоритм обучения без размеченных данных. Он пытается обнаружить скрытые закономерности самостоятельно.
  • Обучение с подкреплением.Алгоритм предпринимает действия, чтобы максимизировать совокупное вознаграждение.

Метод контролируемого обучения

  • Прошлые данные с метками используются для построения модели.
  • Регрессия и классификация подпадают под эту категорию.

Неконтролируемый метод обучения

  • Прошлым данным не присваиваются заранее определенные метки.
  • Алгоритмы кластеризации подпадают под эту категорию.

Регрессия против классификации

Регрессия:

  • Метод наблюдения.
  • Вывод является непрерывным или числовым значением.

Классификация:

  • Метод под наблюдением.
  • Выход представляет собой категориальное значение

Модель регрессии

Линия регрессии

мы знаем, что уравнение прямой имеет вид y = mx + c

давайте поймем это, используя следующую диаграмму

Диаграмма выше говорит нам об этом.

  • C означает, что когда x = 0, каким будет значение y?
  • M показывает, насколько сильна связь между y и x.

Как найти значение m и c на графике?

я. c легко: посмотрите, где линия пересекает ось Y.
ii. м нужен некоторый расчет

Простая модель линейной регрессии

Уравнение простой модели линейной регрессии выглядит следующим образом:

Приведенное выше уравнение говорит нам о том, что

  • При увеличении количества X на единицу y увеличивается на ß1 единицу.
  • (ß1 * 1 = ß1)
  • также, когда X = 0, значение y равно ß0.

Следующий пример прояснит ваши мысли о простой линейной регрессии:

Заработная плата = ß0 (базовый оклад) + ß1 (прибавка к окладу) * Опыт, поэтому, когда мы присоединяемся к организации в качестве новичка, мы будем получать только базовый оклад, поскольку у нас нет опыта. Тем не менее, по мере увеличения нашего Опыта наша заработная плата будет равняться количеству лет Опыта, умноженному на прирост заработной платы в год.

Терминология

  • X также называется входной переменной.
  • Y также называют выходной переменной.

В регрессионной модели мы находим наиболее подходящую линию. Линия наилучшего соответствия — это линия, которая наилучшим образом соответствует заданному точечному графику.

Каков, возможно, хороший критерий для поиска лучшей линии?

Обычный метод наименьших квадратов.
RSS = Сумма квадратов остатков.
Нам нужно минимизировать обычный RSS.

Что подразумевается под градиентным спуском (GD)?

GD — это алгоритм оптимизации, оптимизирующий функцию стоимости. В случае модели линейной регрессии нашей функцией стоимости является RSS (остаточная сумма квадратов), которую необходимо минимизировать. В этом итеративном и рекурсивном подходе вы хотели бы начать с начальных параметров β0 и β1 и итеративно перемещать их значения, чтобы минимизировать функцию стоимости.

Что такое остатки?

Для каждого значения данных у нас есть остаточное значение, которое представляет собой разницу между фактическим значением (Yi) и прогнозируемым значением (ȳ). ei = Yi-ȳ

Теперь нам нужно подобрать значения b0 и b1, чтобы значение RSS было минимальным. т. е. необходимо найти оптимальные значения ß0 и ß1. Итак, вы знаете, что линия наилучшего соответствия получается путем минимизации RSS (остаточной суммы квадратов).

Недостаток RSS

RSS — это абсолютная разница между фактическим y и прогнозируемым y (ȳ). Если единицы фактического y и прогнозируемого y(ȳ) изменятся, RSS изменится. Поэтому нам нужно использовать метод R-квадрата ().

Метод R²

Предположим, у вас есть линейная модель, в которой вы не использовали независимую модель, а вместо этого перехватили ее. В этом случае вы можете построить фундаментальную модель, в которой B0 (значение пересечения) равно среднему значению y.

где
RSS = остаточная сумма квадратов
TSS = общая сумма квадратов (которую можно рассчитать по приведенной ниже формуле).

Например, если R²=0,60, это означает, что в данных присутствует 60% дисперсия.
Таким образом, R² должно быть более высоким значением, т. е. это будет лучшее значение.
Значение R² лежит в диапазоне от 0 до 1. (0 ≤ R² ≤ 1).

RSE (остаточная квадратичная ошибка)

Примечания :

  1. Значение коэффициента корреляции лежит в пределах от -1 до +1.
  2. Значение R² находится в диапазоне от 0 до 1, где 1 означает, что дисперсия данных объясняется моделью, а 0 означает, что дисперсия не объясняется моделью. Очевидно, что достичь любого из крайних значений очень трудно.
  3. Если значение коэффициента корреляции отрицательное, например -0,92, то абсолютное значение (0,92) очень велико. Следовательно, X и y сильно коррелированы, но X и y имеют сильную отрицательную корреляцию из-за отрицательного знака.

Допущения линейной регрессии.

  1. Между X и Y существует линейная зависимость.
  2. Члены ошибки обычно распределяются со средним нулем (не X, Y)
  3. Условия ошибки не зависят друг от друга.
  4. Условия ошибки имеют постоянную дисперсию. (гомоскедазиозность)