Что такое линейная регрессия?

Линейный регрессионный анализ — это подход к обучению с учителем (что такое обучение с учителем и без учителя?), используемый для прогнозирования значения переменной на основе значения другой переменной.

Переменная, которую вы собираетесь прогнозировать, называется зависимой переменной. Переменная, которую вы используете для прогнозирования значения другой переменной, называется независимой переменной.

Пример. Предположим, вам предоставлен файл .CSV с двумя столбцами: один – это количество кроватей в квартире, а другой – стоимость жилья. эта квартира. (Учитывая только один фактор) И мы должны найти, какова будет цена дома с 10 кроватями?

Как работает алгоритм регрессии?

Итак, вы предоставляете данные алгоритму регрессии, и этот алгоритм регрессии предоставляет вам гипотезу (функцию). Затем вы даете некоторые входные значения, для которых вы хотите получить прогноз, для гипотезы, чтобы найти значение вашей зависимой переменной.

Погружение в математику линейной регрессии?

Прежде чем перейти к линейной регрессии, что такое линейное уравнение? Мы знаем, что уравнение степени 1 называется линейным уравнением. пример: y=2x+1, где 2 — это наклон, а 1 — точка пересечения, когда мы сравниваем это с y=mx+c.

поэтому алгоритмы линейной регрессии не дают вам ничего, кроме гипотез первой степени.

  • Здесь theeta(0) и theeta(1) — гиперпараметры. (Мы узнаем о гиперпараметрах в последующих статьях). пока вы можете думать об этом как о наклоне и точке пересечения для линейных гипотез.
  • x(1) и h(x) — независимые и зависимые переменные.

Но мы знаем, что ситуации обычно имеют более одного решающего фактора. Как изменится наше уравнение в зависимости от заданного количества признаков?

Предположим, что имеется более 1 функции. Скажем, Размер дома и Количество кроватей равны x1 и x2 соответственно.

Итак, если вас попросят написать общее уравнение гипотез, которые даст линейная регрессия, что вы напишете?

Общее уравнение линейной регрессии:

Итак, это наше линейное уравнение, но мы знаем, что в определенный момент будет определенная ошибка, связанная между фактическим значением и прогнозируемым значением. Давайте поймем это с помощью графика.

Мы все знаем, как вычисляется ошибка, верно?

Это (прогнозируемое значение — фактическое значение).

Но согласно этому уравнению значение Error тоже может быть -ve. Но мы знаем, что ошибка никогда не может быть -ве. Поэтому, чтобы избежать этого, мы возводим все уравнение в квадрат, чтобы исключить значения -ve.

Новое уравнение: (прогнозируемое значение — фактическое значение)²

теперь помещаем прогнозируемые и фактические значения на место:

Вы должны обратиться к этому видео, чтобы лучше понять:

Хорошо, так что же такое функция затрат? Как это повлияет на точность модели?

Функция стоимости не что иное, как мера того, насколько хорошо работает модель машинного обучения, путем количественной оценки разницы между прогнозируемыми и фактическими результатами.

Если функция стоимости низкая, то модель имеет хорошую точность и будет давать прогнозируемые значения с меньшим количеством ошибок.

Здесь, в функциях стоимости, которые мы знаем, мы можем полагаться только на гиперпараметры (эта), чтобы уменьшить функции стоимости, потому что переменные (x и h(x)) не могут быть изменены.

Поэтому мы используем различные подходы для настройки наших гиперпараметров, чтобы удешевить нашу модель. один из них GRADIENT DECENT.

Что такое достойный градиент?

Таким образом, Градиентный метод — это не что иное, как алгоритм настройки гиперпараметров, который используется для минимизации функции стоимости, чтобы получить наилучшие результаты от нашей Модели.

Удачного обучения

Мужчина