Наивный байесовский алгоритм — это алгоритм машинного обучения, основанный на теореме Байе, которую мы все изучали на уроках вероятности еще в школе. Итак, позвольте мне сначала напомнить вам, что это было.

Но прежде чем мы перейдем к теореме, давайте сначала вернемся ко всем связанным понятиям:
Независимое событие — возникновение которого не зависит от любого другого события.
Зависимое событие — событие, вероятность возникновения которого изменяется в зависимости от какого-либо другого события.
Условная вероятность — вероятность возникновения события при условии, что другое событие уже произошло. Это дано,

где А и В — два зависимых события. И аналогично у нас

Используя приведенные выше два уравнения, мы можем написать

И, приравняв два предыдущих, получим,

Теперь вы видите, что мы очень близки к теореме Байе, которую мы получаем, просто переписав приведенное выше уравнение.

Итак, приведенное выше уравнение — это то, что мы называем теоремой Байе, где
P(A|B) называется апостериорной вероятностью,
P(B|A) называется вероятностью,
P(A) — априорной вероятностью,
P(B) — предельной вероятностью. .

Теперь, что касается набора данных классификации, мы можем записать его как

где y — переменная класса, а X — зависимый вектор признаков (размером n).

Теперь мы поместим наивное предположение о независимости признаков в теорему Байе, и когда любые два события A и B независимы, тогда

И мы достигаем,

который также может быть записан как

Кроме того, поскольку член знаменателя остается постоянным для данного входа, мы можем сказать

Теперь, поскольку оно прямо пропорционально, мы идем путем выбора того значения y, которое даст максимальную вероятность для заданных значений X. Для этого мы находим вероятность данного набора входных данных для всех возможных значений переменной класса y и получить результат с максимальной вероятностью. Это выражается математически как:

Метод, который мы обсуждали выше, применим к дискретным данным. Чтобы включить непрерывные данные, нам нужно добавить некоторые предположения относительно распределения значений признаков. Различные наивные байесовские классификаторы различаются главным образом предположениями, которые они делают относительно этих распределений.

Наивный байесовский классификатор Гаусса является одним из таких классификаторов. В гауссовском наивном байесовском методе предполагается, что непрерывные значения, связанные с каждым признаком, распределяются в соответствии с распределением Гаусса. Предполагается, что вероятность признаков является гауссовой, поэтому условная вероятность определяется выражением:

Счастливого роста.!