Введение

Вероятностные модели в машинном обучении — это использование статистических кодов для проверки данных. Это был один из первых методов машинного обучения. Он достаточно широко используется и по сей день. Отдельным из самых известных алгоритмов в этой группе является алгоритм наивного Байеса.

Вероятностное моделирование обеспечивает основу для понимания того, что такое обучение. Вероятностная структура определяет, как обозначать и развертывать оговорки в отношении моделей. Прогнозы играют доминирующую роль в анализе научных данных. Их роль также очень важна в машинном обучении, автоматизации, когнитивных вычислениях и искусственном интеллекте.

Описание

Вероятностные модели представлены как преобладающая идиома для определения мира. Они были описаны с использованием случайных переменных, например, строительных блоков, объединенных вероятностными отношениями.

Наряду с невероятностными моделями в машинном обучении существуют вероятностные модели. Информация об основных понятиях вероятности, например о случайных величинах и распределениях вероятностей, была бы полезна для хорошего понимания вероятностных моделей.

Вывод изображения из зашумленных или неоднозначных данных является обязательной частью интеллектуальных систем. В теории вероятностей, в частности, помогает теорема Байеса как принципиальная основа для объединения предшествующих знаний и эмпирических данных.

Важность вероятностных моделей машинного обучения

Одним из ключевых преимуществ вероятностных моделей является то, что они дают представление о неопределенности, связанной с прогнозами. Мы можем получить представление о том, насколько уверена модель машинного обучения в своих прогнозах. Например, если вероятностный классификатор выделяет вероятность 0,9 для класса Собака вместо 0,6, это означает, что классификатор более уверен в том, что животное на изображении — собака. Эти концепции, связанные с неопределенностью и уверенностью, очень ценны, когда они используются в критических областях машинного обучения, например, для диагностики заболеваний и автономного вождения. Более того, вероятностные последствия были бы полезны для многих методов, связанных с машинным обучением, например для активного обучения.

Байесовский вывод

В основе байесовского вывода лежит правило Байеса, иногда называемое теоремой Байеса. Он используется для определения вероятности гипотезы с прежними знаниями. Это зависит от условной вероятности.

Правило Байеса

Преподобный Томас Байес (1702–1761)

Формула теоремы Байеса известна как;

P (hypothesis│data)    =     P (data│hypothesis) P (hypothesis) / P (data)
  • Правило Байеса гласит, как делать выводы о гипотезах на основе данных.
  • Обучение и предсказание можно понимать как формы вывода.

Типичный байесовский вывод с правилом Байеса нуждается в механизме для прямого регулирования целевого апостериорного распределения. Например, процесс логического вывода представляет собой одностороннюю процедуру, которая планирует раннее распределение на апостериорное путем обнаружения эмпирических данных. В обучении с учителем и обучении с подкреплением наша конечная цель состоит в том, чтобы поставить задачи, предшествующие обучению. Это применяется с некоторым измерением производительности, например ошибкой прогнозирования экземпляра или ожидаемым вознаграждением.

Прямое апостериорное распределение должно иметь небольшую ошибку предсказания или большое ожидаемое вознаграждение. Кроме того, поскольку создаются крупномасштабные базы знаний и широко используются краудсорсинговые платформы для сбора человеческих данных, необходимо включать внешнюю информацию в статистическое моделирование и выводы при построении интеллектуальной системы.

Наивный алгоритм Байеса

Алгоритм наивного Байеса — это алгоритм обучения с учителем. Он создан на основе теоремы Байеса и используется для решения задач сортировки. Он в основном используется в текстовой классификации, которая включает многомерный набор обучающих данных. Наивный алгоритм Байеса — один из простых и лучших операционных алгоритмов классификации, которые поддерживают построение быстрых моделей машинного обучения, которые могут создавать быстрые прогнозы.

Алгоритм Наивного Байеса является вероятностным классификатором. Это означает, что он предсказывает на основе вероятности объекта. Более или менее распространенными примерами наивного алгоритма Байеса являются;

  • Фильтрация спама
  • Сентиментальный анализ
  • Классификация статей

Узкокоррелированная модель — это логистическая регрессия. Иногда это хорошо продумано, чтобы быть «привет, мир» современного машинного обучения. Не обманывайтесь его названием, так как log reg — это алгоритм классификации, в некотором роде алгоритм регрессии. В значительной степени, как и наивный байесовский метод, до сих пор он весьма полезен и по сей день, поскольку регистрация журнала задолго до вычислений, благодаря своей скромной и многоцелевой природе. Часто это первое, что ученый-данный пытается сделать с набором данных, чтобы прочувствовать стоящую перед ним задачу классификации.

Типы наивной байесовской модели

Существуют следующие три типа наивной байесовской модели:

  • Gaussian: модель Gaussian берет на себя ответственность за то, что функции отслеживают нормальное распределение. Это означает, что если аналитики берут непрерывные значения, а не отдельные, то модель учитывает, что эти значения проверяются на основе распределения Гаусса.
  • Полиномиальный: используется, когда данные распространяются полиномиальным образом. Он в основном используется для задач классификации документов. Это означает, что конкретный документ попадает в эту категорию, например, «Спорт», «Образование», «Политика» и т. д. Классификатор использует скорость слов для предикторов.
  • Бернулли: классификатор Бернулли работает так же, как полиномиальный классификатор. Тогда переменные-предикторы являются самоуправляемыми булевыми переменными. Например, если конкретное слово присутствует или отсутствует в документе. Эта модель также хорошо известна для задач классификации документов.

Использование наивной байесовской модели

Используется наивный байесовский классификатор;

  • Для кредитного скоринга.
  • В медицинской классификации данных.
  • Его можно использовать в прогнозах в реальном времени, поскольку наивный байесовский классификатор хорошо учится.
  • Классификация в тексте, например, фильтрация спама и анализ настроений.

Плюсы и минусы байесовского классификатора

Плюсы

  • Наивный байесовский алгоритм — один из простых и быстрых алгоритмов машинного обучения, позволяющий предвидеть класс наборов данных.
  • Его можно использовать для бинарных данных, а также в качестве многоклассовых классификаций.
  • Например, он хорошо справляется с предсказаниями нескольких классов по сравнению с другими алгоритмами.
  • Это самый распространенный выбор для задач классификации текста.

Минусы

  • Наивный Байес признает, что все виды автономны или несопоставимы. Поэтому он не может узнать связь между функциями.

Целевые функции

Мы можем взглянуть на ее Целевую функцию, чтобы понять, является ли конкретная модель вероятностной или нет. Мы хотим улучшить модель, чтобы преуспеть в конкретной задаче машинного обучения. Целью наличия целевой функции является предоставление значения на основе выходных данных модели. Следовательно, оптимизация может быть выполнена путем использования или сокращения фактической стоимости. Обычно цель состоит в том, чтобы уменьшить ошибку прогнозирования в машинном обучении. Поэтому мы описываем то, что называется функцией потерь, например, целевую функцию, и пытаемся уменьшить функцию потерь на этапе обучения модели машинного обучения.

Для получения более подробной информации посетите: https://www.technologiesinindustry4.com/what-are-probabilistic-models-in-machine-learning/