Публикации по теме 'probability'


Объяснение концепций вероятности: байесовский вывод для оценки параметров.
Вступление В предыдущем сообщении блога я рассмотрел метод максимального правдоподобия для оценки параметров в машинном обучении и статистических моделях. В этом посте мы рассмотрим другой метод оценки параметров с использованием байесовского вывода. Я также покажу, как этот метод можно рассматривать как обобщение максимальной вероятности и в каком случае эти два метода эквивалентны. Предполагается некоторое фундаментальное знание теории вероятностей, например предельная и..

Наивный Байес в машинном обучении
Алгоритм наивного Байеса — это алгоритм машинного обучения для задач классификации. Наивную байесовскую модель легко построить, и она особенно полезна для очень больших наборов данных. Это вероятностный классификатор. Алгоритм наивного Байеса называется «наивным», потому что он предполагает, что появление одного признака не зависит от появления других признаков. Например, фрукт можно считать яблоком, если он красный, круглый и имеет диаметр около 3 дюймов. Даже если эти признаки зависят..

Расстояние Вассерштейна, картографирование сжатия и современная теория RL.
Классические математические формулы и их влияние на современный RL Концепции и отношения, исследуемые математиками с учетом некоторого приложения, спустя десятилетия оказываются неожиданными решениями проблем, о которых они изначально и не мечтали. Геометрия Римана, открытая только по чистой причине - совершенно не имея в виду ее применения, позже была использована Эйнштейном для объяснения ткани пространства-времени и общей теории относительности. В обучении с подкреплением (RL)..

[Ускоренный курс ML] Логистическая регрессия: расчет вероятности
Расчет вероятности Многие задачи требуют оценки вероятности на выходе. Логистическая регрессия — чрезвычайно эффективный механизм расчета вероятностей. Практически говоря, вы можете использовать возвращенную вероятность одним из следующих двух способов: “As is” Преобразовано в бинарную категорию. Давайте рассмотрим, как мы могли бы использовать вероятность «как есть». Предположим, мы создаем модель логистической регрессии, чтобы предсказать вероятность того, что собака будет..

Вероятность и статистика для компьютерного зрения 101 - Часть 2
Добро пожаловать в серию статей «На пути к пониманию вероятности и статистики компьютерного зрения». Эта статья станет второй частью серии. Если вы еще не видели часть 1, вот ссылка: На пути к пониманию вероятности и статистики компьютерного зрения - часть 1 Я считаю, что понимание фундаментальных концепций имеет решающее значение, когда дело доходит до изучения чего-то продвинутого. Почему? Потому что… medium.com Моя цель - дать..

Логистическая регрессия 101
Как правило, хорошей идеей является использование простого алгоритма для начала моделирования. Есть некоторые недостатки, но привлекательность здесь заключается в простоте. Логистическая регрессия Логистическая регрессия — это инструмент классификации, а не модель регрессии. Это означает, что он используется для предсказания класса, а не для предсказания следующего числа. Несмотря на сбивающее с толку название, эта модель классификации проста в использовании и в целом хорошо..

Энтропия распределения вероятностей — объясняется непрофессионально
Энтропия распределения вероятностей — это средний «элемент неожиданности» или количество информации при извлечении (или выборке) распределения вероятностей. Давайте рассмотрим распределение вероятностей, состоящее из двух исходов — «солнце завтра взойдет» (вероятность — 1) и «солнце завтра не взойдет» (вероятность 0) — ( числовые значения 0 и 1 выбраны просто для иллюстрации , Возможно, распределение должно было быть чем-то вроде .9999999999 и .000000001 ). Неудивительно, если кто-то..