Давайте начнем обсуждение распределения Бернулли. Распределение Бернулли используется не так часто самостоятельно, как в сочетании с другими распределениями. Он часто используется в других дистрибутивах для моделирования двоичных результатов, поэтому он широко используется.

Когда мы говорим о распределении Бернулли, оно всегда применимо к бинарным результатам.

Вот забавный факт😂🫵: распределение Бернулли используется для экспериментов с бинарными результатами. Например, если мальчик делает предложение девушке, а она отвечает либо «да», либо «нет», то этот эксперимент подходит для распределения Бернулли. Однако, если девушка отвечает что-то вроде «ты хороший парень, но я думаю, ты найдешь кого-нибудь получше» или «я тоже тебя люблю, но только как друга», 😂😂то мы не можем использовать Распределение Бернулли для таких исходов. Итак, наслаждайтесь изучением забавных фактов!

давай продолжим.

Итак, что происходит, так это то, что мы рассматриваем любой случайный эксперимент, например, мы берем образец и выполняем один подбрасывание монеты распределения Бернулли. Это в основном используется чаще при изучении распределения Бернулли. При подбрасывании монеты у нас есть только две возможности: либо орел, либо решка. И если мы обозначим успех 1, а неудачу 0, то мы можем считать этот эксперимент Бернулли, поскольку он имеет бинарные результаты.

Распределение Бернулли — это распределение вероятностей, которое моделирует двоичный результат, где результатом может быть либо успех (представленный значением 1), либо неудача (представленный значением 0). Распределение Бернулли названо в честь швейцарского математика Якоба Бернулли, впервые представившего его в конце XVII века.

Возьмем пример из области машинного обучения. Предположим, мы хотим создать классификатор электронной почты, и у нас есть две возможности: входящая электронная почта может быть либо спамом, либо не спамом. Это также случайный эксперимент с двумя возможными исходами: спам или не спам, который можно рассматривать как бинарное распределение. Мы можем определить возникновение спама как успех и обозначить его как 1, а появление не спама как сбой и обозначить его как 0. Важно отметить, что успех не всегда означает что-то положительное, так как он зависит от контекст. В данном случае мы ищем письма со спамом, поэтому мы считаем спам успехом и обозначаем его как 1, а не спам как неудачу и обозначаем его как 0. Итак, это тоже пример распределения Бернулли.

Итак, есть и другие примеры, где мы можем использовать распределение Бернулли, например, бросок игральной кости и определение вероятности получения четного или нечетного числа, которое также является двоичным.

В общем, всякий раз, когда у нас есть случайный эксперимент с бинарными результатами, мы можем использовать распределение Бернулли для его моделирования.

Если мы обсуждаем дискретное распределение, то оно также будет иметь функцию массы вероятности (PMF) и нам нужно понять, как ее вычислить. PMF рассчитывается с использованием простой формулы, которая определяет результаты. Допустим, у нас есть случайная величина X, и мы хотим вычислить вероятность того, что X примет определенное значение x. Для этого мы можем использовать формулу:

P(X=x) = p^x * (1-p)^(1-x)

Здесь p представляет вероятность успеха, которая является параметром, характеризующим распределение Бернулли. Поскольку мы имеем дело с бинарными исходами, вероятность неудачи автоматически представляется как 1-p.

В случае подбрасывания монеты, когда мы обозначаем решку как успех с 1, что будет P (X = 1)? Формула для нахождения функции массы вероятности (PMF) для распределения Бернулли:

P(X=x) = p^x * (1-p)^(1-x)

Здесь p обозначает вероятность успеха, которая равна 1/2 в случае правильного подбрасывания монеты. Так,

P(X=1) = p¹ * (1-p)^(1–1) = (1/2)¹ * (1–1/2)^(0) = 1/2

И,

P(X=0) = p⁰ * (1-p)^(1–0) = (1/2)⁰ * (1–1/2)^(1) = (1) * (1/2)¹ = 1/2

Это простой пример случайного эксперимента с бинарным исходом, где p обозначает вероятность успеха. График PMF для этого распределения можно увидеть ниже.

Это просто понять. Поскольку в этом случае есть только два возможных результата, 0 и 1, точка 0 на оси X представляет вероятность 0, а точка 1 представляет вероятность 1. Мы можем увидеть график трех различные распределения Бернулли на изображении, и давайте сосредоточимся на первом красном графике, где вероятность того, что x равна 0, равна 0,2, а вероятность того, что x равна 1, равна 0,8. На синем графике вероятность того, что x равна 0, равна 0,8, а вероятность того, что x равна 1, равна 0,2. Вы также можете самостоятельно наблюдать за зеленым графиком.

Распределение Бернулли обычно используется в машинном обучении для моделирования бинарных результатов, например, совершит ли покупатель покупку или нет, является ли электронное письмо спамом или нет, будет ли у пациента определенное заболевание или нет.

Честно говоря, о распределении Бернулли само по себе мало что можно узнать, но важно понимать, что это распределение часто встречается в машинном обучении. Всякий раз, когда мы говорим о классификации в ML, где результаты представлены в виде классов, таких как да/нет, 1/0 и т. д., это можно рассматривать как случай Бернулли. Кроме того, при изучении алгоритмов машинного обучения, таких как логистическая регрессия, SVM, деревья решений и т. д., мы часто внутренне рассматриваем данные как бернуллиевские. Хотя это допущение может быть не очень полезным само по себе, оно полезно, потому что его можно использовать во многих случаях.

Духовный взгляд на этот сценарий состоит в том, что мы создаем случайные эксперименты, основанные на таких понятиях, как Дев и Данав, Концентрация и Отвлечение, Осознание и Неосознание, божества и демоны, доброта и жестокость.

Говоря современными терминами, мы создаем случайные эксперименты, например, получаем ли мы ответ на наше сообщение или нет, получим ли мы работу или нет, будет ли наш стартап успешным или нет, или решаем, будет ли вы будете читать весь блог или нет. Это всего лишь несколько примеров, если у вас есть другие, не стесняйтесь комментировать и делиться ими.