Публикации по теме 'probability-theory'


Введение в теорию вероятностей для машинного обучения
Как использовать теорию вероятностей для улучшения алгоритмов машинного обучения Это руководство представляет собой введение в теорию вероятностей, связанную с машинным обучением. Мы рассмотрим основные понятия, такие как случайные величины, распределения вероятностей и ожидание.

Вопросы по теме 'probability-theory'

Нарисуйте случайные числа из пользовательской функции плотности вероятности в Matlab
Я хочу выбрать R случайные числа из пользовательской функции плотности вероятности в Matlab. Это выражение функции плотности вероятности, оцененной как x . Я думал об использовании slicesample R=10^6; f = @(x)...
111 просмотров

Генерация различных вероятностей плотности в R
При использовании чего-то вроде sample(c(rep(0, 5), 1), 6) я могу создать матрицу вроде: item A B C D E F 1 1 0 0 0 0 0 2 0 1 0 0 0 0 3 1 0 0 0 0 0 4 0 0 0 0 1 0 5 0 0...
40 просмотров

Как исключить переменную из многомерного распределения в Python?
У меня возникли проблемы с пониманием того, как правильно исключить переменные из распределений вероятностей. Насколько я понимаю, правильный способ сделать это - суммировать переменные, которые подвергаются маргинализации, оставляя только...
969 просмотров

Обнаружение выбросов в вероятностно-частотном распределении
У меня есть следующий двухмерный набор данных. Оба (X и Y) являются непрерывными случайными величинами. Z = (X, y) = {(1, 7), (2, 15), (3, 24), (4, 25), (5, 29), (6, 32), (7, 34), (8, 35), (9, 27), (10, 39)} Я хочу обнаружить выбросы по...
818 просмотров

для генерации случайной перестановки массива за время O (n) и пространство O (1)
Нам нужно сгенерировать массив {1,2,3,..,n} в пространстве O(1) . Я могу сделать это в пространстве O(n) . Я сделал O(n) космическое решение, сначала сохранив массив, а затем рандомизировав его на месте. Но как это сделать без хранения...
1019 просмотров
schedule 14.08.2022

зачем объяснять логит как «вероятность немасштабированного журнала» в sotfmax_cross_entropy_with_logits?
В документации по тензорному потоку ( softmax_cross_entropy_with_logits ) они сказали «logits: вероятность немасштабированного журнала». Что такое «логарифмическая вероятность»? Во-первых, я понимаю, что 'logits' — это 'output before...
1010 просмотров

код для выбора N значений с некоторыми связанными вероятностями
Предположим, у нас есть набор x из N значений {x_i; i=1,...,N} и набор некоторых связанных вероятностей {w_i; i=1,...,N} . Мы хотим получить из набора x новый набор x^ из N значений {x^_i; i=1,...,N} , выбрав каждое значение x_i из...
192 просмотров

Ошибка при попытке использовать функцию rbern в [R]
Я пытаюсь использовать функцию rbern в R, но выдает следующее сообщение rbern (10, 0.1) Error: Could not find the "rbern" Я даже пытался загрузить библиотеку (Rlab) и не пускает, я что-то не так делаю?. Помню, несколько дней пользуюсь одной...
7549 просмотров
schedule 26.07.2023

Параллельные нормальные распределения
Я работаю над симуляцией, в которой большая задача выполняется серией независимых небольших задач параллельно или последовательно. Время выполнения меньшей задачи следует нормальному распределению со средним временем, скажем, «t», и дисперсией,...
311 просмотров

Обновить параметры байесовской сети новыми данными
У меня есть байесовская сеть, и я знаю CPT, изучая вероятности из существующих данных. Предположим, я получаю новый экземпляр данных. В идеале я не хочу снова использовать все данные для обновления вероятностей. Есть ли способ постепенно...
362 просмотров

Отбор проб из резервуара не может понять вероятность
Чтобы прояснить следующий вопрос: Учитывая входной поток неопределенной длины, как вы возвращаете случайный член этого потока (с равной вероятностью для каждого), учитывая, что вам не разрешено хранить больше, чем постоянное количество входов, и вы...
114 просмотров

Должен ли Наивный Байес умножать все слова в словаре
Я использую Naive Bayes в текстовой классификации. Предположим, что мой словарный запас ["яблоко", "мальчик", "чашка"] и метка класса "спам" или "ветчина". Каждый документ будет покрыт трехмерным вектором 0-1. Например, «apple boy apple apple»...
324 просмотров

Что означает фраза «алгоритм машинного обучения изучает распределение вероятностей»? Что именно здесь происходит
Генеративные и дискриминационные модели, по-видимому, изучают условное распределение вероятности P(x|y) и совместное распределение вероятности P(x,y). Но на фундаментальном уровне я не могу убедить себя в том, что это означает, что распределение...
57 просмотров

Условная вероятность с бинарными переменными
У меня есть этот набор: 1 2 3 4 r01 1 0 1 1 r02 1 1 0 1 r03 0 0 1 0 r04 0 0 1 0 Код: initial <- data.frame(c(1,1,0,0), c(0,1,0,0), c(1,0,1,1),c(1,1,0,0), row.names = c("r01","r02","r03","r04")) colnames(initial) <- c(1:4)...
558 просмотров
schedule 15.05.2023

В случайном графе: какова вероятность того, что узел имеет ссылку на любой узел в списке x определенных специальных узлов?
У меня есть эта проблема для расчета, который я делаю в наблюдаемой сети. Представим себе случайный граф G(N,p) , где N — количество узлов, а p — вероятность образования ребра между любой узел n i и n j . Граф неориентированный....
1724 просмотров