Публикации по теме 'bayesian-machine-learning'


Наивная байесовская классификация
Подробное объяснение семейства классификаторов Naive Bayes, включая пример текстовой классификации в Python. Наивные байесовские классификаторы — это семейство вероятностных классификаторов, основанных на применении теоремы Байеса с наивным предположением о независимости между признаками. Эти классификаторы чрезвычайно быстры как в обучении, так и в прогнозировании, а также хорошо масштабируются и интерпретируются. Несмотря на их чрезмерно упрощенные предположения, они часто хорошо..

Взгляд на аргументы в пользу байесовского глубокого обучения
Теорема Байеса - одна из самых важных формул в области математической статистики и вероятности, используемая для расчета шансов на то, что конкретное событие произойдет, на основе соответствующей существующей информации. Между тем байесовский вывод использует теорему Байеса для обновления вероятности гипотезы по мере появления дополнительных данных. Как байесовский вывод может принести пользу моделям глубокого обучения? Доцент Нью-Йоркского университета Эндрю Гордон Уилсон ответил на..

Модели глубоких скрытых факторов и вариационный вывод с обратным распространением
Окружающие нас материалы, процессы и события, свидетелями которых мы являемся, наборы данных, которые у нас есть, - это все наши наблюдения, и в природе существуют генеративные модели, которые мы не можем наблюдать, но генерируем эти наблюдения. Латентные факторные модели вероятностно описывают нашу веру в процесс генерации наблюдений. Сегодняшняя тема - это глубоко скрытые факторные модели, которые представляют собой статистические модели, которые пытаются объяснить многомерные сложные..

Кластеризация узлов в вероятностных графических моделях — Объяснимость байесовских сетей
Кластеризация узлов в вероятностных графических моделях — объяснимость байесовских сетей Недавно я опубликовал новую версию bnviewer , пакет находится в версии 0.1.4 и содержит функцию, которая позволяет нам группировать узлы байесовской сети с помощью пользовательских значков, чтобы облегчить интерпретацию и категоризацию переменных в сложных моделях. байесовских сетей. Я хотел бы поблагодарить исследователя Матиас Альберто Вергара Альварес из Католического университета Чили..

Мягкий способ начать с квантового машинного обучения
Квантовые байесовские сети, вероятно, то, что вы ищете Хотите начать работу с квантовым машинным обучением? Взгляните на статью Практическое квантовое машинное обучение с помощью Python . Если вы хотите начать работу с квантовым машинным обучением, вам понравятся квантовые байесовские сети (QBN). Они интуитивно понятны, поэтому их легко понять. Тем не менее, они используют фундаментальные концепции квантовых вычислений. Таким образом, вы можете изучить концепции на практике...

Интуиция, стоящая за скрытым распределением Дирихле (LDA)
Я знаю, что LDA используется для тематического моделирования, а также знаю, как мне принимать текстовые данные и какой результат я могу ожидать. Но чего я не понял, так это того, какая математическая часть отвечает за обнаружение скрытых или неизвестных тем, и мне было очень интересно понять логику получения модели, чтобы подогнать ее к данным, другие логические шаги, связанные с обнаружением скрытых тем, и алгоритм, используемый для оптимизации решения. Моих известных неизвестных по этой..

Оценка неопределенности для нейронной сети - выпадение как байесовское приближение
Ключевая тема этой статьи заключается в том, что вы можете использовать исключение для повышения достоверности прогнозов. Эта статья в основном посвящена тому, как я начинаю с статьи Uber Глубокое и уверенное прогнозирование временных рядов в Uber. Интерпретация модели с помощью нейронных сетей была непростой задачей, зная, что надежность нейронной сети может быть очень важно для бизнеса. Несмотря на множество сложных доказательств в этой серии статей, все они пытаются ответить..