Публикации по теме 'probability'


Мягкое введение в машинное обучение
Внутри ИИ Мягкое введение в машинное обучение Любая достаточно развитая технология неотличима от магии Добро пожаловать! Эта статья - моя первая попытка немного углубиться в такую ​​сложную тему, как машинное обучение. Я написал эту статью по двум причинам. Во-первых, эта тема мне показалась очень интересной, и если вам интересно машинное обучение, но вы не знаете, с чего начать, то эта статья для вас. Во-вторых, эта статья - способ обобщить полученные знания и поделиться знаниями..

Прогнозирование известных неизвестных с помощью вероятности TensorFlow - Промышленный ИИ, часть 2
Авторы: Венкатеш Раджагопалан, директор по науке и аналитике, и Арун Субраманиян , вице-президент по науке и аналитике в BHGE Digital В первом блоге этой серии мы представили нашу аналитическую философию объединения знаний предметной области, вероятностных методов, традиционного машинного обучения (ML) и методов глубокого обучения для решения некоторых из самых сложных проблем в промышленном мире. Мы также проиллюстрировали этот подход на примере построения гибридной модели..

Введение в теорию возможностей
Основные сведения о теории возможностей Теория возможностей была введена Заде [1] и получила дальнейшее развитие Дюбуа и Праде [2] с целью предложить четко определенное и формальное математическое представление для лингвистических утверждений, которое позволяет обрабатывать неточную или расплывчатую информацию. Например, слову дешево можно присвоить большой набор значений в соответствии с субъективным определением каждого и контекстом дешевизны. Значения вероятности можно..

Вероятность для машинного обучения
Вероятность для машинного обучения Несмотря на то, что он говорит нам о шансах и вероятности, он основан на чистых математических правилах, и если его правильно понять, мы можем открыть огромное количество информации о случайных событиях. Для начала давайте проясним два основных правила: Правило суммы Правило продукта Наша цель понять и сделать вывод, как одно событие влияет на другое. Правило суммы Он говорит нам о вероятности того, что хотя бы одно событие произойдет при..

Введение в вариационный автокодировщик (VAE)
Введение в вариационный автокодировщик (VAE) Итак, прошел месяц, и я ужасно чувствую необходимость задокументировать свои материалы. Скорее всего, я все забуду, может быть, через месяц или два после переезда отсюда. Я предпочел написать рассказ, чтобы он был менее скучным. Просто для ознакомления 1 мая 18 года я начал стажировку в лаборатории персональной робототехники Вашингтонского университета. Я пока не уверен в точной постановке задачи, все дело в экспериментах и ​​результатах...

Теорема Байеса | НЛП Часть-2
В этой статье мы обсудим теорему Байеса и то, как она используется для классификации спама в машинном обучении. Прежде всего, мы должны представить себе ситуацию. У нас есть два коллеги Макс и Тина. Они оба похожи друг на друга и работают в одной лаборатории. Однажды в лаборатории произошел пожар. Они оба сказали, что ничего не знают об огне и не имеют к нему никакого отношения. Но камера видеонаблюдения в коридоре увидела, что кто-то выбегает из лаборатории, когда начался пожар в..

Как найти сходство между двумя распределениями вероятностей с помощью Python
Использование Jensen Shannon Divergence для создания инструмента для определения расстояния между распределениями вероятностей с помощью Python. Я был на миссии, чтобы найти хорошую меру разницы между двумя распределениями вероятностей. Проведя много онлайн-исследований, изучив отзывы коллег и проверив различные методы, я нашел тот, который действительно хорошо работает. Моя постановка задачи может быть решена путем вычисления статистического расстояния между двумя распределениями..