Публикации по теме 'model-interpretability'


Объяснимый ИИ с ICE (индивидуальные графики условного ожидания)
В этой статье мы рассмотрим, что такое графики ICE и как мы можем их использовать для объяснения алгоритма машинного обучения. В прошлом блоге я писал об Объяснимом ИИ с PDP (графиком частичной зависимости) , это следующий из серии, посвященной другому методу объяснения алгоритмов ML. Если вы ненавидите теорию и хотите поиграть с кодом, Google Colab для вас. Для других, интересующихся тем, как работают отдельные графики условных ожиданий, прочитайте всю статью. Введение У..

GBM V / S Logistic (Пример использования в банковской сфере)
Машинное обучение - новое модное слово в городе. Каждая отрасль хочет использовать методы машинного обучения из-за их способности повысить точность и тем самым увеличить доход. Однако в таких отраслях, как финансы и здравоохранение, где наряду с точностью жизненно важную роль играет рассуждение, использование этих методов является большим вопросом. Ниже приводится тематическое исследование, которое показывает, что произойдет, если методы машинного обучения будут использоваться в этих..

Банковский личный кредит
Абстрактный Этот набор данных содержит данные о 5000 клиентов, и информация включает возраст клиента, доход и другие демографические данные; взаимоотношения клиента с банком; и реакция клиента на самую последнюю кампанию личного кредита (персональный кредит). Только 480 (или 9,6%) из этих 5000 клиентов приняли потребительский кредит, предоставленный им в ходе предыдущей кампании. Цель: в этом задании мы стремимся создать полный проект машинного обучения с Проверка качества..

Одна проблема ИИ
ИИ набирает все большее значение в современном деловом и академическом мире (по прогнозам McKinsey, к 2030 году ИИ обеспечит экономическую активность примерно в 30 триллионов долларов) с потрясающей производительностью в таких областях, как финансы, автономное вождение, научные исследования, производство и здравоохранение. . Несмотря на общее положительное отношение к ИИ, машинному обучению и науке о данных в целом, есть проблема, требующая внимания. Проблема, с которой ИИ столкнулся в..

Основы: Градиент * Ввод как объяснение
Начало работы , Интерпретируемость модели Основы: Градиент * Ввод как объяснение Простой метод для простых функций. В этом посте я хочу познакомиться с основами объяснений на основе градиентов, как вы можете их использовать и что они могут или не могут делать. Gradient * Input - отличный способ объяснить дифференцируемые модели машинного обучения, такие как нейронные сети, поскольку он концептуально прост и прост в реализации. Вычисление градиентов также происходит очень быстро,..

5 лучших библиотек интерпретируемости моделей для Python
Добро пожаловать в пост о пяти лучших библиотеках интерпретации моделей машинного обучения Python! Интерпретируемость модели - также известная как объяснимость модели - это важная область машинного обучения, которая помогает, например, при отладке моделей или обнаружении проблем, связанных с предвзятостью, или в целом повышает доверие к результатам. Общая цель развертывания моделей в производстве - принимать решения или опираться на них, что может работать только тогда, когда вы им в..

Объяснимая машина повышения
Интерпретируемость модели Объяснимая машина повышения Так же точен, как повышение градиента, так же интерпретируется как линейная регрессия. Компромисс между интерпретируемостью и точностью В сообществе машинного обучения я часто слышу и читаю о понятиях интерпретируемости и точности и о том, как найти компромисс между ними. Обычно это изображают примерно так: Вы можете прочитать это следующим образом: Линейная регрессия и деревья решений - это довольно простые..