Публикации по теме 'xai'


Объяснимый ИИ (XAI)
Объяснимый ИИ (XAI) относится к разработке систем искусственного интеллекта, которые могут быть легко поняты как экспертами, так и неспециалистами. XAI стремится сделать ИИ более прозрачным и интерпретируемым, чтобы пользователи могли доверять решениям, принимаемым моделями и алгоритмами ИИ. Традиционные модели ИИ, такие как глубокие нейронные сети, часто считаются «черными ящиками», поскольку они могут принимать сложные решения на основе огромных объемов данных. Тем не менее, их..

Как объяснить классификаторы изображений с помощью LIME
Узнайте, как применить популярный метод объяснимого искусственного интеллекта (XAI) LIME для объяснения классификаторов изображений. Объяснения локальной интерпретируемой модели, не зависящие от модели (LIME)  — это один из самых популярных методов объяснимого искусственного интеллекта (XAI) , используемых для объяснения работы моделей машинного и глубокого обучения. LIME может предоставить независимые от модели локальные объяснения для решения задач как регрессии, так и..

Объяснимые рамки искусственного интеллекта, которые помогут вам понять и интерпретировать прогнозы, сделанные вашей машиной…
«Объяснимый ИИ вносит ясность в процесс принятия решений: понимание возможностей прозрачных систем ИИ». Чтобы продвигать объяснимый ИИ, исследователи разрабатывают инструменты и методы, и здесь мы рассмотрим некоторые из них, показавшие многообещающие результаты: за последние пару лет: Инструмент «что, если» Команда TensorFlow анонсировала интерактивный визуальный интерфейс What-If Tool , предназначенный для визуализации наборов данных и лучшего понимания результатов моделей..

Объяснение ИИ — Понимание моделей изображений с помощью карт заметности
Введение Если вы хотите получить больше информации о своей нейронной сети изображений, как и я, вот 2 хороших способа сделать это. Оба метода подходят к этой проблеме с идеей значимости изображения. заметность Оксфордское определение: Выдающееся положение, способность быть особенно заметным или важным . В нашем случае наша цель состоит в том, чтобы оценить значимость каждого значения пикселя в изображении. Заметность через окклюзию Впервые представленный в Zeiler and Fergus,..

Одна проблема ИИ
ИИ набирает все большее значение в современном деловом и академическом мире (по прогнозам McKinsey, к 2030 году ИИ обеспечит экономическую активность примерно в 30 триллионов долларов) с потрясающей производительностью в таких областях, как финансы, автономное вождение, научные исследования, производство и здравоохранение. . Несмотря на общее положительное отношение к ИИ, машинному обучению и науке о данных в целом, есть проблема, требующая внимания. Проблема, с которой ИИ столкнулся в..

XAI в джунглях конкурирующих фреймворков для машинного обучения
Недавно я столкнулся с серьезной проблемой. Мы делали доказательство концепции для анализа чемпион-претендент + исследование XAI. Это было сделано с деловым партнером, модели которого написаны как запросы if-else в salesforce . Часть нашей команды стремилась создать претендентов на ML в mlr (R), в то время как другие стремились к scikit-learn (python). Как будто этого было недостаточно, я собирался попробовать h2o automl (java + wrappers в R / python) в качестве теста. Данные..

Важно то, что находится снаружи: объяснимость модели с использованием подходов черного ящика.
В нашем предыдущем сообщении в блоге мы исследовали общую идею объяснимого искусственного интеллекта (XAI) [1], зачем он нам нужен, какие проблемы могут возникнуть у нас при разработке таких систем и, наконец, что делает текущий (ЕС () Закон говорит о требованиях XAI. В этом сообщении блога мы рассмотрим два подхода к проверке моделей машинного обучения: зависящий от модели и независимый от модели . Подходы к конкретной модели Многие из так называемых «интерпретируемых» [5]..