Объясняемый ИИ (XAI) относится к методам и методам применения технологии искусственного интеллекта (ИИ), благодаря которым результаты решения могут быть поняты специалистами-людьми.

Сегодня все говорят об искусственном интеллекте, но большинство людей даже не интересуется, как машина обучается, и каким критериям они следуют или при каких обстоятельствах алгоритмы принимают решения.

Прорыв в области искусственного интеллекта привел к продвижению и развитию программ, которые предсказывают заболевания, распознают лица, классифицируют вещи, распознают голоса и т. Д., Намного лучше, чем раньше, близко к человеческому уровню интерпретируемости, а теперь в некоторых случаях лучше, чем человеческое понимание.

Большинство алгоритмов машинного обучения и глубокого обучения работают как модель черного ящика, в которую мы вводим данные, и они дают нам результаты, но мы не знаем, на какой основе ИИ пришел к такому решению. . Принятие решений в ИИ несколько скрыто, и иногда даже разработчик алгоритмов ИИ не может понять, как принимаются решения и получаются результаты. В приведенном ниже примере показано, как ИИ может иногда оценивать свое решение:

«Система 2017 года, которой было поручено распознавание изображений, научилась« жульничать », ища метку авторского права, которая была связана с изображениями лошади, вместо того, чтобы научиться определять, была ли лошадь на самом деле изображена».

Уровень прозрачности в AI Decision

Принятие ИИ в современном обществе и, таким образом, потеря контроля над людьми в процессе принятия решений и передача их «интеллектуальным машинам». XAI - ветвь ИИ, которая фокусируется на раскрытии сложных моделей искусственного интеллекта, которые предсказывают и принимают сложные решения интерпретируемым образом.

Цель XAI - создать AI-модель, которую можно интерпретировать и объяснить без ущерба для точности и сценария использования. Объяснимый ИИ занимается укреплением доверия между пользователем между машинами, зная, что и как влияет на решение и результат, который они получили от алгоритмов ИИ.

Обеспокоенная область, которая поддерживает XAI

Есть несколько чувствительных областей, в которых необходимо объяснение результатов, полученных от приложений ИИ:

  1. Медицинский диагноз - как кто-то или даже машина может сказать, что у конкретного пациента диагностировано заболевание.
  2. Открытие лекарств - как и почему алгоритмы ИИ приходят к выводу, что это солевые смеси или лекарство от этих заболеваний.
  3. Системы безопасности - надежность при принятии решений ИИ без знания исходного источника, только благодаря большому количеству наборов данных.
  4. Финансы и юридическая деятельность - решения, связанные с деньгами, правилами и положениями.

Короче говоря, XAI фокусируется на создании решений искусственного интеллекта с человеческими познаниями и прозрачностью со всеми современными результатами. Таким образом, приложения XAI (Explainable AI) могут преднамеренно использоваться в критических и чувствительных областях, таких как медицина, оборона и т. Д.

Ссылки:

Https://en.wikipedia.org/wiki/Explainable_artificial_intelligence

Https://www.forbes.com/sites/cognitiveworld/2019/07/23/understanding-explainable-ai/#7cdbe01f7c9e

Https://www.darpa.mil/program/explainable-artificial-intelligence