Наука о данных, искусственный интеллект

Насколько важен объяснимый ИИ?

Объяснимый ИИ - это возможность сделать процесс принятия решений прозрачным и быстрым

В этой статье вы можете изучить Объясняемый ИИ, в чем его основная идея, зачем нужен Объясняемый ИИ и как мы собираемся развивать Объясняемый ИИ?

«Жизненно важно сделать все, что связано с ИИ, объяснимым, справедливым, безопасным и имеющим родословную, что означает, что каждый может очень просто увидеть, как развивается любое приложение ИИ и почему». - Джинни Рометти

Что такое объяснимый ИИ? В чем его основная идея?

Объяснимый ИИ (XAI) - это возможность сделать процесс принятия решений прозрачным и быстрым. Другими словами, XAI следует удалить так называемые черные ящики и подробно объяснить, как было принято решение.

Чтобы создать хорошую объяснимую систему или программу ИИ, необходимо ответить на следующие вопросы:

  • Какие намерения стоят за структурой и влияют на вовлеченные стороны?
  • Как именно ввод преобразуется в вывод?
  • Какие источники данных будут использоваться?

Необходимость разъяснений вызвана необходимостью доверять решениям, принимаемым ИИ, особенно в бизнес-секторе, где любые неправильные решения могут привести к значительным потерям.

Появившийся в бизнесе объяснимый ИИ предлагает аналитические данные, ведущие к лучшим бизнес-результатам, и прогнозирует наиболее предпочтительное поведение.

Прежде всего, XAI дает владельцу компании прямой контроль над операциями ИИ, поскольку владелец уже знает, что делает машина и почему. Это также обеспечивает защиту компании, так как все процедуры должны проходить протоколы безопасности и фиксироваться в случае нарушений.

Объяснение систем искусственного интеллекта помогает создать доверительные отношения с заинтересованными сторонами, когда они имеют возможность наблюдать за предпринимаемыми действиями и ценить их логику.

Абсолютная приверженность новому законодательству и инициативам в области безопасности, таким как GDPR, имеет решающее значение. В соответствии с действующим законом о праве на оправдание все решения, принимаемые немедленно, должны быть запрещены.

Однако с помощью XAI требование запрета самостоятельно генерируемых решений больше не будет действовать, поскольку процесс принятия решений в объяснимом ИИ максимально прост.

Зачем нужен объяснимый ИИ?

Речь идет о способности программы объяснять логику своего поведения человеку, и она принимает форму способности объяснить это компьютерному ученому на формальном языке и объяснить это пользователю системы.

Это очень важно, потому что оно тесно связано с доверием людей к использованию устройства, и, более формально, если это доверие имеет место благодаря способности доказывать информацию о действиях машины.

Как мы собираемся развивать Объясняемый ИИ?

Объясняемый ИИ - это искусственный интеллект, предназначенный для объяснения своих намерений, рассуждений и процесса принятия решений таким образом, чтобы их мог интерпретировать обычный человек.

XAI часто рассматривается в контексте глубокого обучения и играет важную роль в парадигме машинного обучения (ML):

  • Справедливость
  • Открытость
  • Прозрачность в машинном обучении

XAI предлагает общие сведения о том, как программное обеспечение искусственного интеллекта (AI) принимает решение, предоставляя следующие данные:

  • Сильные и слабые стороны учебной программы.
  • Основные параметры, используемые программным обеспечением, используются для вывода.
  • Почему программа принимает четкое решение, а не альтернативы?
  • Уровень уверенности, приемлемый для различных форм суждений.
  • Какие ошибки предполагается совершать в программе?
  • Какие ошибки нужно исправить?

Основная цель XAI - обеспечить алгоритмическую прозрачность. До недавнего времени системы ИИ были просто черными ящиками. Даже если входные и выходные данные известны, уравнения, используемые для принятия решения, всегда являются частными или трудными для понимания, несмотря на то, что внутренние механизмы программирования являются открытыми и общедоступными.

По мере того как искусственный интеллект становится все более распространенным, как никогда важно раскрыть способы ответа на предрассудки и вопрос доверия. Например, Общий регламент ЕС по защите данных (GDPR) дает право на пояснение.

Заключение

Объяснение на человеческом уровне включает в себя множество когнитивных функций, таких как самосознание, теория разума, долговременная память и хранение в памяти, семантика и т. Д. ИИ будет описывать роль того, что он может делать, и это экспоненциально связана с возможностями, которые мы открываем и внедряем.

А теперь прислушайтесь к своим мыслям в Twitter, Linkedin и Github !!

Согласны или не согласны с идеями и примерами Саурав Сингла? Хотите рассказать нам свою историю?

Он открыт для конструктивной обратной связи - если у вас есть дополнительные идеи для этого анализа, прокомментируйте их ниже или свяжитесь с нами !!

Твитните @ SauravSingla_08, комментарий Saurav_Singla и звезду SauravSingla прямо сейчас!