Наука о данных, искусственный интеллект
Насколько важен объяснимый ИИ?
Объяснимый ИИ - это возможность сделать процесс принятия решений прозрачным и быстрым
В этой статье вы можете изучить Объясняемый ИИ, в чем его основная идея, зачем нужен Объясняемый ИИ и как мы собираемся развивать Объясняемый ИИ?
«Жизненно важно сделать все, что связано с ИИ, объяснимым, справедливым, безопасным и имеющим родословную, что означает, что каждый может очень просто увидеть, как развивается любое приложение ИИ и почему». - Джинни Рометти
Что такое объяснимый ИИ? В чем его основная идея?
Объяснимый ИИ (XAI) - это возможность сделать процесс принятия решений прозрачным и быстрым. Другими словами, XAI следует удалить так называемые черные ящики и подробно объяснить, как было принято решение.
Чтобы создать хорошую объяснимую систему или программу ИИ, необходимо ответить на следующие вопросы:
- Какие намерения стоят за структурой и влияют на вовлеченные стороны?
- Как именно ввод преобразуется в вывод?
- Какие источники данных будут использоваться?
Необходимость разъяснений вызвана необходимостью доверять решениям, принимаемым ИИ, особенно в бизнес-секторе, где любые неправильные решения могут привести к значительным потерям.
Появившийся в бизнесе объяснимый ИИ предлагает аналитические данные, ведущие к лучшим бизнес-результатам, и прогнозирует наиболее предпочтительное поведение.
Прежде всего, XAI дает владельцу компании прямой контроль над операциями ИИ, поскольку владелец уже знает, что делает машина и почему. Это также обеспечивает защиту компании, так как все процедуры должны проходить протоколы безопасности и фиксироваться в случае нарушений.
Объяснение систем искусственного интеллекта помогает создать доверительные отношения с заинтересованными сторонами, когда они имеют возможность наблюдать за предпринимаемыми действиями и ценить их логику.
Абсолютная приверженность новому законодательству и инициативам в области безопасности, таким как GDPR, имеет решающее значение. В соответствии с действующим законом о праве на оправдание все решения, принимаемые немедленно, должны быть запрещены.
Однако с помощью XAI требование запрета самостоятельно генерируемых решений больше не будет действовать, поскольку процесс принятия решений в объяснимом ИИ максимально прост.
Зачем нужен объяснимый ИИ?
Речь идет о способности программы объяснять логику своего поведения человеку, и она принимает форму способности объяснить это компьютерному ученому на формальном языке и объяснить это пользователю системы.
Это очень важно, потому что оно тесно связано с доверием людей к использованию устройства, и, более формально, если это доверие имеет место благодаря способности доказывать информацию о действиях машины.
Как мы собираемся развивать Объясняемый ИИ?
Объясняемый ИИ - это искусственный интеллект, предназначенный для объяснения своих намерений, рассуждений и процесса принятия решений таким образом, чтобы их мог интерпретировать обычный человек.
XAI часто рассматривается в контексте глубокого обучения и играет важную роль в парадигме машинного обучения (ML):
- Справедливость
- Открытость
- Прозрачность в машинном обучении
XAI предлагает общие сведения о том, как программное обеспечение искусственного интеллекта (AI) принимает решение, предоставляя следующие данные:
- Сильные и слабые стороны учебной программы.
- Основные параметры, используемые программным обеспечением, используются для вывода.
- Почему программа принимает четкое решение, а не альтернативы?
- Уровень уверенности, приемлемый для различных форм суждений.
- Какие ошибки предполагается совершать в программе?
- Какие ошибки нужно исправить?
Основная цель XAI - обеспечить алгоритмическую прозрачность. До недавнего времени системы ИИ были просто черными ящиками. Даже если входные и выходные данные известны, уравнения, используемые для принятия решения, всегда являются частными или трудными для понимания, несмотря на то, что внутренние механизмы программирования являются открытыми и общедоступными.
По мере того как искусственный интеллект становится все более распространенным, как никогда важно раскрыть способы ответа на предрассудки и вопрос доверия. Например, Общий регламент ЕС по защите данных (GDPR) дает право на пояснение.
Заключение
Объяснение на человеческом уровне включает в себя множество когнитивных функций, таких как самосознание, теория разума, долговременная память и хранение в памяти, семантика и т. Д. ИИ будет описывать роль того, что он может делать, и это экспоненциально связана с возможностями, которые мы открываем и внедряем.
А теперь прислушайтесь к своим мыслям в Twitter, Linkedin и Github !!
Согласны или не согласны с идеями и примерами Саурав Сингла? Хотите рассказать нам свою историю?
Он открыт для конструктивной обратной связи - если у вас есть дополнительные идеи для этого анализа, прокомментируйте их ниже или свяжитесь с нами !!
Твитните @ SauravSingla_08, комментарий Saurav_Singla и звезду SauravSingla прямо сейчас!