Простые шаги для смягчения последствий ИИ риски в структурированном виде

А.И. основанные на рисках — это тема, о которой я много раз писал до и даже написал книгу, и один из самых частых вопросов, которые мне задают, это

Как вы предпримете меры по смягчению воздействия ИИ? риски ?

Это довольно интересный вопрос, учитывая недостаток знаний по этой теме, и правда в том, что эти риски не существуют в вакууме. Это не «ошибка», которую вы исправите один раз и забудете о ней до следующего года.

Для А.И. риски, которые необходимо выявить и смягчить, необходимо создать надлежащую структуру управления

Если ваша компания планирует использовать системы ИИ в качестве стратегического и/или конкурентного преимущества в долгосрочной перспективе, то наличие этой структуры будет иметь решающее значение.

Правительства спешат ввести регулирование для контроля над ИИ. но это займет свое сладкое время, чтобы принять. Это означает, что компаниям необходимо взять на себя инициативу и внедрить инфраструктуру для снижения уникальных рисков управления и безопасности, которые представляют системы ИИ.

Дополнительным преимуществом будет то, что, когда правила вступят в силу, те компании, которые активно внедрили структуры управления для систем ИИ, получат явное преимущество и им будет намного проще соблюдать новые правила.

Из чего состоит хорошая структура управления ИИ?

ИИ становится все более и более жизнеспособным и простым для компаний, а удобное программное обеспечение ИИ, которое требует небольшого понимания базовых моделей, становится довольно популярным.

Помимо внутренних проектов, программное обеспечение, управляемое поставщиком, также может иметь компоненты ИИ, которые могут создавать риски, если они не будут своевременно устранены.

Компания потенциально может купить программное обеспечение для кредитного скоринга у поставщика, не зная, что в основе лежит модель искусственного интеллекта, которая не была создана должным образом и потенциально дискриминирует определенных людей!

Чтобы решить эти проблемы для специалистов по управлению рисками, компаниям необходимо создать структуру управления ИИ, чтобы была создана структурированная система для выявления, смягчения и отслеживания этих рисков до закрытия.

Структура управления — это структурированный способ убедиться, что все работает правильно и соответствует отраслевым нормам и рекомендациям. Эффективная структура управления ИИ гарантирует, что компания снижает риски, связанные с системами ИИ, структурированным и воспроизводимым образом.

Это означает, что системы искусственного интеллекта не будут слепым пятном для компании, а вместо этого будут одобрены, формализованы и оценены, чтобы убедиться, что они не создают непредвиденных рисков.

Эффективной основой будет:

  • Технологический агностик: он не заботится о какой-либо программной технологии или поставщике и вместо этого будет применять одни и те же принципы независимо от технологии.
  • Алгоритм независим: его не волнуют основные технические аспекты алгоритма ИИ, но важно, как он был разработан, как его данные были собраны и следует ли он принципам «доверия ИИ» (подробнее об этом то вкратце)

Ключевые компоненты системы управления ИИ

Хотя структура управления может меняться в зависимости от характера бизнеса и его нормативно-правовой базы, некоторые аспекты будут общими для разных отраслей.

Компоненты высокого уровня структуры управления ИИ следующие:

Давайте посмотрим на них один за другим

1. Политика искусственного интеллекта и машинного обучения:

Любой, у кого есть опыт внедрения системы управления, знает, что самое сложное — всегда изменить укоренившуюся культуру компании. У компаний есть способ делать вещи, которые со временем развиваются, и внедрение новых средств контроля всегда встречает первоначальное сопротивление.

Один из лучших способов стимулировать изменения со стороны руководства — формализовать политику, четко формулирующую видение компании в отношении этического использования ИИ в компании и снижения рисков, связанных с ИИ.

Политика высокого уровня задаст тон того, как использование ИИ будет контролироваться в компании, и формализует ответственность за использование ИИ и общие принципы, которым должны соответствовать системы ИИ.

В двух словах, политика ИИ информирует всех, кто может что делать и где останавливается ответственность, если выясняется, что системы ИИ были созданы с нарушением требований. Он также послужит основой для других последующих компонентов.

2. Комитет по управлению ИИ:

Другим ключевым аспектом является межфункциональная группа управления, которая наблюдает за системами ИИ и принимает решения о том, следует или не следует проводить новые инициативы в области ИИ.

Руководству придется определить ключевых людей в компании и предоставить им полномочия в отношении средств управления ИИ, сделав их частью этого комитета.

Если новая система искусственного интеллекта разрабатывается на рынке, который может подвергнуть вашу компанию риску несоблюдения местного законодательства, то именно этот комитет будет принимать решение об отказе от дальнейших действий.

Создав этот комитет из представителей нескольких департаментов; он гарантирует, что учитываются разные точки зрения, и записывается весь вклад заинтересованных сторон.

Как минимум, в комитете должны быть представители

  • Юридический – чтобы гарантировать отсутствие юридических последствий в любом новом проекте ИИ.
  • Кибербезопасность — обычно лучше всего подходит для выявления любых угроз безопасности в системах ИИ.
  • Технология — команда, которая занимается внедрением новых технологий искусственного интеллекта и отвечает за мониторинг и управление базовой инфраструктурой.
  • Наука о данных — люди, работающие с данными, на основе которых работают системы искусственного интеллекта.
  • Бизнес — движущая сила большинства инициатив ИИ.
  • Аудит и риск — независимые члены являются необходимой частью этого комитета для обеспечения эффективного управления.
  • Под председательством члена исполнительного комитета

3. Система управления рисками ИИ

Вывод политики ИИ; структура для выявления рисков в критически важных для бизнеса системах искусственного интеллекта будет создана и будет принадлежать назначенному подразделению. Подобно подразделению по управлению рисками в обычной компании, это подразделение будет создавать стратегии смягчения последствий для выявления и устранения рисков ИИ, связанных с предвзятостью, сбором данных, кибербезопасностью, отказоустойчивостью и т. д.

4. Принципы доверия ИИ

Чтобы системы ИИ были приняты клиентами, они должны вызывать «доверие», т. е. клиенты должны быть уверены в том, что принимаемые решения справедливы и ИИ никоим образом не дискриминирует их.

Частью структуры будет установление принципов доверия, которым должна соответствовать каждая система ИИ, и они должны быть встроены в культуру компании. Специалисты по данным и другие группы, участвующие в сборе данных, будут обучены обеспечивать соблюдение этих принципов, чтобы свести к минимуму предвзятость.

Как минимум, система ИИ должна следовать следующим принципам:

  1. Целостность. Убедитесь, что алгоритм машинного обучения надежен и не может быть изменен. Любые данные, используемые для обучения алгоритма, будут использоваться только для того, для чего они были собраны, а не для чего-либо дополнительного.
  2. Объяснимость. ИИ не будет «черным ящиком», а процесс принятия решений алгоритмом будет прозрачным и задокументированным.
  3. Справедливость — решения будут справедливыми, этичными, свободными от предубеждений и не будут предвзято относиться к любому возрасту, полу, группе или этнической принадлежности.
  4. Отказоустойчивость. Система ИИ должна быть безопасной и достаточно надежной, чтобы защищать ее инфраструктуру или данные от атак злоумышленников.

Зачем строить с нуля?

Если вы серьезно относитесь к созданию системы управления ИИ для своей компании, то хорошая новость заключается в том, что доступно множество готовых платформ, которые вы можете использовать в качестве шаблона.

Лично мне больше всего нравится Model AI Governance Framework, выпущенная регулирующими органами Сингапура. Представленный в 2019 году на Всемирном экономическом форуме (ВЭФ), он содержит подробные рекомендации для компаний о том, как снизить этические и управленческие риски при создании систем ИИ.

Фреймворк представляет собой отличный план для каркаса модели и основан на двух руководящих принципах:

  • решения, принимаемые ИИ, должны быть «объяснимыми, прозрачными и справедливыми».
  • Системы ИИ должны быть ориентированы на человека (т. е. разработка и развертывание ИИ должны защищать интересы людей, в том числе их безопасность и благополучие)

Вы можете использовать и внедрять части структуры модели в своей организации и адаптировать ее в соответствии со своими потребностями. Лучшее в этой модели то, что ее может принять любая компания, независимо от ее размера или отрасли, от крупного банка до небольшого технологического стартапа.

А.И. управление рисками - это будущее

ИИ меняет правила игры для специалистов по управлению рисками, и наличие надлежащей системы управления является ключом к снижению его рисков. Руководство должно понимать, что снижение рисков ИИ — это не просто бюрократическая волокита, которая замедляет внедрение, а реальное конкурентное преимущество, которое можно продемонстрировать, чтобы завоевать доверие клиентов.

Надеюсь, вам понравилось это читать. Если вам интересна эта тема, ознакомьтесь с моим курсом А.И. управление и кибербезопасность, в которой рассматриваются новые типы рисков ИИ и способы их снижения.