У некоторых термин «искусственный интеллект» может вызвать мысли о прогрессе и продуктивности. Для других перспективы менее оптимистичны. Многие опасения, такие как несправедливые решения, замена работников и отсутствие конфиденциальности и безопасности, имеют место быть. Что еще хуже, многие из этих проблем уникальны для ИИ. Это означает, что существующие правила и законы не подходят для их решения. Вот тут-то и появляется ответственный ИИ. Он направлен на решение этих проблем и создание подотчетности для систем ИИ.

Что такое ответственный ИИ?

Обсуждая, что такое ИИ и что он включает в себя, мы обычно связываем

модель машинного обучения, встроенная в хорошо организованную систему для автоматизации определенных задач. Например, беспилотный автомобиль может получать изображения с датчиков. Модель машинного обучения может использовать эти изображения для прогнозирования (например, объект перед нами — дерево). Эти прогнозы используются автомобилем для принятия решений (например, повернуть налево, чтобы объехать дерево). Вся структура, которая включает в себя принятие решений в определенной ситуации, называется ИИ.

Один из многих примеров, использованных здесь. ИИ можно использовать для автоматизации и решения любой возможной задачи, от включения света в вашей гостиной до обнаружения рака для скорейшего лечения пациента. Определяющей характеристикой является то, что человеческий фактор в решениях, принимаемых системой, ограничен или отсутствует. Это может привести ко многим потенциальным проблемам, и компаниям необходимо определить четкий подход к использованию ИИ. Ответственный ИИ — это структура управления, предназначенная именно для этого.

Цели ответственного искусственного интеллекта

Структура может включать сведения о том, какие данные можно собирать и использовать, как следует оценивать модели и как лучше всего развертывать и отслеживать модели. Структура также может определять, кто несет ответственность за любые негативные последствия ИИ. Фреймворки будут различаться между компаниями. Некоторые из них будут определять конкретные подходы, а другие будут более открыты для интерпретации. Все они стремятся достичь одного и того же. То есть создавать системы ИИ, которые интерпретируемы, справедливы, безопасны и уважают конфиденциальность пользователя.

Цели ответственного искусственного интеллекта:

Основная цель ИИ — добиться подотчетности, в соответствии с другими принципами, формирующими основу для ответственного ИИ, в том числе:

  • Интерпретируемость
  • Справедливость
  • Безопасность
  • Конфиденциальность

Интерпретируемость:

Первый момент, упомянутый здесь, это интерпретируемость. Когда мы интерпретируем модель, мы понимаем, как она работает, обрабатывает информацию и делает прогнозы. Тот факт, что система ИИ может принять или отклонить вашу заявку на кредит или потенциально обнаружить и диагностировать у вас рак. Такие решения, которые потенциально могут повлиять на вашу повседневную жизнь, системы принятия решений должны регулярно анализироваться и перепроверяться, чтобы гарантировать отсутствие случайных решений, и поэтому возникает важность интерпретируемости. Ответственный ИИ, безусловно, может определить, как мы строим интерпретируемые модели, а также когда и какие модели можно использовать в случае отсутствия нескольких моделей.

Справедливость

С интерпретируемостью связана модель справедливость. Системы ИИ могут принимать решения, дискриминирующие определенные группы людей. Это смещение возникает из-за смещения данных, используемых для обучения моделей. В целом, чем более интерпретируема модель, тем легче обеспечить справедливость и исправить любую предвзятость. Нам по-прежнему нужна структура ответственного ИИ, чтобы определить, как мы оцениваем справедливость и что делать, когда обнаруживается, что модель делает несправедливые прогнозы. Это особенно важно при использовании менее интерпретируемых моделей.

Безопасность и защита:

Безопасность и надежность – еще одна забота. Они не новы в разработке программного обеспечения и решаются с помощью таких методов, как шифрование и тестирование программного обеспечения. Разница в том, что, в отличие от обычных компьютерных систем, системы ИИ не являются детерминированными. Столкнувшись с новыми сценариями, они могут принимать неожиданные решения. Системами можно даже манипулировать, чтобы они принимали неверные решения. Это особенно важно, когда мы имеем дело с роботами. Если они совершают ошибки, такие вещи, как самоуправляемые автомобили, могут привести к травмам или смерти.

Конфиденциальность и управление данными:

Наконец, важность конфиденциальности и управления данными. Хотя в наши дни конфиденциальность данных воспринимается как миф, она продолжает оставаться жизненно важным аспектом в технологическом мире. Важно качество используемых данных. Если в данных, используемых ИИ, есть ошибки, система может принять неверные решения. В целом, ИИ также нельзя разрешать использовать конфиденциальные данные (например, историю болезни, членство в профсоюзе).

Необходимость ответственного ИИ-

Потребность в ответственном ИИ важнее, чем когда-либо, в настоящий момент, когда дело доходит до ИИ, ожидается, что компании будут саморегулироваться. Это означает, что они должны создать и внедрить свои собственные принципы ответственного ИИ. У таких компаний, как Google, Microsoft и IBM, есть свои правила. Одна из проблем заключается в том, что принципы ответственного ИИ могут применяться непоследовательно в разных отраслях. Небольшие компании могут даже не иметь ресурсов для создания собственных.

В то время как опрос «Состояние ИИ и машинного обучения в 2020 году», проведенный в 374 различных организациях, показывает, что 75% организаций считают, что ИИ играет решающую роль в их отрасли, и только 25% из них также заявили, что справедливый ИИ важен, таким образом ясно демонстрируя монополию, которую эти компании хотели бы удерживать, создавая мощный ИИ и сохраняя их нерегулируемыми.

Таким образом, этим компаниям нельзя доверять нерегулируемый ИИ. Гораздо важнее наличие у правительств нормативно-правовой базы, а также важность разработки политики для них, а также наказания за злоупотребления служебным положением.

Текущий мировой сценарий-

В Европе многие из этих проблем решаются в Общем регламенте ЕС по защите данных. За пределами Европы их необходимо будет решать с помощью собственной системы ответственного ИИ компании.

В настоящее время крупные компании за пределами ЕС имеют внутреннюю структуру управления, которая следит за использованием ИИ и настройкой консультативного совета, чтобы гарантировать, что используемый ИИ проверяется, наряду с «Инструментами справедливости ИИ», разработанными Google, IBM и Microsoft для мониторинга и анализа. используется ли ИИ справедливым и сбалансированным образом и в соответствии с рекомендациями государственных организаций.

БИЗНЕС ответственно внедряет искусственный интеллект:

  1. GOOGLE

Инструмент Whatif (WIT), разработанный Google для понимания работы моделей, обученных машинному обучению. Используя WIT, вы можете тестировать производительность в гипотетических ситуациях, анализировать важность различных функций данных и визуализировать поведение модели для нескольких моделей и подмножеств входных данных, а также для различных показателей справедливости машинного обучения.

В ходе своих исследований они учитывают последние результаты, работают над тем, чтобы включить их по мере необходимости и адаптируются по мере того, как со временем узнают больше.

Google стремится добиться прогресса в ответственной разработке ИИ и делиться знаниями, исследованиями, инструментами, наборами данных и другими ресурсами с более широким сообществом.

2. IBM

Инструмент AI объяснимости 360, также известный как AIX360, набор инструментов с открытым исходным кодом, используемый для анализа, интерпретации и объяснения моделей машинного обучения на основе различных параметров. IBM создала Совет по этике ИИ, созданный как центральный междисциплинарный орган для поддержки культуры этического, ответственного и заслуживающего доверия ИИ во всей IBM.

Их миссия состоит в том, чтобы поддерживать централизованное управление, проверку и процесс принятия решений в отношении политики, практики, коммуникаций, исследований, продуктов и услуг IBM в области этики. Внедряя наши давние принципы и этическое мышление, Совет является одним из механизмов, с помощью которого IBM обеспечивает ответственность нашей компании и всех сотрудников IBM перед нашими ценностями.

3. Майкрософт

InterpretML — это код с открытым исходным кодом от Microsoft, предназначенный для улучшения объяснимости.

Microsoft включает использование ИИ через Управление ответственного ИИ (ORA), Комитет по ИИ, этике и эффектам в инженерии и исследованиях (Aether) и Стратегию ответственного ИИ в разработке (RAISE). Эфирный комитет консультирует руководство по проблемам и возможностям, связанным с инновациями ИИ. ORA устанавливает правила и процессы управления, работая в тесном сотрудничестве с командами по всей компании, чтобы сделать возможными усилия. RAISE — это команда, которая обеспечивает внедрение ответственных правил ИИ Майкрософт в инженерных группах.

InterpretML — это код с открытым исходным кодом от Microsoft, предназначенный для улучшения объяснимости.

Microsoft также полностью поддерживает разработку законодательства для его использования в США и тот факт, что он уже поддерживает регулирование конфиденциальности в течение последних 15 лет (в частности, GDPR).

4. SAP, Intel:

В то время как в различных других компаниях, таких как SAP и Intel, есть разные внутренние комитеты по этике и обзору, которые следят за разумным использованием ИИ и помогают компаниям придерживаться их руководящих принципов, а также сотрудничали в разработке и внедрении SAP HANA и Analytics для нескольких доменов для быстрее анализировать данные для системы аналитики данных цепочки поставок.

Будущее ответственного искусственного интеллекта

Будущее ответственного использования ИИ, по-видимому, подлежит обсуждению и обсуждению, поскольку только несколько ведущих компаний, таких как Google, Microsoft, IBM, проделали работу на низовом уровне по разработке инструментов мониторинга и отчетности ИИ.
Много работы еще предстоит сделать, однако сформулированные прогрессивные законы Европейского союза, такие как Общий регламент ЕС по защите данных (GDPR), который устанавливает руководящие принципы и правила для конфиденциальности данных, еще раз доказывает тот факт, что усилия прилагаются для дальнейшего продвижения причиной необходимости международной нормативно-правовой базы для ответственного ИИ и ее принципов.

Вывод-

К счастью, Google, Microsoft и IBM сами разработали новые инструменты подотчетности, которые можно с пользой использовать, когда необходимо проводить только что упомянутые оценки.

Законодателям и правительствам необходимо разработать политику и нормативно-правовую базу, работая совместно с компаниями из различных областей, принимая во внимание их потребности и продолжая разрабатывать политику на благо людей.

Однако скептицизм в отношении того, что это произойдет в ближайшее время, не является необоснованным, поскольку аргумент о том, что алгоритмические детали должны быть защищены как коммерческая тайна, по-прежнему пользуется поддержкой как крупных, так и малых компаний, занимающихся ИИ.

Этот последний шаг, когда компании, занимающиеся искусственным интеллектом, фактически соответствуют требованиям государственного аудита и с готовностью предоставляют всю необходимую информацию о своих алгоритмах, представляет собой зрелище, которое еще предстоит развернуть.

Ссылки:

https://link.springer.com/article/10.1007/s13347-021-00474-3

https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6

https://dev.to/amananandrai/6-explainable-ai-xai-frameworks-for-transparency-in-ai-3koj

https://aix360.mybluemix.net/

https://appen.com/whitepapers/the-state-of-ai-and-machine-learning-report/

https://towardsdatascience.com/what-is-responsible-ai-548743369729