Влияние неисправного А.И. система может разрушить жизнь, если ее не проверить.

Новый мир, основанный на искусственном интеллекте, сегодня окружает нас повсюду. От Alexa до беспилотных автомобилей и умных домов ИИ меняет то, как мы взаимодействуем с этим миром.

Многие люди (и какой-то парень по имени Илон Маск) также упоминали об опасностях ИИ и о том, как он может привести к тому человечеству, которое мы знаем.

Может ли ИИ ошибаться? И насколько серьезными могут быть эти ошибки?

Как вы хорошо знаете, я большой поклонник Искусственного интеллекта и довольно много писал об этом; но даже я знаю, что ИИ, как и любая технология, может быть использован не по назначению.

Я не верю, что ИИ уничтожит людей, как некоторые люди любят предсказывать, но существует огромный потенциал ущерба, если ИИ не будет должным образом управляться и регулироваться. Давайте рассмотрим пример из практики, чтобы получить представление о том, как ИИ может совершать ошибки и наносить реальный ущерб.

Как машины учатся (и как они могут ошибаться)

Чтобы полностью понять, как ИИ может совершать ошибки, давайте поймем движущую силу ИИ, а именно машинное обучение.

Не вдаваясь в технический жаргон, машинное обучение — это наука об обучении машины принимать решения без жестко запрограммированных инструкций по программированию.

Как показано на диаграмме ниже, машина снабжена обучающими данными и алгоритмом для понимания этих данных.

Как только машина поймет, она сможет создать модель для принятия решений. Эти решения проверяются на точность, и поступает все больше и больше данных, пока не будет достигнут высокий уровень уверенности в том, насколько точными будут эти решения.

Все это кажется довольно простым, но также приводит к одному вопросу. Точность алгоритма машинного обучения напрямую связана с качеством обучающих данных, которые ему передаются. Что делать, если данные были искажены в определенном направлении?

Например, если алгоритм распознавания лиц был обучен только лицам европеоидной расы, то будет ли он распознавать и другую этническую принадлежность? Здесь мы начинаем вникать в интересные последствия неправильного обучения машинному обучению.

Давайте посмотрим на реальные примеры того, как ИИ ошибается.

Фиаско Компаса

В 2016 году стало известно о действительно страшном случае неправомерного использования ИИ: в отчете было показано, что система ИИ, используемая в залах суда под названием Исправительный профилировщик правонарушителей для альтернативных санкций (COMPAS), действовала предвзято против Черные люди.

Эта система использовалась для оценки обвиняемого и учета таких факторов, как возраст и предыдущая история арестов, и использовала ее для определения того, относился ли преступник к «высокому риску» или нет.

Это могло привести к тому, что суд вынесет более строгие приговоры к тюремному заключению и более крупные штрафы, так что влияние на жизнь имело место.

Отчет показал, что алгоритм совершал две очень серьезные ошибки при определении того, может ли преступник совершить повторное преступление в будущем:

  • Чернокожие обвиняемые в два раза чаще попадали под стражу, чем будущие правонарушители
  • Белые обвиняемые с большей вероятностью попадали в группу низкого риска

Чтобы представить это в контексте, взгляните на приведенные ниже случаи и уровень риска, присвоенный КОМПАС. Считаете ли вы, что предыдущие правонарушения и присвоенный рейтинг риска совпадают?

COMPAS был важен, поскольку он заставил людей понять, что алгоритмы машинного обучения могут на самом деле наследовать расовые предубеждения и предубеждения из данных обучения, которые не являются должным образом репрезентативными для всех рас. Это привело к реальным последствиям, когда люди получили незаслуженные приговоры.

Полный отчет можно прочитать здесь

Как остановить предвзятость в системах ИИ

Ученые и исследователи предложили определенные атрибуты, которые должны присутствовать в системах ИИ, чтобы общественность им доверяла. В принципе, алгоритм должен иметь следующие характеристики:

  • Целостность. Правильно ли построена модель? Есть ли контроль над ним, чтобы убедиться, что его параметры не меняются? Откуда мы знаем, что никто не вмешивается в это?
  • Справедливость. Необходимо следить за тем, чтобы данные не унаследовали каких-либо расовых предубеждений на этапе их сбора. Необходимо провести тесты, чтобы убедиться в этом, и при необходимости данные перебалансировать.
  • Прозрачность. Общественность должна знать, как создавалась модель и как она принимает решения. Очень важно знать, принимает ли модель какие-либо решения, влияющие на благополучие других людей.

Эти принципы не могут применяться в вакууме, и для того, чтобы они вступили в силу, необходимо создать основу. Подробнее о реализации такого фреймворка вы можете прочитать ниже.



Надеюсь, вам понравилось это читать. Если вам интересна эта тема, ознакомьтесь с моим курсом А.И. управление и кибербезопасность, в которой рассматриваются новые типы рисков ИИ и способы их снижения.

Таймур Иджлал — отмеченный множеством наград лидер в области информационной безопасности с более чем двадцатилетним международным опытом в области кибербезопасности и управления ИТ-рисками в финтех-индустрии. С Таймуром можно связаться в LinkedIn или на его канале YouTube Cloud Security Guy, на котором он регулярно публикует информацию об облачной безопасности, искусственном интеллекте и общие советы по карьере в области кибербезопасности.

Вы можете получить полный доступ ко всем историям на Medium всего за 5 долларов в месяц, зарегистрировавшись по ссылке ниже: