Влияние неисправного А.И. система может разрушить жизнь, если ее не проверить.
Новый мир, основанный на искусственном интеллекте, сегодня окружает нас повсюду. От Alexa до беспилотных автомобилей и умных домов ИИ меняет то, как мы взаимодействуем с этим миром.
Многие люди (и какой-то парень по имени Илон Маск) также упоминали об опасностях ИИ и о том, как он может привести к тому человечеству, которое мы знаем.
Может ли ИИ ошибаться? И насколько серьезными могут быть эти ошибки?
Как вы хорошо знаете, я большой поклонник Искусственного интеллекта и довольно много писал об этом; но даже я знаю, что ИИ, как и любая технология, может быть использован не по назначению.
Я не верю, что ИИ уничтожит людей, как некоторые люди любят предсказывать, но существует огромный потенциал ущерба, если ИИ не будет должным образом управляться и регулироваться. Давайте рассмотрим пример из практики, чтобы получить представление о том, как ИИ может совершать ошибки и наносить реальный ущерб.
Как машины учатся (и как они могут ошибаться)
Чтобы полностью понять, как ИИ может совершать ошибки, давайте поймем движущую силу ИИ, а именно машинное обучение.
Не вдаваясь в технический жаргон, машинное обучение — это наука об обучении машины принимать решения без жестко запрограммированных инструкций по программированию.
Как показано на диаграмме ниже, машина снабжена обучающими данными и алгоритмом для понимания этих данных.
Как только машина поймет, она сможет создать модель для принятия решений. Эти решения проверяются на точность, и поступает все больше и больше данных, пока не будет достигнут высокий уровень уверенности в том, насколько точными будут эти решения.
Все это кажется довольно простым, но также приводит к одному вопросу. Точность алгоритма машинного обучения напрямую связана с качеством обучающих данных, которые ему передаются. Что делать, если данные были искажены в определенном направлении?
Например, если алгоритм распознавания лиц был обучен только лицам европеоидной расы, то будет ли он распознавать и другую этническую принадлежность? Здесь мы начинаем вникать в интересные последствия неправильного обучения машинному обучению.
Давайте посмотрим на реальные примеры того, как ИИ ошибается.
Фиаско Компаса
В 2016 году стало известно о действительно страшном случае неправомерного использования ИИ: в отчете было показано, что система ИИ, используемая в залах суда под названием Исправительный профилировщик правонарушителей для альтернативных санкций (COMPAS), действовала предвзято против Черные люди.
Эта система использовалась для оценки обвиняемого и учета таких факторов, как возраст и предыдущая история арестов, и использовала ее для определения того, относился ли преступник к «высокому риску» или нет.
Это могло привести к тому, что суд вынесет более строгие приговоры к тюремному заключению и более крупные штрафы, так что влияние на жизнь имело место.
Отчет показал, что алгоритм совершал две очень серьезные ошибки при определении того, может ли преступник совершить повторное преступление в будущем:
- Чернокожие обвиняемые в два раза чаще попадали под стражу, чем будущие правонарушители
- Белые обвиняемые с большей вероятностью попадали в группу низкого риска
Чтобы представить это в контексте, взгляните на приведенные ниже случаи и уровень риска, присвоенный КОМПАС. Считаете ли вы, что предыдущие правонарушения и присвоенный рейтинг риска совпадают?
COMPAS был важен, поскольку он заставил людей понять, что алгоритмы машинного обучения могут на самом деле наследовать расовые предубеждения и предубеждения из данных обучения, которые не являются должным образом репрезентативными для всех рас. Это привело к реальным последствиям, когда люди получили незаслуженные приговоры.
Полный отчет можно прочитать здесь
Как остановить предвзятость в системах ИИ
Ученые и исследователи предложили определенные атрибуты, которые должны присутствовать в системах ИИ, чтобы общественность им доверяла. В принципе, алгоритм должен иметь следующие характеристики:
- Целостность. Правильно ли построена модель? Есть ли контроль над ним, чтобы убедиться, что его параметры не меняются? Откуда мы знаем, что никто не вмешивается в это?
- Справедливость. Необходимо следить за тем, чтобы данные не унаследовали каких-либо расовых предубеждений на этапе их сбора. Необходимо провести тесты, чтобы убедиться в этом, и при необходимости данные перебалансировать.
- Прозрачность. Общественность должна знать, как создавалась модель и как она принимает решения. Очень важно знать, принимает ли модель какие-либо решения, влияющие на благополучие других людей.
Эти принципы не могут применяться в вакууме, и для того, чтобы они вступили в силу, необходимо создать основу. Подробнее о реализации такого фреймворка вы можете прочитать ниже.
Надеюсь, вам понравилось это читать. Если вам интересна эта тема, ознакомьтесь с моим курсом А.И. управление и кибербезопасность, в которой рассматриваются новые типы рисков ИИ и способы их снижения.
Таймур Иджлал — отмеченный множеством наград лидер в области информационной безопасности с более чем двадцатилетним международным опытом в области кибербезопасности и управления ИТ-рисками в финтех-индустрии. С Таймуром можно связаться в LinkedIn или на его канале YouTube Cloud Security Guy, на котором он регулярно публикует информацию об облачной безопасности, искусственном интеллекте и общие советы по карьере в области кибербезопасности.
Вы можете получить полный доступ ко всем историям на Medium всего за 5 долларов в месяц, зарегистрировавшись по ссылке ниже: