TLDR этого поста находится здесь: ИИ предвзят, потому что у общества есть предубеждения. В ИИ нет ничего особенного, что делало бы его более предвзятым, чем общество. Поскольку люди разрабатывают, обучают и оценивают системы искусственного интеллекта, системы неизбежно унаследуют предубеждения, существующие в обществе.

Существует проблема, когда ИИ может усугублять предубеждения в большем масштабе, чем люди. Но предубеждения в ИИ в значительной степени отражают предубеждения, которые есть у людей.

Предубеждения можно найти везде, где используется ИИ

Есть так много примеров из реальной жизни, которые иллюстрируют, как предвзятость проникает в системы ИИ, независимо от предметной области. Назвать несколько:

  • Уголовное правосудие: было показано, что алгоритмы, используемые в системе уголовного правосудия, ложно помечают чернокожих ответчиков как будущих преступников в два раза чаще, чем белых обвиняемых. ("источник")
  • Гендерное представление: в старых версиях поиска Google только 11% изображений при поиске СЕО показывали женщин, несмотря на то, что 27% генеральных директоров в США были женщинами. ("источник")
  • Домовладение: Алгоритм одобрения ипотеки отклонил семьи чернокожих и латиноамериканцев по ставкам на 80% и 40% выше (соответственно) по сравнению с белыми семьями с аналогичными критериями. ("источник")
  • Наконец, сообщества 2SLGBTQ+ исторически не участвовали в сборе данных и исследованиях предвзятости, что может увековечить неравенство и привести к предвзятости в будущем. ("источник")

Люди непреднамеренно включают в свою работу собственные системные предубеждения.

Есть пример алгоритма приема в британскую медицинскую школу, который хорошо иллюстрирует, как предвзятость возникает в ИИ.

Этот алгоритм был разработан для автоматизации отбора потенциальных студентов для собеседования. Это было точно в 95% случаев при проверке реальных человеческих решений о допущении в качестве данных истины.

Однако было обнаружено, что это дискриминирует перспективных женщин и потенциальных клиентов с неевропейскими именами. Хотя алгоритм действительно автоматизировал процесс и отражал то, что выбрала бы приемная комиссия, он был обучен отражать и усиливать системную предвзятость, которая у них была.

(Подробнее об этом можно прочитать здесь).

МОГУТ быть технические ограничения, ведущие к предвзятости

При всем сказанном важно отметить, что все же могут существовать технические ограничения, которые приводят к предвзятости.

Однако, когда речь идет о продуктах машинного обучения, важно помнить, что требования — это не только данные и модели. Это весь жизненный цикл, включая развертывание и мониторинг. Комплексные конвейеры машинного обучения жизненно важны для обнаружения и устранения предвзятости.

С этим становится легче выявлять и количественно оценивать предвзятость. Затем, когда обнаруживается предвзятость, окончательное слово в развертывании остается за людьми.

Борьба с предвзятостью ИИ начинается с общества

Уменьшение предвзятости в ИИ требует признания социальных предубеждений при разработке систем.

Как это может выглядеть? Мои продукты — это именно продукты машинного обучения, и мы придерживаемся следующего подхода:

  1. Разнообразие. Разнообразные команды машинного обучения привносят в процесс разработки уникальные взгляды. И помните, это не просто техническая проблема. Это социальная проблема. Поэтому нам нужны разнообразные, но также и мультидисциплинарные команды, которые будут активны на протяжении всего жизненного цикла модели — не только группы инженеров, но и юридические, маркетинговые, сбытовые, клиентские, продуктовые и т. д.
  2. Прозрачность. Принятие модельных решений должно быть объяснимым и оправданным. Некоторые модели, к сожалению, работают в черном ящике. Вместо этого нам нужно понять, как принимаются решения с помощью моделей, которые мы разрабатываем, чтобы выявлять предубеждения и брать на себя ответственность. Здесь необходимы практики Модельного управления.
  3. Данные и тестирование. Наборы данных должны представлять сообщества, для которых модели принимают решения. Должны использоваться метрики для количественной оценки справедливости и предвзятости. Тщательное тестирование в реальных сценариях имеет жизненно важное значение, причем не только перед началом производства, но и во всех точках интеграции модели. Наконец, стороннее тестирование и сертификация производительности модели добавят доверия.

При всем при этом мы никогда не удалим предвзятость из ИИ полностью.

В ИИ всегда будет какая-то неотъемлемая предвзятость. Мы никогда не сможем полностью устранить предвзятость. Как и в случае с обществом, мы всегда можем стремиться к лучшему, но мы никогда не достигнем совершенства  — социальные проблемы постоянно развиваются. Вместо этого мы должны сохранять бдительность и делать все возможное, чтобы смягчить и измерить предвзятость.

В конце концов, борьба с предвзятостью в ИИ является обязанностью каждого и требует многогранного подхода. Поскольку ИИ продолжает формировать нашу жизнь, мы должны убедиться, что он соответствует принципам справедливости, равенства и инклюзивности. Признавая предубеждения в ИИ и устраняя их, мы можем работать в направлении будущего, в котором ИИ приносит пользу обществу и сводит к минимуму вред.