Технология: машинное обучение

Об алгоритмической дискриминации

Почему мы не злимся больше, когда алгоритмы причиняют вред?

Забавно, что мы, люди, верим машинам. Задаем им вопросы — кто самый известный ученый, сколько времени нужно, чтобы отрастить бороду, кто совершил преступление — и о чудо! у машины есть ответ, который мы часто принимаем, даже если он неверен. Ранее в этом году, например, Wired сообщал леденящую душу историю о трех темнокожих мужчинах, незаконно арестованных за преступления, которых они не совершали, потому что система распознавания лиц неправильно их идентифицировала.

На технологию настолько сильно положились, что они даже не проводили никакой следственной работы, чтобы найти человека, — сказал о своем аресте Уильямс, один из потерпевших.

Мы слишком часто доверяем технологиям, считая их беспристрастными, беспристрастными и даже разумными, что приводит нас ко второй забавной вещи о людях: мы не так злимся на машину, как на человека, когда алгоритм причиняет вред.

Йоханан Бигман и др., которые изучали, как люди реагируют на алгоритмическую и человеческую гендерную дискриминацию при приеме на работу, обнаружили, что

«Люди меньше возмущаются, когда гендерная дискриминация совершается алгоритмами по сравнению с другими людьми, потому что алгоритмы не воспринимаются как имеющие мотивацию для дискриминации».

Придумав термин «алгоритмический дефицит гнева» для описания своих выводов, исследователи выражают обеспокоенность тем, что наша неспособность чувствовать гнев может привести к тому, что алгоритмическая «дискриминация останется незамеченной и не встречающей сопротивления».

Даже если алгоритмическая дискриминация заметна, противостоять ей может быть сложно. В беседе с NPR социолог и правовед Ифеома Аджунва отмечает:

«Поэтому закон требует, чтобы вы доказали либо намерение дискриминировать, либо демонстрацию модели дискриминации. Автоматизированные платформы найма на самом деле значительно усложняют выполнение любого из этих действий».

Платформы для найма — не единственный источник алгоритмической дискриминации. Facebook, который подвергся тщательной проверке из-за показа разной объявления о вакансиях для женщин и мужчин, что, например, фактически снижает вероятность того, что женщины будут знать, что вакансия инженера-программиста вообще открыта, также заслуживает внимания. Обвиненный в дискриминации таргетинга рекламы, Facebook утверждал, что на самом деле он не несет ответственности.

В своей статье Феминистская концепция этики ухода за данными для машинного обучения Джоан Грей и Элис Витт выражают обеспокоенность тем, что современная литература по этике ИИ не в состоянии справедливо и явно возложить ответственность на участников машинного обучения. экономика.

«В частности, редко решается вопрос о том, кто причиняет вред, и поэтому ответственность за предотвращение вреда редко возлагается должным образом».

Они утверждают, что реальные люди и реальные организации должны нести ответственность за воздействие алгоритмических систем «на всех этапах конвейера машинного обучения», и обрисовывают феминистский подход к разработке приложений машинного обучения с прицелом на снижение вреда на каждом этапе процесса. процесс.

Возможно, мы не так разъярены, когда алгоритмы воспринимаются как источник вреда, но вред реален, и он будет продолжаться, если мы все не возьмем на себя ответственность за него.

Читать далее:







Процитированные работы

Бигман, Йоханан Э., Десман Уилсон, Мэдс Н. Арнестад, Адам Вейц и Курт Грей. «Алгоритмическая дискриминация вызывает меньше морального возмущения, чем человеческая дискриминация». Журнал экспериментальной психологии: Общие (2022 г.).

Чанг, Айлса и Ифеома Аджунва. «Профессор Корнелла Ифеома Аджунва обсуждает использование искусственного интеллекта при найме». Все с учетом NPR. (2019)

Грей, Джоанн и Элис Уитт. «Феминистская этика данных заботы о машинном обучении: что, почему, кто и как». Первый понедельник (2021 г.).

Хао, Карен: «Рекламные алгоритмы Facebook по-прежнему не позволяют женщинам видеть работу». Обзор технологий Массачусетского технологического института (2021 г.)

Джонсон, Хари. «Как неправомерные аресты на основе ИИ разрушили жизни трех мужчин». Проводной. (2022)

Леви, Пема. «Должен ли Facebook нести ответственность, если его рекламный алгоритм дискриминирует?» Мама Джонс. (2021)