Что такое алгоритмическая справедливость и почему это важно?

С тобой такое когда-нибудь случалось?

Вы рассказываете коллеге историю и упоминаете свою расу (не белую). Внезапно ваш (белый) коллега прерывает вас и объявляет:

Обсуждаете с начальником что-то, связанное с вашей идентификацией как женщина? «Почему вы должны использовать гендер? Если вы хотите, чтобы с вами обращались как с равным, перестаньте напоминать мне, что вы женщина ».

Хотите пожениться, но фотограф отказывает вам в услугах? «Это просто совпадение, что ты гей! Для меня это не похоже на дискриминацию! »

В Америке есть много подгрупп людей, которые во многом угнетены. Системное угнетение сложно, но то, что мы закрываем глаза и затыкаем уши, не означает, что несправедливость перестанет существовать. Это просто означает, что мы стоим посреди этого, игнорируя это.

Невежество - это не блаженство. Это просто делает вас невеждой.

Тем не менее, многие люди не понимают или не стремятся понять опыт цветных людей, женщин, ЛГБТК, людей с ограниченными возможностями или любой другой целевой подгруппы, буквально кричащей им громко и ясно. Они предпочитают игнорировать «инаковость». Следует отметить, что это часто делается из лучших побуждений, но результат прямо противоположный. То же самое и с некоторыми решениями, которые машины принимают ежедневно.

В своей научной статье Алгоритмическая справедливость авторы утверждают, что мы должны включить расу и другие факторы, представляющие угнетенную подгруппу, если мы (и наши машины) хотим принимать важные решения с помощью Информация. Если мы действительно игнорируем эти важные факторы, мы можем принести больше вреда, чем пользы. Почему? Давайте разберемся, о чем говорится в статье.

Алгоритм - это набор шагов, правил или вычислений, и компьютеры часто имеют алгоритмы, которым они следуют. Мы все чаще используем алгоритмы для принятия решений. Вот лишь несколько распространенных, но важных примеров: врач определяет, подвержен ли кто-то риску заболевания, судья вносит залог, а школа разбирает заявления.

Снова и снова было показано, что наши роботы берут на себя наши человеческие предубеждения »и принимают дискриминационные решения. Из статьи:

Поскольку данные, используемые для обучения этих алгоритмов, сами по себе окрашены стереотипами и прошлой дискриминацией, естественно беспокоиться о том, что предубеждения «закрепляются».

Таким образом, обычная реакция - не учитывать чувствительные факторы и обучать роботов, которые объявляют:

Почему это плохая идея? Прежде чем мы сможем сказать, мы должны знать определение одного ключевого слова: справедливый. Справедливый - значит справедливый. Равный означает «одинаковый». Так что имейте в виду, что равноправие не означает равное.

Когда мы относимся к людям одинаково, мы оказываем всем одинаковую поддержку. Когда мы относимся к людям справедливо, мы оказываем каждому необходимую поддержку, чтобы результат был справедливым.

Конечно, наш мир еще сложнее ...

… Но этих знаний нам будет достаточно, чтобы разобраться в статье. В статье проводится эксперимент, который выглядит так:

Представьте, что у нас есть два разных консультанта по приему в колледж. Один советник, Эрика, очень эффективен. Цель Эрики - всегда принимать в колледж студентов, которые будут лучше всех учиться в колледже. Итак, она просматривает заявку студента и использует модель машинного обучения, чтобы предсказать, какой будет средний балл этого студента в колледже. Все, что нужно сделать Эрике, - это выбрать учеников с наибольшим потенциалом.

Другой советник, Фарра, беспристрастен и эффективен. Фарра также хочет студентов с наибольшим потенциалом, но она справедливо относится к поступающим. В эксперименте они ограничивают количество студентов белыми неиспаноязычными студентами и черными студентами. Итак, единственная переменная, требующая «другого» подхода в прогнозной модели, - это раса. Фарра должна выбрать студентов с наивысшим прогнозом среднего успеваемости в колледже, убедившись, что среди них есть определенный процент чернокожих.

Итак, Эрика эффективна и просто хочет, чтобы абитуриенты успели лучше всех учиться в колледже. Фарра справедлива и хочет, чтобы абитуриенты добились лучших результатов в колледже в сочетании с тем фактом, что она хочет увеличить количество чернокожих студентов в колледже.

Модель, которую они использовали, могла предсказать средний балл колледжа, потому что эксперимент включал отслеживание поступающих с течением времени. Итак, у них была куча данных о средней школе, а также их фактические возможные средние баллы в колледже, чтобы показать, как они на самом деле успели учиться в колледже.

Эрика использовала модель двумя способами: исключая расу и включая расу. Независимо от модели, помните, что она всегда выбирала эффективно - студентов с наивысшим прогнозируемым средним баллом.

Фарра управляла моделью, включая расу, и она установила разные пороговые значения, чтобы попытаться устранить некоторые системные предубеждения, с которыми могут столкнуться чернокожие кандидаты. Например, мы можем беспокоиться, что темнокожий абитуриент не прошел подготовительные курсы к SAT, в то время как белый студент прошел. Затем, если два студента наберут одинаковый балл по SAT, модель предсказывает, что у темнокожего студента будет более высокий средний балл в колледже. Это всего лишь один пример множества сложных корректировок пороговых значений модели, сделанных Фаррой.

Результаты просто потрясающие:

  • Модель, которая лучше всего предсказывает успеваемость абитуриента в колледже, всегда принимает во внимание расу, даже в случае с Эрикой, когда она озабочена только эффективностью. Это может показаться нелогичным или сбивающим с толку. Другими словами, когда люди обрабатывают заявки и угадывают, как поступающий поступит в колледж, это окрашено всеми нашими предубеждениями, поэтому мы часто хотим исключить гонку из уравнения, чтобы обмануть себя и заставить себя думать, что мы ведем себя справедливо. Однако на самом деле более эффективно (точно), чтобы математическая модель делала наши прогнозы за нас, потому что они основывают свои прогнозы на числах, а не на предвзятых догадках. Таким образом, более эффективно включать гонку в модели.
  • Когда Фарра вносит справедливые поправки в пороговые значения, независимо от того, какой процент чернокожих студентов она пытается принять, использование предиктора с учетом расы приводит к тому, что в колледж поступает относительно больше чернокожих абитуриентов. Итак, для большей справедливости важно включать расу в модели.
  • В итоге: всегда включайте расу. Робот должен видеть цвет.

«При отсутствии юридических ограничений следует включать такие переменные, как пол и раса, из соображений справедливости… Включение таких переменных может повысить как равенство, так и эффективность».

Они провели этот эксперимент, используя всевозможные модели машинного обучения, но неизменно обнаружили, что «стратегия ослепления алгоритма для гонки непреднамеренно снижает справедливость».

Хотя в статье содержится простой вывод, учет алгоритмической предвзятости - непростое решение. Как мы определяем, что справедливо? Как отмечает другой исследователь по имени Сара Шеффлер:

Есть много разных мер справедливости, и между ними есть компромиссы. Итак, насколько… системы совместимы с понятием справедливости, которого мы хотим достичь?

Даже если некоторые ученые согласны с тем, что является справедливым, мы также часто должны убедиться, что законно внедрять наши алгоритмы с различными справедливыми порогами. Как мы видели в истории Позитивных действий, только для одного примера, часто существует разногласие во мнениях о том, что должно быть реализовано на законных основаниях.

Я надеюсь на пару вещей:

  • Я надеюсь, что мы воспользуемся моментами обучения с другими, когда мы объясним, почему очень важно рассматривать все обстоятельства в перспективе, а не придерживаться менталитета «невежество - это блаженство».
  • Я также надеюсь, что те, кто руководствуется аналитическими рассуждениями, смогут понять статьи, подобные той, которую мы только что перефразировали. Мы делаем самые лучшие прогнозы, включая защищенные факторы, такие как раса, в нашу науку, а не игнорируем их. Это приносит пользу всем, независимо от того, как мы понимаем понятие «справедливый».

Мы надеемся, что эти два обстоятельства сойдутся в обществе, которое последовательно принимает решения для общего блага с помощью машин.