В 2017 году использование искусственного интеллекта в Amazon резко прекратилось, когда инженеры обнаружили, что платформа непреднамеренно дискриминирует кандидатов-женщин. AI, обнаружив, что большинство резюме, принимаемых Amazon в течение 10 лет, принадлежало кандидатам-мужчинам, очевидно, решил, что кандидаты-женщины, по-видимому, менее квалифицированы для работы, и начал понижать рейтинг резюме с любыми упоминаниями женщин, например, женскими колледжами.

Вскоре после этого Amazon исправила предубеждение, но, тем не менее, позже отозвала ИИ.

В отрасли, в которой преобладают мужчины (три четверти всех технических талантов - мужчины, и это число становится еще выше, если смотреть на таланты в ведущих компаниях), неудивительно, что ИИ стал ассоциировать кандидатов-мужчин с более высокими квалификации.

Причины, по которым Amazon отозвали ИИ - «не было никакой гарантии, что машины не разработают другие способы сортировки кандидатов, которые могут оказаться дискриминационными» - указывают на насущную проблему традиционных методов найма. На протяжении десятилетий бессознательная предвзятость преследовала даже самых благонамеренных вербовщиков, в результате чего способных кандидатов неосознанно обходили стороной.

ИИ сам по себе не является дискриминационным. Однако машинное обучение может обнаруживать предвзятость в системе найма, которую мы сами, возможно, никогда не заметим. Анализ 2017 года, проведенный Университетом Торонто и Университетом Райерсона, показал, что кандидаты с «азиатскими» именами на 28% реже набирали баллы на собеседовании с компанией, при этом у рекрутеров проявлялись внутренние предубеждения, что такие кандидаты с большей вероятностью имели «тяжелые» акценты и языковые проблемы ». Таким образом, ИИ может развить аналогичные предубеждения, ассоциируя кандидатов с англоцентрическими именами с артикуляцией и лучшими коммуникативными навыками.

Так что же делают современные платформы поиска ИИ, чтобы этого больше не повторилось?

В некоторых компаниях ИИ начинается с так называемого «чистого листа», когда такие факторы, как раса, почтовый индекс и пол, исключаются из процесса найма. Вместо этого ИИ перечисляют и обрабатывают только идеальные кандидатские качества. Финансовое программное обеспечение уже лидировало в этом отношении; По закону банки обязаны доказать, что их программное обеспечение не допускает дискриминации по признаку пола, расы или этнической принадлежности.

Однако некоторые исследования показали, что этого недостаточно. Команда из Amazon обнаружила, что, несмотря на то, что ИИ разрабатывался исключительно для выполнения служебных обязанностей, технология по-прежнему «отдавала предпочтение кандидатам, которые описывали себя с помощью глаголов, которые чаще встречаются в резюме мужчин-инженеров, таких как« выполнено »и« захвачено »».

Чтобы создать более разнообразную рабочую среду, было предложено и протестировано множество различных решений. Хотя технология поиска источников без предвзятости, возможно, еще не полностью доведена до совершенства, есть и другие способы использования машинного обучения для устранения предвзятости. Некоторые фирмы начали активно использовать алгоритмы искусственного интеллекта, которые помогают устранить предвзятость в объявлениях о вакансиях и других формах приема на работу, что, в свою очередь, побуждает более маргинализированных кандидатов подавать заявки на вакансии, от которых они иначе могли бы чувствовать себя отчужденными. Другие платформы ориентированы на потенциал претендентов, а не на их родословную, гарантируя, что кандидаты с высокими успеваемостями, но, возможно, не посещавшие элитный университет, по-прежнему могут конкурировать с более «квалифицированными» кандидатами.

Толчок к «слепому набору» успешно привел к появлению более разнообразных кадровых резервов и рабочих мест, чем когда-либо. Хотя путь к совершенно непредвзятому набору персонала может быть еще долгим, ясно, что, тем не менее, мы прошли долгий путь.