Гендерное неравенство существовало в нашем обществе с давних пор и продолжает существовать. Будь то право голоса или право на работу, женщинам всегда приходилось бороться за себя. Мы также сталкиваемся с проблемой разрыва в оплате труда, недостаточного представительства женщин и других глубоко укоренившихся стереотипов. Во время борьбы за полное гендерное равенство возлагались надежды на то, что искусственный интеллект выявит и закроет эти пробелы за счет заявлений о более объективном подходе, основанном на данных, но по иронии судьбы это оказалось еще одним препятствием для женщин. Также обнаружено, что он несет в себе те же старые стереотипы.

Откуда берутся гендерные предубеждения ИИ?

Эти предубеждения проникают в искусственный интеллект только через людей. Во-первых, алгоритмы, то есть набор правил, — это то, на чем по существу работает ИИ. Эти алгоритмы принимают большие наборы данных и используют их для распознавания закономерностей, прогнозирования и вывода плана действий, которому необходимо следовать. Со временем и опытом ИИ автоматически улучшается, что создает впечатление, что у него есть собственный разум, но на детальном уровне люди собирают данные, которые входят в наборы данных, и у этих создателей есть свои врожденные гендерные предположения и предубеждения. Таким образом, данные, используемые для обучения ИИ, — это просто представление нашего человеческого опыта, поведения и решений. Разработчики сообщают алгоритму переменные, которые необходимо учитывать при принятии решений, и которые, в свою очередь, приводят к наказанию определенных сообществ и пола. Следовательно, это приведет к тому, что ИИ примет предвзятое решение в отношении определенных полов.

Второй аспект неравенства заключается в том, как искусственный интеллект усиливает некоторые гендерные стереотипы. Довольно заметно, что женские голоса используются для большинства виртуальных помощников на базе ИИ. Это действие еще больше стигматизирует женщин в глобальном масштабе.

Как эта предвзятость ИИ влияет на женщин?

Например, представьте, что есть малый бизнес, которым владеют женщины, и они подают заявку на получение кредита для расширения. Но вскоре они узнают, что им отказали, а одобрили аналогичный бизнес, владельцами которого были мужчины. У обоих предприятий были одинаковые активы и сбережения, но единственная разница заключалась в поле. Кредитная заявка оценивалась не человеком, а машиной, как это часто бывает в банках. Исторически сложилось так, что больше мужчин получали одобрение на свои заявки, чем женщины, поэтому алгоритм решил отклонить заявку женщин и счел заявки мужчин более достойными. К сожалению, это не гипотетически. Есть сейчас такие популярные казусы.

Автоматизированные средства проверки резюме отклоняют женщин при приеме на работу, а распознавание лиц несоразмерно неэффективно для женщин. Среди систем, которые были определены как имеющие гендерные предубеждения, в 61,5% существовало несправедливое распределение информации, возможностей и ресурсов для женщин. Эти системы включали в себя рекламные системы и программное обеспечение для найма, которые снижали приоритетность заявлений женщин. Индустрия здравоохранения является основным пространством, где можно увидеть это предубеждение. Отсутствие женских тел в медицинских испытаниях привело к исключению женщин и привело к тому, что ИИ изо всех сил пытается обнаружить заболевания у женщин. Приложения для здоровья отслеживают все, что связано со здоровьем без менструации. Другим примером является программное обеспечение для перевода, изучив огромное количество доступного в Интернете текста, взяло нейтральные в гендерном отношении английские термины, такие как медсестра и врач, и вернуло гендерно-ориентированные переводы, укрепляя естественный стереотип о том, что мужчины являются врачами, а женщины - медсестрами. Мы также обнаруживаем, что системы ИИ проявляют уничижительное поведение по отношению к маргинализированным гендерам и распознают только гендерную бинарность. ИИ также оказал негативное влияние на экономическое положение женщин. В среднем, по сравнению с 9 процентами мужчин, женщины сталкиваются с 11-процентным риском потерять работу из-за автоматизации.

Решения

Это заставляет нас задуматься о том, что можно сделать, чтобы исправить это. Гендерное разнообразие и включение в команды разработчиков и менеджеров — самый важный шаг. Социальные предубеждения ожидаются, учитывая, что люди создают эти системы. Чтобы избежать этого, в процесс развития должно быть вовлечено больше женщин, что расширит разнообразие взглядов. Необходимо принять меры, чтобы убедиться, что разнообразие является приоритетом, а политика и практика должны быть сформированы для поддержки инклюзивности. Голоса женщин и небинарных личностей должны активно, а не пассивно, быть сосредоточены в команде разработчиков.

Университеты и компании могут предпринять шаги для обеспечения плавного перехода женщин на ИИ. Это будет включать в себя инвестиции в обучение и технические программы, обучающие женщин искусственному интеллекту и необходимости искоренения гендерной предвзятости.

В дополнение к целенаправленному и активному найму большего числа женщин на всех уровнях, компании, работающие в сфере искусственного интеллекта и автоматизации, должны с самого начала взаимодействовать и сотрудничать с женскими организациями и экспертами по гендерным вопросам. Чтобы заполнить пробелы в данных, можно использовать феминистские данные. Практики феминистских данных включают в себя углубленное изучение того, как работает власть, и использование данных для противодействия неравным структурам власти. Он также включает включение других гендеров, отличных от гендерной бинарности, и согласование различных точек зрения с уделением приоритетного внимания знаниям коренного и местного населения. Эти данные могут помочь включить и сосредоточить опыт и голоса маргинализированных лиц.

Кроме того, необходимо признать, что алгоритмы и данные не являются гендерно нейтральными, и нам нужно действовать в соответствии с этим. Наборы данных должны быть подвергнуты оценке на предмет недопредставленности различных гендерных идентичностей и проблемных лежащих в их основе неравенств. Устраните гендерный разрыв, сотрудничая с общественными лидерами. Диагностируйте проблемы и внедряйте феминистские методы работы с данными.

Наконец, для ответственного искусственного интеллекта должны быть установлены гендерно-чувствительные подходы к управлению. Структура управления этикой ИИ должна быть разработана с учетом гендерного разнообразия.

Заключение

Гендерная предвзятость в системах искусственного интеллекта — серьезная проблема, серьезно влияющая на жизнь женщин и небинарных людей. Это нужно признать немедленно. Гендерное равенство чрезвычайно важно для достижения справедливости ИИ. Предлагаемые решения не являются исчерпывающими, но они обеспечивают хорошее начало для построения и в конечном итоге достижения гендерно-нейтрального мира ИИ.