Эта статья была первоначально размещена на веб-сайте Ai4. Ai4 собирает бизнес-лидеров и специалистов по работе с данными для содействия внедрению искусственного интеллекта в рамках нескольких конференций, посвященных различным областям.

Один из вопросов, часто обсуждаемых в области ИИ в отношении этики, заключается в том, кто несет ответственность за социальные и финансовые последствия решений, связанных с машинным обучением. Я заметил огромный разрыв между тем, как регулируемые отрасли и отрасли без регулирования разрабатывают модели машинного обучения.

Компании-эмитенты кредитных карт, агентства по мониторингу рисков и другие агентства по информированию потребителей очень заботятся о создании моделей, за которые они могут стоять и юридически защищать, в то время как многие потребительские продукты не раскрывают характер своих исследований или моделей в социальных сетях.

Точно так же, как страховая и автомобильная отрасли рассматривают несчастные случаи с точки зрения того, кто виноват, кого мы можем привлечь к ответственности, когда алгоритм предсказывает плохо?

Некоторые предполагают, что отдельные инженеры должны нести ответственность за влияние своих моделей на жизнь других людей. Если бы это было так, мы бы увидели больший акцент на этике и конфиденциальности данных, преподаваемых в программах по информатике и науке о данных. Виноваты ли они в том, что в конечном счете они несут ответственность за выбор репрезентативных данных об обучении и использование реальных данных для мониторинга производительности? Специалисты по данным также могут консультироваться со сторонними компаниями для аудита их данных и моделей.

Есть также сторонники политики, которая обязывает компании, создающие алгоритмы, оказывающие радикальное влияние на человеческую жизнь (во многих отраслях, таких как здравоохранение и беспилотные автомобили, это может означать жизнь или смерть), делать свои модели и обучающие данные открытыми для общественности. Одна из основных причин, по которой эту проблему трудно решить, заключается в том, что компании считают алгоритмы своим «секретным соусом». Этот бизнес-подход создал высокий спрос и уважение к специалистам по данным, однако это происходит в ущерб прозрачности модели.

Многие слышали о проекте Facebook Research, который манипулировал временными шкалами пользователей для измерения положительных или отрицательных эффектов. В академических исследованиях существуют критерии, которым должны соответствовать надлежащие исследования, чтобы быть этичными, особенно когда испытуемые ошибаются по-человечески. Самым вопиющим правонарушением является нарушение согласия пользователя. Похороненные в Условиях обслуживания Facebook, немногие пользователи знали, что Facebook использует их в качестве эмоциональных испытуемых. Интернет-компании редко подчиняются строгим критериям академических исследований или объяснимости агентств по информированию потребителей из-за небольшого количества политик, лежащих в основе их моделей.

Многие слышали о проекте Facebook Research, который манипулировал временными шкалами пользователей для измерения положительных или отрицательных эффектов. В академических исследованиях существуют критерии, которым должны соответствовать надлежащие исследования, чтобы быть этичными, особенно когда испытуемые ошибаются по-человечески. Самым вопиющим правонарушением является нарушение согласия пользователя. Похороненные в Условиях обслуживания Facebook, немногие пользователи знали, что Facebook использует их в качестве эмоциональных испытуемых. Интернет-компании редко подчиняются строгим критериям академических исследований или объяснимости агентств по информированию потребителей из-за небольшого количества политик, лежащих в основе их моделей.

Это возвращает нас к тому, кто виноват. Если алгоритм неверно предсказывает, что осужденный совершит повторное преступление, а в действительности он не совершал повторного преступления, кто должен осужденному давать объяснения? Обладает ли компания наибольшим количеством ресурсов для исправления ложных срабатываний? Виним ли мы инженера в том, что он не построил более строгую модель или включил прокси для расы и пола? Обвиняем ли мы конечного пользователя, например окружного судью, в использовании такого инструмента, как КОМПАС, для прогнозирования рецидивизма без обратной связи о том, насколько хорошо работает модель?

Мы даже ведем разговоры о привлечении ИИ к ответственности, но это интенсивная задача, которая включает в себя решение, с какими последствиями или штрафами ИИ столкнется после неверного прогноза. Одним из решений, позволяющих упростить проблему ответственности ИИ, являются системы человек в петле. В этих сценариях мы видим, как ИИ дает рекомендации взаимодействующему с ним человеку. Во время удаленного визита к врачу врач может получить изображение нароста, после чего программа компьютерного зрения попытается его идентифицировать. Компьютер может выводить

В конечном счете, практикам, в том числе специалистам по обработке и анализу данных и инженерам по машинному обучению, предстоит следовать передовым методам и минимизировать влияние предвзятости на их модели ИИ. Чтобы иметь публичный доступ к моделям данных, созданным и используемым крупными фирмами, нам необходимо ввести политику, стимулирующую открытые данные. Нам крайне необходим толчок к изучению этики ИИ на всех уровнях технического обучения, включая академические круги, онлайн-курсы обучения и учебные курсы.

Дополнительная литература:

Барр, А., 2015. Google ошибочно помечает чернокожих как горилл, показывая пределы алгоритмов [WWW Document]. Стенная ул. J. URL https://blogs.wsj.com/digits/2015/07/01/google-mistakenly-tags-black-people-as-gorillas-showing-limits-of-algorithms/ (по состоянию на 1.23.19 ).

Ларсон, Дж., Матту, С., Киршнер, Л., Ангвин, Дж., 2016. Как мы проанализировали алгоритм рецидивизма COMPAS [WWW-документ]. ПроПублика. URL https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm (дата обращения: 23.01.19).

О’Нил, К., 2016. Оружие математического разрушения: как большие данные увеличивают неравенство и угрожают демократии, 1-е издание. изд. Краун, Нью-Йорк.