Ниже приведен список интересных статей о пересечениях между инструментами искусственного интеллекта (компьютерное зрение, машинное обучение, обработка естественного языка и т. д.) и международными правами человека, которые я собрал.

Статьи были в основном опубликованы в марте 2019 года. Не стесняйтесь поделиться ими и/или связаться со мной в Твиттере @ImaneBello

  • Медицинский ИИ

Ник Карн, Исследователи предупреждают, что медицинский ИИ уязвим для атак, 22 марта 2019 г.

В статье для журнала Cosmos Magazine Ник Карн обсуждает недавно опубликованное исследование «Состязательные атаки на медицинское машинное обучение» (22 марта 2019 г., журнал Science). Исследовательская группа под руководством Сэмюэля Дж. Финлейсона из Гарвардской медицинской школы указывает на возможность враждебных атак, например. совершать мошенничество (представлять ложные медицинские заявления, генерировать ложные медицинские диагнозы и т. д.), изменяя входные данные для медицинских систем машинного обучения. Хотя крупных атак в секторе здравоохранения выявлено не было, исследование повышает осведомленность о рисках и призывает к междисциплинарному подходу к разработке политики для решения этих проблем.

  • Верховенство закона и основы управления

Эшли Дикс, Задержание по алгоритму, 25 марта 2019 г.

В рамках серии блогов МККК об искусственном интеллекте Эшли Дик обсуждает потенциальное использование алгоритмов прогнозирования вооруженными силами (США), т.е. для оценки возможности и места атак, степени, в которой субъекты могут быть опасны для задержания и т. д. Опираясь на предыдущую статью, автор добавляет ряд соображений, которые следует учитывать при «импорте» алгоритмов прогнозирования из системы уголовного правосудия (США) или, как правило, при использовании алгоритмов прогнозирования в военных условиях.

Как показали Распоряжение об ИИ и Стратегия искусственного интеллекта Министерства обороны США в феврале 2019 года, военные могут изучать возможность использования алгоритмов для различных будущих приложений. По мнению автора, это подчеркивает необходимость решения проблем, уже возникающих в связи с алгоритмами прогнозирования и другими соображениями.

Лорна МакГрегор, Необходимость четких рамок управления алгоритмами прогнозирования в военных условиях, 28 марта 2019 г.

В сопроводительной статье к серии блогов МККК по искусственному интеллекту Лорна МакГрегор подробно останавливается на потенциальном использовании алгоритмов прогнозирования в военных условиях, размышляя о проблемах прав человека в связи с такими инструментами на основе искусственного интеллекта и призывая к разработке четких рамок управления для таких Приложения.

Джон Вилласенор и Вирджиния Фогго, Алгоритмы и вынесение приговора: чего требует надлежащая правовая процедура?, 21 марта 2019 г.

Джон Вилласенор и Вирджиния Фогго размышляют об использовании инструментов оценки рисков, основанных на алгоритмах и применяемых в уголовном судопроизводстве. В частности, авторы указывают на последствия, которые эти инструменты имеют для конституционного права на (процессуальные) надлежащие правовые процедуры, особенно в форме прав правонарушителей: а) оспаривать точность и актуальность используемой информации и б) иметь представление о результатах. /оценки алгоритма.

Учитывая возрастающую частоту использования этих инструментов оценки рисков, необходимо будет решить несколько конституционных, политических и технологических вопросов.

Эрик Нилер, Может ли ИИ быть справедливым судьей в суде? Эстония так думает, 25 марта 2019 г.

Эрик Нилер обсуждает усилия правительства Эстонии по включению систем ИИ в различные министерства. Одним из примеров является предпринимаемая попытка концептуализировать «судью-робота» для разрешения споров с мелкими претензиями (менее 7000 евро), чтобы дать возможность судьям-людям разбираться с накопившимися делами. Проект, скорее всего, начнется в конце 2019 года, и люди могут обратиться к человеческому судье. Таким образом, Эстония, продвинутая в использовании национальных удостоверений личности и обширной системы онлайн-услуг, может стать первой страной, которая присвоит полномочия по принятию решений системе ИИ.

  • Распознавание лиц

Ос Киз, Никки Стивенс и Жаклин Вернимонт, Правительство использует самых уязвимых людей для тестирования программного обеспечения для распознавания лиц, 17 марта 2019 г.

В статье обсуждаются проблемы и методы, используемые для тестирования программного обеспечения для распознавания лиц. Согласно исследованию авторов, правительство США, исследователи и корпорации использовали изображения уязвимых групп, включая детей, подвергшихся насилию, иммигрантов и умерших людей, для тестирования систем. В статье также обсуждается роль Национального института стандартов и технологий, входящего в состав Министерства торговли США, который проводит стандартный тест, оценивающий технологию распознавания лиц.

  • Наблюдение

Джордж Джозеф, Программа наблюдения IBM, созданная для Родриго Дутерте, 20 марта 2019 г.

Джордж Джозеф анализирует, как IBM продала технологии наблюдения администрации Дутерте в городе Давао в 2012 году, несмотря на предполагаемое соучастие полиции в эскадронах смерти против предполагаемых преступников. Неясно, проводила ли IBM комплексную проверку прав человека перед продажей технологии. Согласно документам IBM, ее система видеонаблюдения использовалась для борьбы с преступностью. В качестве президента Дутерте теперь стремится расширить слежку, возможно, при поддержке китайской фирмы Huawei.

  • Модерация контента и Facebook

Обезглавливание, попытки самоубийства, порно: почему модераторы Facebook в Индии травмированы, 1 марта 2019 г.

В этой статье Reuters о модерации контента Facebook обсуждается его политика аутсорсинга (не менее пяти поставщиков аутсорсинга как минимум в восьми странах) и влияние на сотрудников. Интервью, проведенные для этой статьи, показывают, насколько утомительной может быть работа, и дают представление об организации модерации онлайн-контента.