ЮНЕСКО только что опубликовала (июль 2020 г.) черновой вариант рекомендации по этике искусственного интеллекта: https://unesdoc.unesco.org/ark:/48223/pf0000373434

Этот 19-страничный документ вызывает многие из опасений, ожидаемых от ЮНЕСКО, но также и немалую долю содержания, которое я выделил ниже, который может представлять более широкий интерес для сообществ, находящихся на стыке технологий и правительства.

Специфика ИИ

К системам ИИ можно подойти как к технологическим системам, которые способны обрабатывать информацию способом, напоминающим интеллектуальное поведение, и обычно включают аспекты обучения, восприятия, прогнозирования, планирования или контроля.

Системы искусственного интеллекта воплощают в себе модели и алгоритмы, которые обеспечивают способность учиться и выполнять когнитивные задачи, например давать рекомендации и принимать решения в реальных и виртуальных средах. Системы искусственного интеллекта предназначены для работы с различными уровнями автономии посредством моделирования и представления знаний, а также использования данных и вычисления корреляций. Системы искусственного интеллекта могут включать в себя несколько подходов и технологий, таких как, но не ограничиваясь:
i. машинное обучение, включая глубокое обучение и обучение с подкреплением,
ii. машинное мышление, включая планирование, составление графиков, представление знаний, поиск и оптимизацию, а также
iii. киберфизические системы, включая Интернет вещей и робототехнику, которые включают управление, восприятие, обработку данных, собранных датчиками, и работу исполнительных механизмов в среде, в которой работают системы искусственного интеллекта.

[…] Участники ИИ, понимаемые как те, кто играет активную роль в жизненном цикле системы ИИ, включая организации и отдельных лиц, которые исследуют, проектируют, разрабатывают, развертывают или используют ИИ.

Заботы в сфере образования и культуры

Системы искусственного интеллекта не только поднимают этические проблемы, аналогичные тем, которые возникают в связи с любыми технологиями, но и поднимают новые типы проблем. Некоторые из этих проблем связаны с тем фактом, что системы искусственного интеллекта способны делать то, что раньше могли делать только живые существа, а в некоторых случаях они были ограничены только людьми. Эти характеристики придают системам искусственного интеллекта новую важную роль в человеческой деятельности и обществе. Если пойти еще дальше, в долгосрочной перспективе системы искусственного интеллекта могут бросить вызов особым ощущениям и сознанию человека, вызывая дополнительные опасения по поводу автономии, ценности и достоинства человека, но пока это не так.

Человеческий надзор и решимость

Системы искусственного интеллекта во многом связаны с образованием: они бросают вызов социальной роли образования из-за их влияния на рынок труда и возможности трудоустройства; они могут повлиять на образовательную практику; и они требуют, чтобы образование инженеров ИИ и ученых-информатиков способствовало пониманию социальных и этических последствий ИИ.

ИИ имеет значение для культурной самобытности и разнообразия. Это может положительно повлиять на индустрию культуры и творчества, но также может привести к усилению концентрации предложения культурного контента, данных и доходов в руках лишь нескольких субъектов с потенциально отрицательным последствия для разнообразия форм культурного самовыражения и равенства.

Конфиденциальность

27. Всегда должна быть возможность возложить как этическую, так и юридическую ответственность за исследования, проектирование, разработку, развертывание и использование систем ИИ на физическое или существующее юридическое лицо. Таким образом, человеческий надзор относится не только к индивидуальному человеческому надзору, но и к общественному надзору.
28. Может случиться так, что иногда людям придется делить контроль с системами ИИ по причинам эффективности, но это решение уступить контроль в ограниченном контексте остается за людьми, поскольку системы ИИ должны быть исследованы, спроектированы, разработаны, развернуты и используются для помощи людям в принятии решений и действиях, но никогда не заменяют конечную ответственность человека.

Осведомленность и грамотность

31. Исследование, проектирование, разработка, развертывание и использование систем искусственного интеллекта должны уважать, защищать и поощрять конфиденциальность - право, имеющее важное значение для защиты человеческого достоинства и человеческой свободы воли. Адекватные механизмы управления данными должны быть обеспечены на протяжении всего жизненного цикла систем искусственного интеллекта, в том числе в отношении сбора данных, контроля над использованием данных посредством информированного согласия, разрешений и раскрытия информации о приложении и использования данных, а также обеспечения личных прав и доступа к ним. данные.

Многостороннее и гибкое управление

32. Осведомленность общественности и ее понимание технологий ИИ и ценности данных следует повышать с помощью образования, общественных кампаний и обучения, чтобы обеспечить эффективное участие общественности, чтобы граждане могли принимать информированные решения об использовании ими систем ИИ.

Справедливость

34. Управление должно учитывать целый ряд ответных мер - от мягкого управления через процессы саморегулирования и сертификации до жесткого управления с использованием национальных законов и, где это возможно и необходимо, международных инструментов. Чтобы избежать негативных последствий и непреднамеренного вреда, управление должно включать аспекты прогнозирования, защиты, мониторинга воздействия, правоприменения и возмещения.

Прозрачность и объяснимость

35. Субъекты ИИ должны уважать справедливость, равноправие и инклюзивность, а также прилагать все усилия для сведения к минимуму и предотвращения усиления или сохранения социально-технических предубеждений, включая расовые, этнические, гендерные, возрастные и культурные предубеждения, на протяжении всего жизненного цикла системы ИИ. .

Безопасность и охрана

36. Хотя, в принципе, необходимо приложить все усилия для повышения прозрачности и объяснимости систем ИИ, чтобы обеспечить доверие людей, уровень прозрачности и объяснимости всегда должен соответствовать контексту использования, так как многие компромиссы существуют между прозрачностью и объяснимостью и другими принципами, такими как безопасность.
37. Прозрачность означает, что люди могут понять, как системы ИИ исследуются, проектируются, разрабатываются, развертываются и используются в соответствии с контекстом использования и чувствительностью системы ИИ. Он также может включать понимание факторов, которые влияют на конкретный прогноз или решение, но обычно не включает обмен конкретным кодом или наборами данных. В этом смысле прозрачность - это социотехническая проблема, цель которой - завоевать доверие людей к системам ИИ.
38. Разъяснимость - это понимание и понимание результатов работы систем искусственного интеллекта. Объясняемость моделей ИИ также относится к понятности ввода, вывода и поведения каждого алгоритмического строительного блока и того, как он влияет на результат моделей. Таким образом, объяснимость тесно связана с прозрачностью, поскольку результаты и подпроцессы, ведущие к результатам, должны быть понятными и отслеживаемыми в соответствии с контекстом использования.

Ответственность и подотчетность

40. Правительства должны играть ведущую роль в обеспечении безопасности и защиты систем искусственного интеллекта, в том числе путем установления национальных и международных стандартов и норм в соответствии с применимыми международными законами, стандартами и принципами в области прав человека. Стратегические исследования потенциальных рисков безопасности, связанных с различными подходами к реализации долгосрочного ИИ, должны постоянно поддерживаться, чтобы избежать катастрофического ущерба.

Действие политики 2: Преодоление изменений на рынке труда

41. Субъекты искусственного интеллекта должны взять на себя моральную и юридическую ответственность в соответствии с существующими международными законами о правах человека и этическими рекомендациями на протяжении всего жизненного цикла систем искусственного интеллекта. Ответственность и ответственность за решения и действия, в любом случае основанные на системе ИИ, всегда должны в конечном итоге возлагаться на участников ИИ.
42. Следует разработать соответствующие механизмы для обеспечения подотчетности систем ИИ и их результат. Следует учитывать как технический, так и институциональный дизайн, чтобы обеспечить возможность аудита и прослеживаемость (работы) систем искусственного интеллекта.

Действие политики 3: Устранение социальных и экономических последствий ИИ

50. Государствам-членам следует работать над оценкой и устранением воздействия ИИ на рынки труда и его последствий для требований к образованию. Это может включать внедрение более широкого спектра «основных навыков» на всех уровнях образования, чтобы дать новым поколениям справедливые шансы найти работу на быстро меняющемся рынке и обеспечить их осведомленность об этических аспектах ИИ. Наряду со специальными техническими навыками следует обучать таким навыкам, как «обучение, как учиться», общение, работа в команде, сочувствие и способность передавать знания из разных областей. Ключевым моментом является прозрачность в отношении того, какие навыки востребованы, и обновление школьных программ на их основе.
51. Государства-члены должны работать с частными организациями, НПО и другими заинтересованными сторонами, чтобы обеспечить справедливый переход сотрудников из групп риска. Это включает в себя внедрение программ повышения квалификации и переподготовки, поиск творческих способов удержания сотрудников в эти переходные периоды, а также поиск программ «социальной защиты» для тех, кто не может пройти переподготовку.
52. Участник Государства должны поощрять исследователей анализировать влияние ИИ на местный рынок труда, чтобы предвидеть будущие тенденции и проблемы. Эти исследования должны пролить свет на то, какие экономические, социальные и географические секторы больше всего пострадают от массового внедрения ИИ.

Действие политики 5: Содействие просвещению и повышению осведомленности в области этики ИИ

54. Государства-члены должны разработать механизмы для предотвращения монополизации ИИ и связанного с этим неравенства, будь то монополии на данные, исследования, технологии, рынок или другие монополии.
55. Государствам-членам следует сотрудничать с международными организациями, частными и неправительственными организациями, чтобы обеспечить адекватное обучение населения грамотности в области ИИ, особенно в СНСД, чтобы сократить цифровой разрыв и неравенство в доступе к цифровым технологиям, возникающее в результате широкого внедрение систем искусственного интеллекта.

57. Государствам-членам рекомендуется рассмотреть механизм сертификации систем искусственного интеллекта, аналогичный тем, которые используются для медицинских устройств. Это может включать в себя различные классы сертификации в зависимости от чувствительности области применения и ожидаемого воздействия на жизнь людей, окружающую среду, этических соображений, таких как равенство, разнообразие и культурные ценности, среди прочего. Такой механизм может включать различные уровни аудита систем, данных и соблюдения этических норм. В то же время такой механизм не должен препятствовать инновациям или ставить в невыгодное положение малые предприятия или стартапы, требуя большого количества документов. Эти механизмы также будут включать компонент регулярного мониторинга для обеспечения устойчивости системы, непрерывной целостности и соответствия на протяжении всего жизненного цикла системы ИИ, при этом при необходимости потребуется повторная сертификация.
58. Государства-члены должны поощрять частные компании к привлечению различных заинтересованных сторон. в их управлении ИИ и рассмотреть возможность добавления роли сотрудника по этике ИИ или какого-либо другого механизма для надзора за оценкой воздействия, аудита и непрерывного мониторинга и обеспечения этического соответствия систем ИИ.
59. Государства-члены должны работать над разработкой стратегий управления данными, которые обеспечивают непрерывную оценку качества обучающих данных для систем искусственного интеллекта, включая адекватность процессов сбора и отбора данных, надлежащие меры безопасности и защиты данных, а также механизмы обратной связи, чтобы учиться на ошибках и делиться передовым опытом среди всех участников ИИ. Поиск баланса между метаданными и конфиденциальностью пользователей должен стать первоочередной задачей такой стратегии.

«Разработайте механизмы для предотвращения монополизации ИИ и связанного с этим неравенства, будь то данные, исследования, технологии, рынок или другие монополии». На мой взгляд, это и самая важная, и трудная для реализации рекомендация ЮНЕСКО, поскольку создание технического лидера и монополизация выгод от ИИ приносит огромные экономические и стратегические выгоды. Я надеюсь, что наши общества будут достаточно мудрыми, чтобы разработать такие механизмы, и при этом не будут препятствовать развитию ИИ.

Действие политики 7: Содействие этичному использованию ИИ в развитии

67. Государствам-членам следует поощрять в соответствии со своими национальными образовательными программами и традициями включение этики ИИ в школьные и университетские учебные программы для всех уровней и поощрять перекрестное сотрудничество между техническими навыками и социальными и гуманитарными науками. Онлайн-курсы и цифровые ресурсы должны разрабатываться на местных языках и в доступных форматах для людей с ограниченными возможностями.
68. Государства-члены должны способствовать приобретению «необходимых навыков» для обучения искусственному интеллекту, таких как базовая грамотность, навыки счета. и навыки кодирования, особенно в странах, где есть заметные пробелы в обучении этим навыкам.
69. Государствам-членам следует внести гибкость в учебные планы университетов и облегчить их обновление, учитывая ускоренные темпы инноваций в системах искусственного интеллекта. Более того, следует изучить интеграцию онлайн-образования и непрерывного образования, а также набор учетных данных, чтобы обеспечить гибкость и актуальность учебных программ.
70. Государствам-членам следует продвигать программы общей осведомленности об ИИ и всесторонний доступ к знаниям о возможностях и проблемах, создаваемых ИИ. Эти знания должны быть доступны для технических и нетехнических групп с особым упором на недопредставленные группы населения.
71. Государствам-членам следует поощрять исследовательские инициативы по использованию ИИ в обучении, подготовке учителей и электронного обучения, среди других тем, таким образом, чтобы расширять возможности и смягчать проблемы и риски, связанные с этими технологиями. Это всегда должно сопровождаться адекватной оценкой воздействия на качество образования и воздействия на учащихся и учителей использования ИИ, а также обеспечения того, чтобы ИИ расширял возможности и улучшал опыт для обеих групп.
72. Государства-члены должны поддерживать соглашения о сотрудничестве между академическими учреждениями и отраслью для преодоления разрыва в требованиях к набору навыков и содействовать сотрудничеству между отраслевыми секторами, академическими кругами, гражданским обществом и правительством для согласования программ и стратегий обучения, предоставляемых образовательными учреждениями, с потребностями отрасли. Следует поощрять проектные подходы к обучению ИИ, позволяющие наладить партнерские отношения между компаниями, университетами и исследовательскими центрами.

Действие политики 9: Создание механизмов управления этикой ИИ

81. Государства-члены и международные организации должны стремиться предоставить платформы для международного сотрудничества в области ИИ в целях развития, в том числе путем предоставления экспертных знаний, финансирования, данных, знаний в предметной области, инфраструктуры и организации семинаров между техническими и бизнес-экспертами для решения сложных проблем развития. , особенно для СНСД и НРС.
82. Государства-члены должны работать над продвижением международного сотрудничества в области исследований ИИ, включая исследовательские центры и сети, которые способствуют более широкому участию исследователей из СНСД и других развивающихся географических регионов .

Действие политики 10: Обеспечение надежности систем искусственного интеллекта

87. Государства-члены должны способствовать развитию цифровой экосистемы этичного ИИ и обеспечению доступа к ней. Такая экосистема включает, в частности, цифровые технологии и инфраструктуру, а также механизмы для обмена знаниями в области искусственного интеллекта, если это необходимо. В связи с этим государствам-членам следует рассмотреть возможность пересмотра своей политики и нормативно-правовой базы, в том числе доступа к информации и открытого правительства, с тем, чтобы отразить специфические требования ИИ и механизмы продвижения, такие как доверие данных, для поддержки безопасных, справедливых, юридических и этический обмен данными, среди прочего.

Открытые данные, особенно в правительстве и исследованиях, должны учитывать особые потребности обучения систем машинного обучения: публикация метаданных, аннотированных данных, кода для импорта и очистки данных и облегчение сотрудничества путем совместного использования кода для анализа и обучения моделей на таких платформах, как Kaggle .

94. Государства-члены должны пересмотреть и адаптировать, при необходимости, нормативно-правовую базу для обеспечения подотчетности и ответственности за содержание и результаты систем искусственного интеллекта на различных этапах их жизненного цикла. Правительствам следует ввести рамки ответственности или уточнить толкование существующих структур, чтобы дать возможность приписать ответственность за решения и поведение систем ИИ. При разработке нормативно-правовой базы правительства должны, в частности, учитывать, что ответственность и подотчетность всегда должны лежать на физическом или юридическом лице; ответственность не должна быть делегирована системе ИИ, а системе ИИ не должно быть предоставлено юридическое лицо.
95. Государствам-членам рекомендуется ввести оценки воздействия для выявления и оценки преимуществ и рисков систем искусственного интеллекта, а также меры по предотвращению, снижению и мониторингу рисков. Оценка риска должна определять воздействия на права человека, окружающую среду, а также этические и социальные последствия в соответствии с принципами, изложенными в настоящей Рекомендации. Правительствам следует принять нормативно-правовую базу, устанавливающую порядок проведения государственными органами оценки воздействия на системы искусственного интеллекта, приобретенные, разработанные и / или развернутые этими органами, для прогнозирования последствий, снижения рисков, предотвращения вредных последствий, содействия участию граждан и решать социальные проблемы. В рамках оценки воздействия государственные органы должны быть обязаны проводить самооценку существующих и предлагаемых систем искусственного интеллекта, которая, в частности, должна включать оценку того, насколько использование систем искусственного интеллекта в определенной области государственного сектора уместно и каков подходящий метод. Оценка также должна включать соответствующие механизмы надзора, включая возможность аудита, отслеживаемость и объяснимость, которые позволяют оценивать алгоритмы, данные и процессы проектирования, а также включать внешний обзор систем искусственного интеллекта. Такая оценка также должна быть междисциплинарной, многосторонней, многокультурной, плюралистической и инклюзивной.
96. Государства-члены должны привлекать всех участников экосистемы ИИ (включая, помимо прочего, представителей гражданского общества, правоохранительных органов, страховщики, инвесторы, производители, инженеры, юристы и пользователи) в процессе установления норм там, где их нет. Нормы могут стать передовой практикой и законами. Государствам-членам также рекомендуется использовать такие механизмы, как нормативные «песочницы», для ускорения разработки законов и политики в соответствии с быстрым развитием новых технологий и обеспечения того, чтобы законы могли быть протестированы в безопасной среде до их официального принятия .
97. Государства-члены должны обеспечить, чтобы вред, причиненный пользователям с помощью систем искусственного интеллекта, мог быть расследован, наказан и возмещен, в том числе путем поощрения компаний частного сектора к созданию механизмов исправления. С этой целью следует содействовать проверке и отслеживаемости систем искусственного интеллекта, особенно автономных.
98. Государства-члены должны применять соответствующие гарантии фундаментального права отдельных лиц на неприкосновенность частной жизни, в том числе посредством принятия или обеспечения соблюдения законодательной базы, обеспечивающей надлежащую защиту в соответствии с международным правом. В отсутствие такого законодательства государства-члены должны настоятельно рекомендовать всем участникам ИИ, включая частные компании, разрабатывающие и эксплуатирующие системы ИИ, применять конфиденциальность посредством дизайна в своих системах.
99. Государства-члены должны гарантировать, что отдельные лица могут контролировать использование их частной информации / данных, в частности, чтобы они сохраняли право доступа к своим собственным данным и «право на забвение».
100. Государства-члены должны обеспечить повышенную безопасность для данных, позволяющих установить личность, или данных, разглашение которых может причинить человеку исключительный ущерб, травмы или затруднения. Примеры включают данные, касающиеся правонарушений, уголовных разбирательств и обвинительных приговоров, а также связанных с ними мер безопасности; биометрические данные; личные данные, относящиеся к «расовому» или этническому происхождению, политическим взглядам, членству в профсоюзах, религиозным или другим убеждениям, здоровью или сексуальной жизни.
101. Государства-члены должны работать над принятием подхода Commons к данным для обеспечения функциональной совместимости наборов данных, обеспечивая при этом их надежность и проявляя крайнюю бдительность при надзоре за их сбором и использованием. Это может, где это возможно и выполнимо, включать в себя инвестиции в создание наборов данных золотого стандарта, включая открытые и заслуживающие доверия наборы данных, которые разнообразны, созданы с согласия субъектов данных, когда согласие требуется по закону, и поощрять этические практики в технологии, подкрепленные обменом качественными данными в общем надежном и защищенном пространстве данных.

90. Государства-члены и частные компании должны внедрить надлежащие меры для мониторинга всех этапов жизненного цикла системы ИИ, включая поведение алгоритмов, отвечающих за принятие решений, данные, а также участников ИИ, участвующих в процессе, особенно в общественные службы и где требуется прямое взаимодействие с конечным пользователем.
91. Государства-члены должны работать над установлением четких требований к прозрачности и объяснимости системы ИИ на основе:
a. Область применения: некоторые секторы, такие как правоохранительные органы, безопасность, образование и здравоохранение, вероятно, будут иметь более высокую потребность в прозрачности и объяснимости, чем другие.
b. Целевая аудитория: уровень информации об алгоритмах и результатах системы ИИ, а также форма требуемого объяснения может варьироваться в зависимости от того, кто запрашивает объяснение, например: пользователи, эксперты в предметной области, разработчики и т. Д.
c. Осуществимость: многие алгоритмы ИИ до сих пор не поддаются объяснению; для других объяснимость добавляет значительные накладные расходы на реализацию. До тех пор, пока полная объяснимость не станет технически возможной с минимальным влиянием на функциональность, будет происходить компромисс между точностью / качеством системы и ее уровнем объяснимости.
92. Государства-члены должны поощрять исследование прозрачности и объяснимости путем выделения дополнительных средств в эти области для разных областей и на разных уровнях (технический, естественный язык и т. д.).
93. Государствам-членам и международным организациям следует рассмотреть возможность разработки международных стандартов, описывающих измеримые, проверяемые уровни прозрачности, чтобы можно было объективно оценивать системы и определять уровни соответствия.

Действие политики 11. Обеспечение ответственности, подотчетности и конфиденциальности

103. Возможные механизмы для мониторинга и оценки могут включать в себя обсерваторию ИИ, занимающуюся соблюдением этических норм во всех областях компетенции ЮНЕСКО, механизм обмена опытом, позволяющий государствам-членам предоставлять отзывы об инициативах друг друга, и «измеритель соответствия» для разработчиков Системы искусственного интеллекта для измерения их приверженности политическим рекомендациям, упомянутым в этом документе.

«Ответственность и подотчетность всегда должны лежать на физическом или юридическом лице; ответственность не должна быть делегирована системе ИИ, и системе ИИ не следует предоставлять юридическое лицо »: если системы ИИ начинают приобретать собственные ресурсы и назначать физических лиц в качестве опекунов и надзирателей, включая их Почему в процессе принятия решений к ним следует относиться иначе, чем к корпорации, и лишать их правосубъектности?

Я добавил очень мало комментариев к избранным основным моментам, но, возможно, мне будет предложено написать больше, если будут положительные отзывы от читателей, поэтому, пожалуйста, оставляйте комментарии.

Основные моменты Рекомендации ЮНЕСКО по этике ИИ