Недавний проект руководства по ICO по искусственному интеллекту

Феномен искусственного интеллекта, несомненно, набирает обороты: его использование «автоматизирует» ряд действий, ранее являвшихся исключительной прерогативой человеческой руки и разума.

На что мы должны обратить внимание, так это не на страх немедленной замены человека мыслящей машиной, а на сознательное и ответственное использование данных, которые используются для ее работы и для ее взаимодействий.

Мы уже проанализировали взаимодействие с системами искусственного интеллекта на рабочих собеседованиях, регулируемых в штате Иллинойс (вы можете прочитать мои подробности здесь), а также первое вмешательство «регулятора» и разъяснителя, сделанное норвежскими властями для Защита данных, об основных противоречиях соблюдения GDPR (другие подробности здесь).

Ясно, что ни одно государство не освобождается от подхода к анализу и изучению этого явления, которое вместе с другими техническими новшествами представляет собой будущее во всех секторах, от социального до экономического.

Последнее выступление прозвучало на встрече Офиса Комиссара по информации Великобритании (ICO) с Институтом Алана Тьюринга, в результате которой была проведена консультация, состоящая из трех частей, чтобы объяснить решения, принятые искусственным интеллектом, под названием «Разъяснение проекта». Эта инициатива, родившаяся в середине 2018 года и обусловленная приоритетом развития ИИ в Соединенном Королевстве, не является следствием Закона о защите данных, а является лишь руководством по передовым методам, которые следует использовать для объяснения обработка данных тем, кто участвует в системах принятия решений с ИИ.

Первая часть ориентирована на профессионалов в сфере персональных данных (DPO), т.е. на тех, кто принимает непосредственное участие в развитии явления и кто должен уметь обеспечить надлежащую конфиденциальность и соответствие, запечатлевая все на понятии объяснимости. .

Вторая часть посвящена в основном практическим и эмпирическим аспектам, чтобы объяснить людям функционирование технологий искусственного интеллекта.

Третья часть направлена ​​на создание руководства по ролям, процессам и документации, которые каждая компания должна подготовить, чтобы дать исчерпывающие ответы заинтересованным сторонам.

Как GDPR, так и Закон о защите данных уже включают конкретные положения о профилировании, автоматизированной обработке и автоматизированном крупномасштабном принятии решений в отношении персональных данных, тем самым также регулируя использование ИИ, чтобы он соблюдал принципы справедливости и прозрачности. и подотчетность, как указано в GDPR.

Статья 13, 2, пункт f) Общего регламента по защите данных (GDPR) прямо требует, чтобы контроллер данных упреждающе сообщал субъекту данных в отношении: «существования автоматизированного принятия решений, включая профилирование, упомянутое в статье 22(1). ) и (4) и, по крайней мере, в этих случаях, содержательную информацию о задействованной логике, а также о значении и предполагаемых последствиях такой обработки для субъекта данных».

Статья 15, 1, пункт h) также гласит: «Субъект данных имеет право получить от контролера подтверждение того, обрабатываются ли персональные данные, касающиеся его или ее, и, если это случае, доступ к персональным данным и следующей информации» (то же, что и выше).

В документе ICO перечисляется ряд принципов, помогающих объяснить ситуацию, ровно шесть, которые перечислены ниже:

- Обоснование: причины, которые привели к решению, объяснены простым и нетехническим образом, что также помогает компаниям соблюдать GDPR.

- Объяснение ответственности: кто участвует в разработке, управлении и внедрении системы искусственного интеллекта и с кем, если таковые имеются, связаться для «человеческой» проверки решения.

Объяснение данных: какие данные использовались в том или ином решении и как; какие данные использовались для обучения и тестирования модели ИИ и как.

- Объяснение справедливости: меры, предпринятые при разработке и внедрении системы ИИ, чтобы гарантировать, что ее решения в целом беспристрастны и справедливы, а также справедливо ли обращались с человеком.

- Объяснение безопасности и производительности: этапы проектирования и внедрения системы искусственного интеллекта для обеспечения максимальной точности, надежности, безопасности и правильности ее решений и поведения.

- Объяснение влияния: влияние, которое использование системы ИИ и ее решений оказывает или может оказать на человека и общество в целом.

ICO не останавливается на достигнутом, а также устанавливает четыре руководящих принципа для компаний:

I. Быть прозрачным: сделать техническую логику, лежащую в основе результатов модели, понятной, и предоставить простые мотивы, которые заинтересованные лица могут легко оценить;

II. Быть ответственным: учитывать ответственность на каждом этапе разработки и внедрения системы внутреннего аудита, а также то, были ли процессы проектирования и внедрения прослеживаемы и проверяемы для всего проекта;

III. Учитывайте контекст, в котором работает компания;

IV. Подумайте о влиянии ИИ компании на заинтересованных лиц и на общество в целом, например, если модель была разработана, проверена и утверждена для обеспечения ее безопасности, точности, надежности и надежности.

В свете этих «рекомендаций» на контроллерах данных лежит бремя обеспечения того, чтобы любая система искусственного интеллекта, разработка которой была поручена внешним органам, была должным образом объяснима, а при наличии алгоритмических методов «непрозрачными», недоступными для человеческого понимания. , компании будут обязаны предусмотреть дополнительные меры по предотвращению рисков, и что любой тип «аномалии» можно будет предсказать, проанализировать, оценить и смягчить (возможно, с помощью методов, которые могут включать деревья решений или списки правил, линейную регрессию, рассуждения на основе конкретных случаев или логистической регрессии). Здесь в документе рассматриваются достоинства более чисто технических вариантов использования, таких как случай систем искусственного интеллекта «черный ящик», включая нейронные сети и случайные леса, которые следует использовать только в том случае, если их потенциальное воздействие и риски были тщательно рассмотрены; и делает различие между объяснением отдельных результатов модели ИИ (определяемым как «локальное объяснение») и объяснением того, как она работает во всех своих результатах (так называемое «глобальное объяснение»), а также между внутренними и внешними объяснениями, в зависимости от от того, можно ли разложить процессы принятия решений на несколько фаз или вместо этого они полностью недоступны для внутренней логики из-за их сложности, например, системы черного ящика.

Наконец, ICO предупреждает, что компании, которые не могут объяснить решения с помощью искусственного интеллекта, могут столкнуться с регулятивными действиями, репутационным ущербом и общественным отстранением.

В Приложении к проекту Руководства, ответы на которые должны быть получены в ближайшее время, не позднее 24 января 2020 г., ICO указывает некоторые ключевые шаги для технического персонала для надлежащего внедрения автоматизированной системы; их можно свести к двум типам поведения: объяснения систем ИИ, которые демонстрируют, что при проектировании и использовании использовались передовые методы управления; объяснения, которые разъясняют результаты простым языком, а также причины полезности человеческого суждения, «увеличенного» выходом системы искусственного интеллекта.

Все права защищены

Рафаэлла Агемо, юрист