В течение многих лет мы слышали о крупных инициативах в области ИИ на международных предприятиях. Согласно отчету Gartner, в ходе которого было опрошено более 3000 руководителей в 89 странах, компании, опасающиеся остаться позади в революции ИИ, увеличили ее внедрение на колоссальные 270% с 2015 по 2019 год. Наряду с промышленностью, искусственный интеллект также позволяет нашим современным умным домам и даже нашел свое применение в играх и развлечениях.

Растущее присутствие ИИ вызвало немало критики, и часто небезосновательно. В прошлом году веб-проект DeepNude на базе искусственного интеллекта, который позволял пользователям удалять одежду людей с изображений (в основном на женщинах), вызвал резкую критику и был снят разработчиками. Несколько месяцев назад Genderify, инструмент на базе искусственного интеллекта, предназначенный для определения пола человека путем анализа его имени, имени пользователя или адреса электронной почты, вызвал негативную реакцию в социальных сетях и также был закрыт. Подверглись нападкам заявления о ссуде и приеме на работу, а также предиктивные полицейские алгоритмы.

Технологические гиганты в ответ на растущую обеспокоенность общественности по поводу того, что системы ИИ вторгаются в частную жизнь и увековечивают расовые и гендерные предубеждения, в последние годы работали над решением проблем справедливости не только в наборах данных, но также в алгоритмах и дизайне архитектуры моделей. В дополнение к исследовательским усилиям по уменьшению предвзятости моделей Google также внедрила общекорпоративную экосистему ML Fairness and Responsible AI.

«Доверие к системам ИИ становится, если не уже, самым большим препятствием для предприятий — по мере того, как они начинают переходить от изучения ИИ или потенциального пилотирования или проверки концепции к развертыванию ИИ в производственной системе», — сказала Трейси Пиццо Фрей, директор по стратегии Google Cloud AI & Industry Solutions, на брифинге ML Fairness для прессы на этой неделе.

Фрей говорит, что первым шагом к систематическому применению всех важнейших компонентов ответственности ИИ и иногда противоречивых этических теорий к разработке и приложениям ИИ в Google было создание набора общекорпоративных принципов ИИ. Исследователи Google начали разрабатывать Принципы искусственного интеллекта компании летом 2017 года, потратили еще год на разработку и итерацию и опубликовали их в июне 2018 года.

Первая часть Принципов ИИ включает в себя семь обязательств: ИИ должен быть социально полезным, избегать создания или усиления несправедливых предубеждений, создаваться и тестироваться на предмет безопасности, быть подотчетным перед людьми, включать принципы проектирования конфиденциальности, поддерживать высокие стандарты научного совершенства и что разработанные технологии искусственного интеллекта «предоставляются для использования в соответствии с этими принципами».

Во второй части Google указывает четыре области, в которых он не будет разрабатывать или развертывать ИИ. К ним относятся технологии, которые причиняют или могут причинить общий вред, оружие или другие технологии, основная цель или реализация которых заключается в причинении или непосредственном облегчении причинения вреда людям, технологии, которые собирают или используют информацию для наблюдения, нарушая международно признанные нормы, и технологии, цель которых противоречит общепризнанные принципы международного права и прав человека.

«Наши принципы искусственного интеллекта служат универсальным стандартом нашего подхода к разработке технологии, — сказал Фрей Synced. «Все, что, по нашему мнению, может противоречить этим принципам, будет проверено на основе принципа ИИ».

Чтобы убедиться, что принципы действительно реализованы, руководитель Google ML Fairness and Responsible AI Тулси Доши и ее команда получают централизованные основные знания, опыт, рекомендации и образовательный контент в области ИИ, которые они используют для руководства проектами и предоставления рекомендаций исследовательским и продуктовым группам и т. д. .

Являясь центром экосистемы ответственного искусственного интеллекта Google, команда Доши регулярно отчитывается перед руководителями высшего звена и советниками по деликатным вопросам и обращается к ним за советом. В обязанности ее команды также входит консультирование по вопросам этики, социальные исследования, участие в технических исследованиях и фундаментальные исследования в области машинного обучения.

Конечная цель команды Fairness and Responsible AI — поделиться своим опытом во всех областях продуктов Google, и с этой целью они постоянно собирают отзывы от групп разработчиков. После того, как команда поделится своим опытом, продуктовые команды берут на себя ответственность за то, следует ли внедрять и управлять какими-либо процессами, основанными на принципах искусственного интеллекта, и каким образом.

«Любой сотрудник Google может запросить обзор принципа ИИ для нового продукта, исследовательской работы, партнерства или любой другой идеи, которая у него есть», — пояснил Доши на брифинге для прессы.

В ходе этого процесса центральная группа проверки определит соответствующие принципы искусственного интеллекта и экспертов Google, обладающих опытом в этой области. После определения потенциальных преимуществ и недостатков конкретного проекта группа проверки и группа разработки продукта определят, следует ли запускать проект, и если да, то какие этические и продуманные методы следует принять во внимание.

По словам Фрея, команда Cloud внедрила процесс проверки, аналогичный рассмотрению принципов ИИ, еще до официального выпуска Принципов ИИ Google. «Мы занимаемся этой работой уже два с половиной года, и мы многое узнали как о том, что мы можем сделать, так и об ограничениях, а также о том, как мы можем итерировать с течением времени».

Фрей объясняет, что у команды Cloud есть несколько уникальных и многоуровневых соображений. Они не обязательно создают продукт и предлагают его напрямую потребителям. Вместо этого они продают технологии искусственного интеллекта, которые могут быть упакованы или объединены предприятием в продукт, предназначенный для решения их собственных задач. Поэтому облачной команде необходимо было создать собственные процессы управления на основе принципов искусственного интеллекта.

Стремясь обеспечить строгие оценки в часто гибких средах, в которых формируются новые технологии, команда Фрея создала два связанных, но целенаправленно разных контрольных органа. Первый охватывает взаимодействие с клиентами на ранней стадии, а второй служит для тщательного обзора продукта, который выполняет оценку рисков и возможностей по каждому принципу.

В прошлом году сотрудник Google запустил свое изображение в API Cloud Vision, и в результате был неправильно указан пол. Этот вопрос был передан команде Cloud Vision, которая начала проверку и расследование принципа ИИ и пришла к выводу, что он нарушает их второй принцип ИИ «избегать создания или усиления несправедливой предвзятости».

В этом году команда Cloud приняла решение полностью убрать гендерные метки в API. Фрей говорит, что они считают, что «воздействие неправильной идентификации усугубляет или создает несправедливые предположения, которые могут ограничить или навредить тем, кто не выглядит стереотипно мужчиной или женщиной, или кто является гендерно неконформным человеком».

Мы можем ожидать увидеть больше таких изменений, которые отражают динамичную природу общества и нашего понимания. В апреле Google AI объявил о новом подходе, который использует совершенно другую парадигму для устранения гендерных предубеждений путем переписывания или постредактирования исходного перевода, в то время как исследовательская работа Google AI, опубликованная ранее в этом месяце, изучала корреляции, связанные с полом, в языковых моделях BERT и ALBERT. и сформулировал соответствующую серию передовых практик.

«Это так важно, что мы можем сделать шаг назад и сказать, что этот результат больше не служит нам и нашему сообществу. И поэтому крайне важно, чтобы мы его изменили», — подчеркивает Фрей.

Корреспондент: Юань Юань | Редактор: Майкл Саразен

Синхронизированный отчет | Обзор китайских решений искусственного интеллекта в ответ на пандемию COVID-19 — 87 тематических исследований от более чем 700 поставщиков ИИ

В этом отчете предлагается взглянуть на то, как Китай использует технологии искусственного интеллекта в борьбе с COVID-19. Он также доступен на Amazon Kindle. Вместе с этим отчетом мы также представили базу данных, охватывающую дополнительные 1428 решений искусственного интеллекта для 12 сценариев пандемии.

Нажмите здесь, чтобы найти больше отчетов от нас.

Мы знаем, что вы не хотите пропустить ни одной новости или научного открытия.Подпишитесь на нашу популярную рассылку Synced Global AI Weekly, чтобы получать еженедельные обновления AI.