Автор Джейк Макинтош

14 октября 2021 года Центр равенства, гендера и лидерства (EGAL) пригласил четырех вдохновляющих лидеров корпоративных инноваций для обсуждения стратегий ответственного управления системами ИИ, основанными на человеческом языке. Использование систем ИИ, влияющих на различные сферы нашей жизни, быстро расширяется — ожидается, что к 2030 году системы ИИ добавят в мировую экономику 15,7 трлн долларов. для привития справедливости и включения в разработку продукта.

Все четыре докладчика уделили особое внимание системам искусственного интеллекта, созданным с использованием данных, поддерживаемых человеческим языком, включая чат-боты, фильтры разжигания ненависти и программное обеспечение для распознавания речи, и сосредоточились на том, как лучше всего выявлять, смягчать и устранять предубеждения.

На мероприятии было представлено новое руководство EGAL Ответственный язык в области искусственного интеллекта и машинного обучения, направленное на поддержку методов управления и действий, обеспечивающих справедливость и включение в жизненный цикл продукта. Джен Дженнай, основатель и руководитель отдела ответственных инноваций в Google, подчеркнула, что инструменты действительно важны, и их нужно повторять и использовать. Наборы инструментов, подобные созданному EGAL, [позволяют] людям учиться, когда у них может не быть того же уровня ресурсов или опыта, что и у корпораций или более крупных организаций.

Спикеры поделились своими взглядами и опытом создания команд и продуктовых циклов, основанных на ответственных методах искусственного интеллекта. Ниже приведены четыре ключевых вывода из панели.

  1. Использование ответственного ИИ – дело каждого человека. Рэйчел Гиллум, доктор философии, директор по глобальной политике этического и гуманного использования технологий в Salesforce, подчеркнула, что, хотя справедливость и инклюзивность являются основой работы ее команды, они опираются на множество команд с большим опытом, опытом и знаниями. опыт планирования, разработки, аудита и корректировки технологий искусственного интеллекта. Конкретные группы включают в себя группу по этике при разработке, группу по политике этичного использования и команду по инклюзивному дизайну и доступности продукта, которые совместно работают над планированием, разработкой и внедрением на каждом этапе жизненного цикла продукта. Рэйчел также упомянула Консультативный совет по этике, который состоит из «группы внешних сторон со всего мира, различных экспертов и опытных сотрудников… а также рядовых сотрудников… и непосредственно затронутых сообществ… для тщательного изучения всех принимаемых решений».
  2. Дезагрегируйте данные. Миранда Боген, менеджер по политике конфиденциальности, искусственному интеллекту и машинному обучению в Facebook, консультирует инженерные группы по созданию систем искусственного интеллекта. Она порекомендовала командам прекратить разработку для самой простой аудитории или аудитории, где собрано больше всего данных, и вместо этого разрабатывать и создавать для аудитории, которой может быть нанесен вред или которая явно не получает выгоды от продукта. «Никогда не думайте только об общей производительности или общих средних показателях. Дезагрегирование данных и рассмотрение того, как этот продукт работает для разных сообществ, имеет решающее значение». Миранда также упомянула о противоречиях, существующих между данными и конфиденциальностью, и порекомендовала командам следовать установленной политике, определяющей, как они собирают и используют данные своих пользователей.
  3. Отзывы важны как никогда. Создание цикла обратной связи и диалога между компаниями, их клиентами и сообществом в целом — один из лучших способов уменьшить предвзятость, повысить инклюзивность и улучшить продукты. Дженнай, основатель и руководитель отдела ответственных инноваций в Google, рассказала о трех основных каналах обратной связи, которые ее команда использует для получения отзывов, особенно от маргинализированных и недостаточно представленных клиентов. Первая группа включает в себя отзывы, передаваемые по установленным каналам Google, и предназначена для сбора отзывов и отзывов клиентов. Второй — это обратная связь, полученная в результате совместного исследования, и она направлена ​​на повышение мнения сообществ, которые могут не использовать продукт, но на которых он влияет, или тех, кто не знает о существовании канала обратной связи. Третий включает в себя «непосредственную работу с общественными группами, лидерами сообществ, которые могут попытаться представить масштаб сообщества вместо того, чтобы ожидать, что один человек может представлять чувства или мысли всех».
  4. Ответственный ИИ требует постоянной практики и обучения на протяжении всей жизни. Все четыре участника дискуссии рекомендовали студентам MBA, заинтересованным в ведущих компаниях, разрабатывающих технологии искусственного интеллекта и машинного обучения, взять на себя обязательство повышать свою осведомленность, руководство и практику учета этических соображений в каждом аспекте своей работы. «Я не решаюсь сказать, что должны быть какие-либо модули [курса] по этике и ответственности», — сказала Джен Дженай из Google. «Это должно быть встроено и интегрировано в ваше мышление, в ваше образование. Точно так же, как мы думаем об этом на протяжении жизненного цикла продукта, [студенты MBA] должны думать об этом на протяжении всего жизненного цикла бизнеса и образования. Это важные мышцы, которые мы строим, и вы должны использовать их, чтобы сделать их лучше».

Выпускник Беркли Хаас и директор по управлению продуктами в Google Арчана Каннан поделились заключительными замечаниями к сессии, напомнив слушателям Определение принципов лидерства Беркли Хаас, которыми руководствуются наши студенты, преподаватели и партнеры в кампусе. Все мы должны выйти за пределы самих себя, — сказал Арчана. Это раннее пространство, и так много всего нужно изменить. Мы далеки от завершения, и каждый должен внести свой вклад, чтобы помочь определить это в следующем десятилетии.