Автор: Джиллур Куддус, специалист по данным, методы

Технологии предоставляют нам набор инструментов для изменения жизни к лучшему, но, если их не остановить, они также способны дискриминировать и укреплять стереотипы и предубеждения.

Это верно для любой технологии прошлого, настоящего и будущего. Но именно продвижение распределенных систем, способных хранить и обрабатывать огромные объемы ранее разрозненных данных, в сочетании с появлением искусственного интеллекта (ИИ) в нашей повседневной жизни требует от нас срочно переориентироваться на то, как технологии проектируются, проектируются, тестируются, развертывается и управляется, чтобы гарантировать, что его влияние останется положительным — и только положительным.

Первые принципы

Независимо от того, просили мы об этом явно или нет, факт в том, что сегодня и прямо в этот самый момент искусственный интеллект влияет на вашу жизнь. Большую часть времени ИИ невидим для нас — всякий раз, когда мы вводим поисковый запрос в Google, посещаем веб-сайты, используем социальные сети, просматриваем Netflix, используем онлайн-банкинг, пользуемся общественным транспортом или гуляем по улицам любого крупного города, алгоритмы ИИ заняты работой в фоновом режиме, чтобы вернуть релевантные результаты поиска, проанализировать ваши привычки просмотра, социальные сети, предпочтения просмотра, обнаружить признаки мошенничества, а также захватить изображение и обработать ваше лицо. С таким глубоким и далеко идущим, но, как это ни парадоксально, невидимым глобальным следом, опасности ИИ, если его не контролировать и не регулировать должным образом, значительны и ощутимы, не в последнюю очередь для групп людей, на которые он негативно повлияет (обычно тех, кто уже находится в неблагоприятном социальном положении). ).

Но прежде чем мы приступим к изучению этих опасностей, давайте вернемся к первым принципам и определениям. ИИ — это широкий термин, относящийся к теории и применению машин, которые демонстрируют разумное поведение. Машинное обучение (ML) — это прикладная область исследования в рамках более широкой области искусственного интеллекта, которая фокусируется на обучении на основе данных путем выявления закономерностей, тенденций, границ и взаимосвязей, чтобы делать прогнозы и, в конечном итоге, предоставлять действенные идеи, помогающие принимать решения. Фундаментальным инструментом, используемым в машинном обучении, является вероятностное мышление — создание математических моделей, которые помогают нам делать выводы о совокупности, чтобы понять или проверить гипотезу о том, как ведет себя система или среда. Таким образом, машинное обучение зависит от данных, и как контролируемое, так и неконтролируемое машинное обучение делают неявное предположение о том, что тенденции и закономерности, выявленные в исторических данных для изучения математической функции, могут быть использованы для создания выводов и прогнозов о будущем, используя это. одна и та же математическая функция.

Глубокое обучение

(DL) — это подполе машинного обучения, целью которого остается изучение математической функции, которая сопоставляет входные данные с выходными. Однако глубокое обучение изучает эту функцию, используя архитектуру, которая имитирует нейронную архитектуру человеческого мозга, чтобы учиться на опыте, используя иерархию концепций или представлений и алгоритмы оптимизации на основе градиента. Однако глубокое обучение по-прежнему зависит от данных, и чем больше данных используется для обучения нейронной сети, тем выше точность прогнозирования.

Усиление смещения

Теперь, когда у нас есть понимание того, что такое искусственный интеллект, становится ясно, что данные — и их много — необходимы для эффективного машинного обучения. Чем больше данных, тем лучше предсказательная сила результирующей модели.

Но что, если сами данные содержат предвзятость? В этом случае сама модель не только увековечит это предубеждение, но во многих случаях усилит его. Так почему же алгоритмы машинного обучения усиливают предвзятость? Чтобы ответить на этот вопрос, мы должны пересмотреть математическую природу их тренировочной структуры.

Напомним, что целью алгоритмов машинного обучения является изучение математической функции для сопоставления точек входных данных с выходными данными. Обычно эти выходные данные принимают форму значения или классификации. Чтобы изучить эту математическую функцию и максимально повысить ее точность, алгоритмы машинного обучения стремятся свести к минимуму количество ошибок, которые они совершают, уменьшая дисперсию прогнозов, сделанных окончательной моделью. Чтобы уменьшить дисперсию, алгоритмы вводят предположения, называемые смещением в модели, чтобы упростить аппроксимацию функции. Вводя больше предвзятости, ваша окончательная модель будет иметь меньше вариаций, но за счет большего отклонения от реальности реального мира, в которой работает ваша модель. Но недостаточно смещения, и прогностическая точность вашей окончательной модели снижается из-за большей дисперсии. Таким образом, многие алгоритмы машинного обучения выявляют компромисс между смещением и дисперсией за счет манипулирования гиперпараметрами, чтобы разработчик или специалист по данным могли контролировать этот баланс.

Однако здесь кроется проблема: если цель машинного обучения состоит в том, чтобы обучить модели, чтобы максимизировать их прогностическую точность, то любая погрешность в данных, которые питают эти алгоритмы, будет усилена из-за того, что алгоритм обобщает данные, чтобы уменьшить дисперсию. Поэтому, если данные содержат, например, гендерную или расовую предвзятость, эта предвзятость будет сохранена и усилена, чтобы помочь сделать модель более точной, увековечивая порочный круг предвзятости и дискриминации.

Гендерная предвзятость в обработке естественного языка

Давайте рассмотрим пример алгоритма, чтобы показать, как проблема усиления смещения является физической реальностью в современном мире, управляемом искусственным интеллектом. Обработка естественного языка (NLP) относится к семейству компьютерных дисциплин, включая информационную инженерию, лингвистику, управление данными и машинное обучение, с целью помочь компьютерам понять естественный язык, используемый в речи и тексте. Обработка естественного языка используется в различных сценариях, от взаимодействия с чат-ботами и виртуальными агентами, такими как Alexa, до перевода на иностранный язык, понимания и классификации письменного текста, такого как юридические контракты и отчеты о состоянии здоровья.

Одно общее семейство методов изучения признаков, используемых при обработке естественного языка, называется встраиванием слов. Вложение слов представляет каждое слово или фразу, найденную в данном наборе текстов, в виде вектора. Слова с похожим семантическим значением будут иметь близкие друг к другу векторы, и связь между словами может быть определена количественно через различия векторов. Таким образом, встраивание слов является чрезвычайно полезным инструментом для широкого круга задач прогнозирования, связанных с естественным языком. Например, когда мы хотим определить сходство предложений, например, когда задаем вопрос чат-боту или Google, он будет использовать встраивание слов, чтобы увидеть, задавался ли этот вопрос ранее, и принять соответствующие меры на основе индекса сходства. Другой пример — рассуждение по аналогии, когда мы хотим предсказать семантические отношения. Широко используемой реализацией, изучающей векторные представления слов, является word2vec, которая обеспечивает семантические отношения между словами следующим образом:

Версия модели word2vec была обучена инженерами Google на наборе данных из сотен миллионов статей Новостей Google, содержащих в общей сложности сотни миллиардов слов. Что происходит, когда мы применяем эти обученные встраивания слов word2vec к задачам рассуждения по аналогии? Например, возьмем следующую аналогичную фразу:

Встраивание word2vec, обученное Google, предсказывает « Kitten ». Давайте посмотрим на другой пример:

Мужчина относится к программисту так же, как женщина относится к __________?

Обученные вложения word2vec в этом случае предсказывают Homemaker. Это яркий пример того, как гендерная предвзятость в данных, используемых для обучения модели (в данном случае Google News), сохраняется до окончательных классификаций и сделанных прогнозов. Демонстрационное веб-приложение, использующее модель word2vec, обученную Google на наборе данных Google News, можно найти по адресу https://rare-technologies.com/word2vec-tutorial/.

Встраивание слов — яркий пример сохранения и усиления предубеждений, усугубляемых тем фактом, что их использование чрезвычайно распространено в инструментах, разработанных крупными технологическими компаниями и которые мы используем каждый день. Примером этого является Google Translate — чрезвычайно полезный инструмент, но он использует встраивание слов и, следовательно, может сохранять предвзятость по признаку пола.

Например, введите следующую английскую фразу в Google Translate и выберите целевой язык, в котором нет местоимений, различающих пол, например финский или венгерский:

Если вы затем снова воспользуетесь Google Translate, чтобы перевести финский или венгерский язык обратно на английский, вы получите:

Она медсестра. Он космонавт.

Вы увидите, что гендерные местоимения поменялись местами, что помогло укрепить гендерные стереотипы.

Алгоритмический детерминизм

Напомним, что как контролируемое, так и неконтролируемое машинное обучение делают неявное предположение о том, что тенденции и закономерности, выявленные в исторических данных для изучения математической функции, могут использоваться для создания выводов и прогнозов о будущем с использованием той же математической функции. Персональные рекомендации от таких сервисов, как Netflix и Amazon, личные помощники и виртуальные агенты, такие как Alexa и Siri, работают на основе одного и того же фундаментального принципа алгоритмического детерминизма — то, что произошло раньше, может быть использовано в качестве контекста в которые предсказывают и рекомендуют действия в будущем.

Однако реальная опасность выводов и прогнозов, предоставляемых этими моделями машинного обучения, заключается в том, что, поскольку они предоставляют все более детерминированные рекомендации, они увековечивают предвзятость, стереотипы и дискриминацию, укрепляя исторические и существующие убеждения. Мы продолжим смотреть только те шоу на Netflix, или продолжим читать только те книги на Amazon или твиты в Twitter, чей контент нам нравился раньше, редко или даже никогда, чтобы расширить свой кругозор, открыть свой разум для новых способов мышления или встретиться людей и взаимодействовать с контентом, с которым мы можем изначально не согласиться. Затем искусственный интеллект становится инструментом для поддержания существующего поведения и убеждений, не поддающихся изменению поведения. И это по своей сути опасно для любого свободного общества, где ваше прошлое диктует ваше будущее.

Распределяющая шляпа

Чтобы беззаботно подчеркнуть усиление предвзятости и алгоритмического детерминизма в искусственном интеллекте, практика Methods’ Emerging Technology (ET) недавно разработала приложение для Android под названием Распределяющая шляпа Hoogsnorts. Вдохновленные сортировочной шляпой из Гарри Поттера, мы разработали сквозной конвейер нейронной обработки для глубокого обучения в сочетании с приложением дополненной реальности для Android, предназначенным для демонстрации прикладной сквозной интеграции машинного обучения, глубокого обучения и дополненной реальности. подчеркивая этическое и социальное влияние искусственного интеллекта как часть его постоянно растущей роли в принятии решений в современном обществе. Сквозной нейронный конвейер можно разделить на две основные части:

  1. Обучение нейронного классификатораЧикагская база данных лиц (CFD) использовалась для создания обучающих данных в рамках мероприятия в стиле краудсорсинга. Сотрудники практики Methods’ Emerging Technology (ET) вручную классифицировали каждое лицо в зависимости от того, считали ли они, что данный человек обладает субъективными личностными чертами, в результате чего у каждого субъекта были бинарные (да или нет) черты. Затем была обучена сверточная нейронная сеть с использованием Java-библиотеки Deeplearning4j, с использованием алгоритма оптимизации на основе стохастического градиентного спуска и функции активации на основе мультиномиальной логистической регрессии/softmax в выходном слое.
  2. Нейронная классификация с помощью приложения дополненной реальности для Android — Android-приложение Hoogsnorts Sorting Hat использует Google Vision API для автоматической идентификации людей и их лиц с помощью глубокого обучения. После идентификации Android-приложение Hoogsnorts Sorting Hat затем использует камеру устройства, чтобы сделать снимок с использованием границ, определенных Vision API. Затем это изображение отправляется в обученную сверточную нейронную сеть в режиме реального времени для расчета вероятностей для каждого субъективного признака. Вероятности агрегируются с помощью механизма подсчета очков, который затем принимает окончательное решение о том, к какому дому Hoogsnorts должен принадлежать субъект. Доступные дома: Ovendoor, Blytherin, Pandapaw и Huff ‘n Puff. Затем как предсказанные вероятности признаков, так и общая школьная классификация отправляются обратно в приложение Android и накладываются на предмет с использованием базовой дополненной реальности.

Сортировочная шляпа Methods’ Hoogsnorts

Хотя это и шутливое приложение, оно служит для того, чтобы подчеркнуть опасности и неотъемлемые недостатки искусственного интеллекта, если они неправильно спроектированы и управляются. Опасности классификации людей на основе ошибочных и предвзятых данных в равной степени относятся к повседневным сценариям, таким как подача заявки на страхование через Интернет и вытекающие из нее страховые взносы на основе субъективных признаков, открытых для дискриминации, использование камер для фотографирования людей в попытке идентифицировать преступников и расовая предвзятость, цифровая вербовка и гендерная предвзятость, а также системы рекомендаций и политическая предвзятость.

Будущее

Искусственный интеллект способен позитивно изменить общество так, как это могут сделать очень немногие технологии, и вдохновить будущие поколения своим, казалось бы, безграничным потенциалом — как показано в моих предыдущих статьях, посвященных квантовому глубокому обучению и вероятностным языкам программирования. Применение искусственного интеллекта ограничено только нашим воображением, а математика, лежащая в основе последних исследований и разработок, одновременно красива и умопомрачительна. Однако, как и со всеми подобными вещами, которые могут влиять на жизнь людей, его также можно эксплуатировать и незаконно присваивать — однако в случае искусственного интеллекта опасности столь же серьезны, даже когда намерение хорошее, через невольное увековечение и усиление предвзятости и дискриминации.

К сожалению, предвзятость и дискриминация являются образом жизни многих людей и групп людей, и так было сотни и, возможно, тысячи лет. Таким образом, хотя для искоренения того, что так глубоко укоренилось в обществе, могут потребоваться поколения, мы можем предпринять ощутимые шаги сейчас, чтобы гарантировать, что все без исключения системы, основанные на данных, которые мы разрабатываем и разрабатываем, сводят к минимуму увековечивание и усиление предубеждений. Это включает в себя разработку и внедрение с помощью эффективной политики и управления полностью прозрачных и подотчетных алгоритмов в сочетании с соблюдением этических норм, которые направлены на обязательное управление и подотчетность на каждом этапе жизненного цикла данных. Наконец, и это, пожалуй, самое главное, мы должны стремиться к увеличению разнообразия в областях математики, естественных наук, техники, технологий и философии. Улучшая разнообразие в этих областях по всей академической и профессиональной цепочке, мы позволяем всем областям общества высказывать свое мнение о будущих отношениях между людьми и искусственным интеллектом.

Первоначально опубликовано в разделе Методы.

Больше идейного лидерства

Первоначально опубликовано на https://digileaders.com 9 июля 2019 г.