«Меня беспокоит не искусственный интеллект, а человеческая глупость». - Нил Якобштейн

На протяжении десятилетий популярные СМИ предполагали возможность восстания роботов. iRobot, Star Wars, Ex Machina, Трансформеры, Терминатор и т. д., этот список можно продолжать и продолжать. Мы придерживаемся этой фантастической концепции, что когда-нибудь у роботов может быть достаточно интеллекта и силы, чтобы восстать против людей. Хотя это может произойти, может быть, через 200 или более лет, в настоящее время мы далеки от такой возможности. Черт побери, машины даже не могут правильно выполнить автозамену, не говоря уже о бунте против меня. Но это не значит, что ИИ не представляет для нас никаких проблем. Такие технологии, как искусственный интеллект и машинное обучение, несут с собой собственный набор этических проблем. Давайте вместе плыть по реке искусственного интеллекта, его нынешнего состояния и его этических проблем! Эта статья призвана быть учебником, если хотите, введением в область ответственного ИИ. В статье предполагается, что читатель уже имеет общее представление о том, что такое ИИ. Если вы хотите лучше понять, что такое ИИ (подсказка: это не просто супер-умный робот-андроид), эта вики-страница об ИИ может стать хорошим местом для начала перед чтением этой статьи.

В последнее десятилетие или около того широкая общественность внезапно осознала важность искусственного интеллекта. Это похоже на то, как если бы люди внезапно осознали, что ИИ может принести вред и принести пользу. Это породило огромное количество ложных обвинений в адрес ИИ. От людей, называющих ИИ «неэтичным», до растущего страха перед развитием ИИ, существует множество дезинформации об ИИ. Но здесь возникает проблема. Правильно понять ИИ непросто, даже я не понимаю его полностью (слишком много вычислений, вы * вздох), он слишком обширен и очень-очень быстро развивается. И одно мы знаем наверняка, из психологии и социологии, что люди часто пугаются вещей, которых они не вполне понимают. Нам нужно беспокоиться не об ИИ. Нам следует беспокоиться о неэтичном использовании ИИ. ИИ не живой и не человек. Сам по себе ИИ - это просто код, пропитанный тоннами данных и аналогичным количеством математических уравнений (вздохните, сколько математики там есть). Но в чужих руках или с неправильными намерениями этот кажущийся беспорядочным набор чисел и кода может непредвиденным образом причинить вред сообществам и слоям общества.

«Безусловно, самая большая опасность искусственного интеллекта заключается в том, что люди слишком рано приходят к выводу, что они его понимают», - Элиэзер Юдковски

Итак, правда в том, что на самом деле и технически не существует ничего, что можно было бы назвать «этическим ИИ». Но есть так называемые «этичные специалисты по ИИ». Угрозу для нас представляет не ИИ, а неизбирательное, неэтичное и безответственное использование ИИ. Ответственный ИИ - потребность времени.

Ура, мы наконец дошли до сути этой статьи! Что такое «Ответственный ИИ»? Ответственный ИИ - это любой ИИ, который используется этично и прозрачно. В идеале любой ИИ должен быть «ответственным». Но, увы, мир - жестокое и темное место, а это не так. Давайте рассмотрим здесь два ключевых слова. Этичный. Что означает этично используемый ИИ? Проще говоря, ИИ, внедренный без причинения преднамеренного / непреднамеренного вреда кому-либо, называется Этическим ИИ. А как насчет прозрачного? Прозрачный ИИ означает ИИ, который легко интерпретировать и достаточно прозрачен, чтобы его мог понять любой, а не только эксперты в этой области. ИИ, особенно нейронные сети, часто называют черным ящиком. Иногда их так усложняют, что трудно сказать, как и почему они ведут себя так, как есть. Так что для любого непрофессионала ИИ не является прозрачным, а представляет собой черный ящик, внутреннее устройство которого трудно увидеть, во многом как фабрика Санты на северном полюсе. Но с этическими проблемами, которые ставит ИИ, нам должно быть легче изучить, как работает ИИ. Следовательно, интерпретируемый и прозрачный ИИ. Эти два аспекта работают с другими аспектами, такими как эффективное управление, соответствие данных, конкуренция, ориентированная на человека, безопасность и конфиденциальность данных, а также легкая доступность (ИИ для всех), что делает ИИ «ответственным».

B-слово

В настоящее время все говорят о слове на букву ИИ. Я говорю о предвзятости (избавьтесь от ненужных мыслей). В 2019 году я прошел курс по искусственному интеллекту и этике у профессора Аянны Ховард (один из моих самых любимых классов в Gatech наряду с машинным обучением профессора Махди Рузбахани и глубоким обучением профессора Жолта Киры). В этом классе доктор Ховард сказал замечательную фразу, которую я всегда буду помнить. Она сказала (перефразируя): «Люди предвзяты, и поэтому предвзято общество. А поскольку данные собираются от общества, они являются необъективными. Затем эти данные используются для разработки технологий искусственного интеллекта, которые, очевидно, также будут предвзятыми. Данные - не что иное, как отражение нашего общества ». Эти два простых предложения так много говорят о проблеме предвзятости в ИИ.

Наши собственные предубеждения могут так легко проникнуть в ИИ. Мало того, что данные, используемые для обучения моделей, содержат в себе предубеждения, но и у людей, разрабатывающих эти модели, также есть свои собственные когнитивные предубеждения. Эти когнитивные искажения также могут проникать в ИИ.

Позвольте мне поделиться некоторыми недавними заголовками, которые показывают предвзятость ИИ:

Это лишь несколько примеров предвзятости в алгоритмическом ИИ. От сексистских алгоритмов найма, алгоритмов обнаружения расистской речи, возрастных алгоритмов страхования до расистских и гомофобных алгоритмов обнаружения лиц - есть все, что угодно. Предвзятость в алгоритмах может возникать по-разному: от предвзятых данных до предвзятых весов, до безответственности разработчика ИИ. Вступление в технические подробности предвзятости выходит за рамки этой статьи (и выходит за рамки вашего внимания к чтению), поэтому я не буду помещать это здесь. Но дело в том, что ИИ, как известно, предвзято. И эта предвзятость в искусственном мире имеет серьезные последствия в реальном мире. Предвзятость в алгоритмах привела к тому, что заслуженные люди потеряли возможности трудоустройства, доступ к равной медицинской помощи, доступ к равным ресурсам и несправедливые юридические проблемы в прошлом. Предубеждение является причиной несправедливости, и особенно это касается расовых и гендерных, сексуальных меньшинств и маргинализированных групп.

Только недавно BigTech начали понимать, что их продукты предвзяты и отрицательно сказываются на пользователях. В результате был достигнут значительный толчок в проведении исследований, направленных на снижение предвзятости в алгоритмах. Компаниям часто приходится идти на компромисс, пытаясь уменьшить предвзятость. Компромисс возникает в результате возможного снижения точности при попытке повысить справедливость модели (компромисс справедливости и точности). Организация, разрабатывающая ИИ, должна решить, что для них важнее - точность или справедливость. Однако, поскольку большая часть BigTech носит в высшей степени капиталистический характер, организации выбирают более прибыльный вариант - более высокую точность. Но так бывает не всегда.

Давай, может быть, немного подумаем, прежде чем делать что-нибудь глупое

В жизни всегда желательно подумать, прежде чем что-то делать. Подумайте о наших действиях и их последствиях. То же самое и в области искусственного интеллекта. Одним из важных, но часто упускаемых из виду аспектом Ответственного ИИ является оценка того, следует ли в первую очередь разрабатывать эту технологию ИИ. То, что вы можете это развивать, не означает, что вы должны это делать. Это очень хорошо понимаемая аксиома в таких областях, как медицина и биологические исследования. То, что вы можете клонировать гибрид шимпанзе и человека, не означает, что вы должны это делать. Но это плохо понимается в области искусственного интеллекта. Позвольте мне проиллюстрировать.

Еще 5 лет назад технология распознавания лиц была повальным увлечением. Все хотели это делать, все этого хотели. И, честно говоря, это действительно удивительный подвиг в исследовании ИИ. Хотя изначально он был разработан для обеспечения безопасности, мало кто задумывался о потенциальных проблемах, которые он может принести. Недавно мы обнаружили, что технология распознавания лиц может нанести большой вред нашему обществу. Технологии распознавания лиц принесли с собой целый ряд проблем, включая нарушения конфиденциальности, расистскую предвзятость, эмоциональное признание без согласия и экстремальное наблюдение. Можно утверждать, что недостатки перевешивают достоинства. Неудивительно, что многие технологии BigTech отозвали свои продукты, и многие исследовательские организации призвали проверить исследования, проводимые в области ИИ для распознавания лиц.

Совсем недавно я наткнулся на следующую ужасающую новость:

Теперь этот алгоритм ИИ поднимает так много этических вопросов и опасений. И это, кстати, правда. Этот ИИ может определить, является ли человек геем, с точностью до 91%, просто по фотографии. Классический пример исследования ради него, не осознавая его последствий. Очень похоже на то, как Виктор, не задумываясь, создал Франкенштейна. Наличие этого ИИ нарушает не только частную жизнь человека, но также нарушает почти все мыслимые права человека делиться тем объемом информации, который они хотели бы предоставить.

В последнее время ведутся переговоры об использовании ИИ для определения порядка лечения пациентов в больнице, исходя из имеющейся у них страховки, тяжести травмы, шансов на выживание и т. Д. Шокирует, не правда ли?

Еще один хороший пример - этика, закодированная в Самоуправляемых автомобилях. При гипотетическом столкновении с пешеходом, которое может оказаться смертельным для пешехода, если автомобиль решит спасти пассажиров, и смертельным для пассажиров, если автомобиль решит спасти пешехода, беспилотный автомобиль проявляет себя как серьезный этический фактор. дилемма. Чья жизнь дороже? Чью жизнь должна спасти машина? Кто это решает? Это может показаться довольно надуманным сценарием, но довольно пугающе, именно так сейчас программируются беспилотные автомобили. Например, новый беспилотный автомобиль Mercedes запрограммирован на постоянное спасение пассажира.

На этом этапе я чувствую, что могу повторить, что, хотя ИИ обладает огромным потенциалом, чтобы помочь человечеству и принести ему пользу, он также имеет такой же потенциал причинения вреда. Если мы хотим использовать его силу для помощи и облегчения, нам нужно использовать ее осторожно и ответственно.

«Я думаю, что опасность ИИ намного больше, чем опасность ядерных боеголовок, и никто не стал бы предлагать, чтобы мы позволяли кому-либо создавать ядерные боеголовки, если они хотят. Это было бы безумием! » - Илон Маск

У ИИ должны быть рамки и правила, которых сейчас нет. На самом деле никого нельзя винить. Исследования в области искусственного интеллекта продвигаются экспоненциально огромными темпами (я знаю, что сейчас захватывающее время быть частью этой области!), И юридические институты не в состоянии за ними поспевать. Но как пользователи и разработчики этой удивительной технологии мы несем ответственность за то, чтобы она никому не причинила вреда. Я должен настаивать на том, что идея ИИ, захватывающего человечество и порабощающего нас, довольно фанатична и на самом деле не может произойти (кроме голливудских фильмов, и давайте будем реальными, кому не нравится Уилл Смит, разбивающий bejesus из этих роботов в iRobot ). Но ИИ, причиняющий вред отдельным слоям общества, во многом из-за человеческой глупости не развить его должным образом, представляет собой реальную угрозу. Нам нужно более ответственно подходить к разработке и использованию ИИ. Только тогда можно будет использовать весь потенциал ИИ для добрых дел.

И напоследок обращение. AI на ХОРОШЕЕ. Вы, должно быть, думаете, о чем сейчас говорит Яш? Разве весь ИИ, разрабатываемый BigTech, не предназначен для помощи людям? Вы только посмотрите на Алекса! Вообще-то, нет. Большая часть исследований AI проводится для получения прибыли. Как показать клиентам больше рекламы? Как сделать эти объявления более актуальными? Как нам собрать больше данных от клиентов? Как заставить их платить больше за нашу продукцию, добавив в нее дополнительных функций? Это печальная реальность мировых исследований ИИ. Большинство исследований в области искусственного интеллекта во всем мире финансируется компаниями BigTech. А поскольку все эти компании стремятся получить прибыль (я имею в виду тех, кто не прав в этом капиталистическом обществе), большая часть исследований ИИ направлена ​​на продукты, на которые пользователи могут тратить деньги.

Но ИИ можно использовать, чтобы искренне помогать людям и улучшать условия жизни людей. Например, искусственный интеллект, разработанный для обнаружения рака. ИИ показал себя более эффективным и точным в обнаружении рака простаты и груди, чем сами врачи, и к тому же без каких-либо болезненных тестов и биопсии! Разве это не потрясающе! Или использовать ИИ для более эффективного обучения детей в областях, где образование недоступно. Или использовать ИИ для повышения доступности для всех. Это всего лишь несколько примеров. Потенциал ИИ огромен. Он уже широко распространен, используется и применяется во всех областях, от медицины до финансов и искусства. Давайте использовать потенциал ИИ не только для того, чтобы зарабатывать больше денег, но и для того, чтобы помогать людям, улучшать условия жизни людей и делать мир лучше и удобнее для жизни. (Надеюсь, я немного вдохновил вас последняя строчка. Зовите меня Тони Робинс).

Наконец, я хотел бы оставить вам это милое изображение робота и человека, соприкасающегося руками в стиле Сикстинской капеллы Михаленгало (если изображения баннера для этой статьи уже было недостаточно). Не судите меня, но я любитель подобных картинок взаимодействия человека и робота :)