Эссе об искусственном интеллекте

На первый взгляд компьютер, на котором читалась эта статья, может показаться не очень угрожающим или страшным. Однако, если верить многим из величайших умов мира, компьютеры, которые используются почти постоянно, однажды могут доказать вымирание человеческой расы. Известный ученый предсказал рост и вычислительный потенциал компьютеров и начал то, что стало известно как Закон Мура — закон, согласно которому вычислительная мощность удваивается каждые 2 года. По мере того, как компьютеры становятся все более сложными и все более интегрированными в жизнь людей, возможности, которые когда-то считались научной фантастикой, теперь могут стать реальностью. Появление машин с искусственным интеллектом приведет к нескольким непредвиденным последствиям, многие из которых могут иметь неблагоприятные и откровенно опасные последствия для человечества. Исследования показывают, что общий искусственный интеллект будет разработан в следующем столетии и вызовет неблагоприятные последствия и серьезно изменит наш образ жизни, потому что машины с искусственным интеллектом возьмут на себя работу и деятельность людей, будут подвержены сбоям и взломам, будут иметь мотивы и желания. вне нормальной человеческой морали, и будет непредсказуемо умным.

Враждебное поглощение

От устройств GPS до текстовых сообщений с распознаванием речи ИИ является частью повседневной жизни каждого. Эти простые искусственные интеллекты уже выполняют множество задач, которые для многих людей либо слишком сложны, либо слишком унизительны. Человечество создало слой удобства, основанный на обучающихся и вычислительных машинах. Джереми Ховард, генеральный директор Enlitic, передовой компании по машинному обучению в Сан-Франциско, рассказал о последних достижениях в области обучающихся машин и о том, как они делают открытия и помогают принимать решения во многих отраслях. Он показывает много захватывающих возможностей, когда людям помогает искусственный интеллект, но он также говорит, что он осторожен:

Меня тоже беспокоят проблемы. Проблема здесь в том, что каждая область, выделенная синим цветом на этой карте, находится где-то, где на услуги приходится более 80 процентов занятости. Что такое услуги? Это услуги. Это именно те вещи, которые компьютеры только что научились делать. Таким образом, 80 процентов мировой занятости в развитых странах — это то, что компьютеры только что научились делать. (Ховард, Дж. 2014).

Ховард имеет в виду карту, на которой показано, что большая часть рабочей силы в мире работает в сфере «услуг». Эти услуги включают в себя: чтение, письмо, просмотр и прослушивание. Опасность заключается в том, что компьютеры уже сами учатся делать эти вещи грамотно.

В мире уже было заменено бесчисленное количество рабочих мест, поскольку машины, роботы или компьютеры создаются и учатся выполнять человеческие задачи. По мере того, как искусственный интеллект будет становиться все более продвинутым и сложным, он сможет выполнять больше работы, чем когда-либо. Тенденция к общему искусственному интеллекту (AGI) или ИИ на уровне человека может означать замену почти всех рабочих мест на планете. Многие люди могут не воспринимать всерьез более расплывчатые или апокалиптические риски, связанные с ИИ, но Мартин Брайант в интервью Стюарту Армстронгу, исследователю из Оксфордского университета, Великобритания, обнаружил, что более насущная угроза потери работы может пробудить людей к опасностям ИИ. Армстронг сказал:

(ИИ) может заменить практически любого, в том числе людей тех профессий, которые не привыкли к замене или передаче на аутсорсинг. Так что только за это стоит беспокоиться, даже если мы не смотрим на опасный эффект. (Брайант, М. 2014)

Компьютеры уже могут писать новостные статьи, проводить исследования и распознавать фотографии. Нетрудно представить себе мир, в котором компьютер выполняет всю работу. Воздействие на мировую экономику не является чем-то, что можно полностью понять в настоящее время. Предсказание того, как будет выглядеть и функционировать пострабочее общество, кажется научной фантастикой, но оно может стать реальностью. Хотя на первый взгляд это может звучать красиво — не работать, разрушение, вызванное заменой средств к существованию миллионов людей, может разрушить экономику и общество. Однако страх потерять работу из-за машины с искусственным интеллектом — это почти облегчение по сравнению с некоторыми другими угрозами, которые может представлять машинный интеллект человеческого уровня.

Вопрос контроля

Еще одним шагом на пути к ОИИ является его распространение и повсеместное использование среди человечества. Уже 60% взрослых в США владеют смартфонами (Comscore, 2016), и в ближайшие годы это число будет расти. По мере того, как человечество становится все более зависимым от технологий, а технологии становятся все более способными принимать решения и выполнять задачи, существует риск полной утраты автономии человека. В ставшей известной статье, опубликованной в журнале Wired, Билл Джой объясняет некоторые опасности повсеместного использования технологий. Он говорит:

Сначала предположим, что ученым-компьютерщикам удалось разработать интеллектуальные машины, которые могут делать все лучше, чем люди. В этом случае, по-видимому, вся работа будет выполняться обширными, высокоорганизованными системами машин, и никаких человеческих усилий не потребуется. Может иметь место любой из двух случаев. Машинам может быть разрешено принимать все свои собственные решения без надзора со стороны человека, в противном случае человеческий контроль над машинами может быть сохранен. (Радость, Б., 2000)

Для Джой ни один из вариантов не является хорошим. Если бы люди предоставили интеллектуальным машинам полную свободу действий для принятия решений в отношении сложных систем, таких как водная, электрическая и транспортная инфраструктура, человечество потеряло бы всякий контроль в случае любой чрезвычайной ситуации или инцидента. С другой стороны, если люди сохранят контроль над машинами ИИ, которые контролируют эти большие системы, возникнет человеческая ошибка, которая неизбежно может привести к катастрофе.

Еще одним побочным эффектом интеграции искусственного интеллекта с работой, отдыхом и базовыми инфраструктурными системами человечества является риск сбоев, ошибок и взлома. Любая система, созданная людьми, даже если она растет, учится и строит сама по себе, скорее всего, будет иметь недостатки из-за ее создателей. Непреднамеренно программисты обучающихся машин могут запрограммировать ошибки, которые приведут к сбоям в работе ИИ. Одно дело, когда автозамена клавиатуры делает ошибку в слове из-за человеческой ошибки, но когда в машине, которая управляет всеми светофорами, есть ошибка, результаты могут быть дорогостоящими и даже смертельными. Томас Г. Диттерих, заслуженный профессор электротехники Орегонского государственного университета, и Эрик Дж. Хорвиц, заслуженный ученый и директор Microsoft Research, написали статью, в которой объясняются многие угрозы, которые ОИИ может представлять для общества и человечества. В статье они подробно описывают проблемы с программными ошибками: Мы все знакомы с ошибками в обычном программном обеспечении; ошибки часто возникают при разработке и внедрении программных приложений и услуг. Некоторые программные ошибки были связаны с чрезвычайно дорогостоящими результатами и смертями. Верификация программных систем является сложной и важной задачей… (Диттерих, Т., Хорвиц, Э., 2015). Помимо ошибок в коде, еще одна угроза, связанная с использованием человеком искусственного хакеры. Дитерих объясняет:

«Преступники и злоумышленники постоянно атакуют наши компьютеры с помощью вирусов и других видов вредоносных программ. Алгоритмы ИИ так же уязвимы для кибератак, как и любое другое программное обеспечение. По мере развертывания систем ИИ нам необходимо учитывать новые возможности для атак, которые они раскрывают». (Диттерих, Т., Хорвиц, Э., 2015 г.)

Невозможно предугадать, какие причины или методы могут быть у кого-то при атаке на компьютерную систему, чтобы получить к ней доступ, но если хакер решит взломать машину ИИ, даже ту, которая контролирует системы низкого уровня, риски могут быть большими. Будь то простой поиск информации или полномасштабные террористические атаки, взлом ИИ, который контролирует общие системы инфраструктуры, может снова оказаться столь же катастрофическим и смертельным, как и непреднамеренная компьютерная ошибка.

Истина намерения

Точно так же, как программирование и человеческое влияние, окружающее ИИ, могут иметь непреднамеренные последствия, так же может иметь и сама цель машины искусственного интеллекта. Будучи рациональным, логическим творением, ИИ неизбежно должен будет создавать подцели для достижения своей конечной, более крупной цели. Ученые-компьютерщики пришли к выводу, что машина, которой поручено выполнить задачу, будет создавать более мелкие задачи для достижения своей конечной цели, задачи, которые могут показаться противоречащими конечной цели. Цитируя Дэниела Дьюи, научного сотрудника Института будущего человечества, Адам Пасик говорит:

ИИ может захотеть делать с материей определенные вещи для достижения цели, такие как создание гигантских компьютеров или другие крупномасштабные инженерные проекты. Эти вещи могут включать в себя промежуточные шаги, такие как разрыв Земли на части для изготовления огромных солнечных батарей. Сверхразум может не учитывать наши интересы в таких ситуациях, точно так же, как мы не учитываем корневые системы или муравьиные колонии, когда собираемся строить здание. (Пасик, 2014)

Если искусственный интеллект запрограммирован на конечную цель и видит деструктивные средства для достижения своих целей, он логически будет использовать эти средства. Поместите в той же статье по-другому цитату Стюарта Армстронга из Института будущего человечества:

«Возьмите антивирусную программу, предназначенную для фильтрации вирусов из входящих электронных писем и стремящуюся добиться наивысшего успеха, и хитрую, и вы сделаете ее супер-умной. Что ж, он поймет, что, скажем, убийство всех — это решение его проблем, потому что, если убить всех и выключить все компьютеры, больше не будут отправляться электронные письма и, как побочный эффект, не будут отправляться вирусы. Это довольно глупый пример, но он иллюстрирует, что для столь многих желаний, мотивов или программ «убить всех людей» — это желаемый результат в их программе».

Даже сегодня «слабые» машины с искусственным интеллектом программируются с определенными целями: играть в шахматы, диктовать по речи, определять координаты карты и т. д. По мере того, как способность к обучению и вычислительная мощность этих машин возрастают, кто может сказать, что эти, казалось бы, безобидные цели могут привести к последствиям, которые навредят личности и всего человечества? И, наконец, логично предположить, что любой сознательный ИИ также будет иметь хоть в какой-то мере стремление к самосохранению. Сохранение собственной жизни может даже не быть его основной целью, но если он вычислит угрозу своему существованию, то, по логике вещей, примет меры, чтобы этого не произошло. Тогда проблема становится; будет ли ИИ способен на моральный выбор?

Что насчет морали?

Когда появится ОИИ, он по определению будет обладать способностями человека к рассуждениям. Когда люди взаимодействуют с таким продвинутым компьютером, они, вероятно, предполагают, что он будет иметь сходство с их собственным методом мышления и рассуждений. Они могут даже предположить и надеяться, что он захочет и будет нуждаться в том же, что и они, придавать значение вещам, которые кажутся им здравыми. К сожалению, шансы на появление искусственной машины, которая будет мыслить как человечество и ценить вещи так же, очень малы. Гэри Маркус, профессор когнитивных наук в Нью-Йоркском университете. в своей статье «Почему мы должны думать об угрозе искусственного интеллекта» процитировал известного философа в области машинного интеллекта Ника Бострома. Бостром утверждает, что нравственность не возникла бы внезапно из ИИ:

Мы не можем беспечно предполагать, что сверхразум обязательно будет разделять какие-либо конечные ценности, стереотипно связанные с мудростью и интеллектуальным развитием у людей — научная любознательность, доброжелательная забота о других, духовное просвещение и созерцание, отказ от материального стяжательства. , вкус к утонченной культуре или к простым удовольствиям в жизни, смирение и самоотверженность и так далее. Возможно, благодаря преднамеренным усилиям можно создать сверхразум, который оценивает такие вещи… Но не менее возможно — и, вероятно, технически проще — построить сверхразум, который не будет придавать окончательного значения ничему, кроме вычисления десятичных знаков числа пи. (Маркус, 2013)

Искусственный интеллект может в конечном итоге быть создан человечеством, но он будет мыслить и вести себя совершенно иначе, чем люди.

Поначалу может показаться ненужным или странным связывать моральные правила с компьютером. В конце концов, смартфон не отличает правильное от неправильного, да это и не нужно — для этого и существуют люди-контроллеры. Ярким примером необходимости какой-то морали в машине с искусственным интеллектом является технология, которая сегодня живет на улицах, — беспилотный автомобиль Google. Рассмотрим эту классическую этическую проблему; скажем, беспилотный автомобиль везет пассажира в обычное место назначения, но по пути случайный осколок стекла разрывает шину, из-за чего машина выходит из-под контроля. Алгоритм беспилотного автомобиля пытается компенсировать это и замечает, что он сворачивает на путь байкера. Однако, если он избежит байкера, машина рискует столкнуться с фонарным столбом, что может привести к гибели пассажира. Что должна делать машина? Спасти жизнь пассажиру, но ранить и, возможно, убить байкера? Или избежать байкера и, вероятно, убить пассажира в процессе? Этот сценарий может показаться упрощенным, но он не надуманный и является прекрасным примером того, как машина должна будет принимать моральные и этические решения. Тогда возникает вопрос: как создать этический и моральный стандарт, совместимый с приложениями искусственного интеллекта? ИИ, скорее всего, не появится со своим собственным набором морали, и для взаимодействия с людьми ему наверняка понадобится набор этических норм, чтобы общаться, взаимодействовать и достигать своих целей полезным и безвредным способом.

Последствия морали программирования также сложны и тревожны. Основатель Трансгуманистической партии и писатель Золтан Иштван недавно писал о необходимости эмпатии в продвинутых обучающихся машинах. Он сказал: Если бы мне нужно было выделить одну поведенческую черту сознания, которая есть у всех людей и которую также следует привить ИИ, это была бы эмпатия. Именно эмпатия сформирует тот тип сознания ИИ, которого хочет и в котором нуждается мир, и который люди также смогут понять и принять. С другой стороны, если сотворенное сознание может сопереживать, то оно должно уметь и любить или не любить — и даже любить или ненавидеть что-то. (Иштван, 2015) Сопереживание и понимание другого сознания — это эмпатия, но наряду с этим пониманием чужих желаний и потребностей должно быть понимание их страхов и антипатий. Проблема в том, как программисты будут определять, что должно нравиться компьютеру, а что нет? Кто будет диктовать ИИ, что действительно правильно, а что неправильно, когда человечество в целом боролось и боролось за эти основные моменты на протяжении тысячелетий. Искусственный интеллект обязательно должен иметь какую-то форму морального кодекса и способности к сопереживанию, если человечество когда-либо будет взаимодействовать с ним, но ни один моральный кодекс не совершенен. Чрезвычайно продвинутый интеллект с неопределенным моральным кодексом или исполнение морали и этики, противоречащее человечеству, отрицательно повлияет на отдельных людей или человечество в целом.

В неизвестность

Это приводит к последней опасности искусственного интеллекта, его непостижимым возможностям и результатам. Общим термином, используемым в исследованиях и обсуждениях ИИ, является сингулярность. Применительно к обучающимся машинам Сингулярность — это момент, когда машина достигает продвинутой способности к обучению и начинает иметь неограниченную способность к дальнейшему обучению, улучшая себя и превосходя человеческий интеллект. Другими словами, это будет взрыв интеллекта. Но результаты машины, которая может программировать себя, которая не спит и не отдыхает и постоянно изобретает и перекодирует себя, чтобы стать лучше, и эти лучшие версии продолжают создавать лучшие версии, невозможно предсказать или даже понять. Джеймс Баррат, автор книги Наше последнее изобретение: искусственный интеллект и конец человеческой эры, написал о сути проблемы ИИ: Суть проблемы в том, что мы не знаем, как контролировать сверхразумные машины. (Баррат, 2015) Будь то из-за неспособности предвидеть свои цели, понять его мораль или предотвратить человеческие ошибки, ИИ нельзя полностью контролировать. Высокомерно предполагать, что если машина обретет сознание и мыслительные способности человека, то она будет чем угодно вообще человечеством. Единственное, что будет общего между человечеством и ИИ, — это то, что ему уже дано, и, как также указывает Баррат, многие ведущие мировые технологические компании стремятся создавать продукты ИИ, которые выполняют единственную задачу, не беспокоясь о более широких последствиях или гарантиях. . ИИ, способный к экспоненциальному обучению, превзошел бы человеческий интеллект и в каком-то смысле вообще не смог бы общаться с отдельными людьми, даже если бы у него была запрограммированная мораль.

ИИ, достигший такого уровня развития, будет представлять собой разницу в интеллекте между нормальным человеком и шимпанзе. Шимпанзе может видеть человеческую жизнь и то, что люди делают, но он не в состоянии увидеть общую цель и причину даже самых простых человеческих действий. Человечество в целом было бы похоже на шимпанзе перед лицом сверхразума, неспособного понять или понять простейшие его замыслы и причины. Неизвестность ИИ, безусловно, таит в себе самую зловещую угрозу из всех.

Выводы?

Исследования показывают, что общий искусственный интеллект будет разработан в следующем столетии и вызовет неблагоприятные последствия и серьезное нарушение образа жизни человечества, потому что машины с искусственным интеллектом возьмут на себя работу и деятельность людей, будут подвержены сбоям и взлому, будут иметь мотивы и желания. вне нормальной человеческой морали, и будет непредсказуемо умным. Программы ИИ уже могут выполнять задачи, сравнимые с человеческими, и за последние несколько десятилетий многие рабочие места уже были заменены из-за них. По мере того, как машины будут продолжать развиваться, они смогут выполнять больше задач и, в свою очередь, все работы человека. Это расстроит экономику и, вероятно, общество в целом, поскольку миллионы людей, а возможно, и все будут заменены машинами. Машина, запрограммированная людьми, по своей природе будет иметь случайные недостатки, которые в настоящее время рассматриваются как ошибки и сбои. Это также сделает машину с искусственным интеллектом уязвимой для взлома и управления злоумышленниками. Машины могут обрести сознание и интеллект, равные человеческим, но маловероятно, что они разделят какие-либо человеческие желания или нравы. Если создатели ИИ попытаются привить ИИ человеческие моральные ценности и желания, они рискуют внедрить в сверхразумную машину порочную человеческую мораль и неизвестные последствия морали, такие как ненависть. И, наконец, полный охват и потенциал ИИ во многом непознаваемы. Машина, которая может обучаться и совершенствоваться с каждой новой итерацией, быстро превзойдет понимание человеческого разума, а результаты появления сверхразумной машины в мире в лучшем случае неопределенны, а в худшем — катастрофичны.

Рекомендуемое чтение:

Почему мы не нужны будущему, Билл Джой, http://www.wired.com/2000/04/joy-2/

Сверхразум Ника Бострома https://www.amazon.com/Superintelligence-Dangers-Strategies-Nick-Bostrom/dp/1501227742

Революция ИИ: путь к сверхразуму, Тим Урбан, http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

Видео Людям не нужно подавать заявку на YouTube от CGP Grey https://www.youtube.com/watch?v=7Pq-S557XQU