Проблемы искусственного интеллекта

В последнее время я замечаю некоторое беспокойство по поводу искусственного интеллекта (ИИ), в частности, опасения по поводу ИИ и возможности того, что он представляет собой величайшую экзистенциальную угрозу для человечества. Эти опасения исходили не от сумасшедших провозвестников судного дня, а от очень выдающихся интеллектуальных фигур, таких как известный физик-теоретик, космолог, предприниматель космической эры и основатель индустрии персональных компьютеров. Трудно не волноваться, когда обеспокоены такие видные, технически подкованные люди, как Стивен Хокинг, Илон Маск и Билл Гейтс.

Многие люди, работающие в области ИИ, считают, что до искусственного интеллекта человеческого уровня, который иногда называют сингулярностью, осталось всего два-три десятилетия. [1] Также распространено мнение, что в соответствии с законом Мура сингулярность может быть достиг раньше, чем ожидалось. Некоторые предсказывают, что мы увидим системы ИИ, которые начнут самовоспроизводиться и обновлять свои собственные системы. В конечном итоге он достигнет этой истинной системы глубокого искусственного интеллекта, которая может учиться сама по себе, иметь автономные чувства и осознавать себя, как человеческое сознание. [2] Большая часть волнений была вызвана полем «глубокое обучение или машинное обучение, при котором компьютеры учатся задачам, обрабатывая большие наборы данных, и вызывает крайние опасения [3].

Текущие проблемы

Некоторые из опасений включают опасность того, что искусственный интеллект может обогнать людей. Хокинг объяснил это в интервью BBC. [4]

«Примитивные формы искусственного интеллекта, которые у нас уже есть, оказались очень полезными. Но я думаю, что создание полноценного искусственного интеллекта может означать конец человечества. Как только люди разовьют искусственный интеллект, он будет развиваться сам по себе и постоянно меняться. Люди, ограниченные медленной биологической эволюцией, не смогут конкурировать и будут вытеснены ».

Маск также разделяет подобные опасения и сказал, что

Я считаю, что мы должны быть очень осторожны с искусственным интеллектом. Если бы я угадал, какова наша самая большая экзистенциальная угроза, возможно, так оно и было. Поэтому нам нужно быть очень осторожными с искусственным интеллектом. Все чаще ученые думают, что необходим некоторый надзор со стороны регулирующих органов, возможно, на национальном и международном уровне, просто чтобы убедиться, что мы не делаем чего-то очень глупого. С помощью искусственного интеллекта мы вызываем демона. Во всех этих историях, где есть парень с пентаграммой и святой водой, похоже, что да, он уверен, что может управлять демоном. Не вышло . [ 5 ]

Маск недавно пообещал выделить 10 миллионов долларов Институту будущего жизни для финансирования исследовательских грантов, изучающих потенциально негативные последствия. И Маск, и Хокинг, а также другие группы ученых и предпринимателей подписали открытое письмо, в котором обещают, что исследования ИИ принесут пользу человечеству. В письме содержится предупреждение, что без защиты интеллектуальных машин человечество может отправиться в темное будущее. В документе, подготовленном Институтом будущего жизни, говорится, что ученые должны стремиться предотвращать риски, которые могут уничтожить человечество. [6]

Гейтс заявил, что не верит, что ИИ принесет проблемы в ближайшем будущем, однако есть основания для беспокойства.

Я нахожусь в лагере, который обеспокоен сверхразумом, - написал Гейтс. Во-первых, машины будут делать за нас много работы и не будут сверхразумными. Это должно быть положительным моментом, если мы справимся. Через несколько десятилетий после этого интеллект достаточно силен, чтобы вызывать беспокойство. Я согласен с Илоном Маском и некоторыми другими в этом вопросе и не понимаю, почему некоторых людей это не волнует [ 5 ]

Мысли

Я всегда думал, что если искусственный интеллект или даже люди достигнут этого уровня суперинтеллекта, я надеюсь, что этот интеллект не будет сведен к животным, примитивным действиям по избавлению от тех, кого мы считали ниже нас, ради выживания. Если бы это действие рассматривалось как форма разума, а я считаю, что это наоборот, тогда люди уже уничтожили бы все другие виды в этом мире. Однако мы знаем, что существование других организмов, независимо от того, полагаем ли мы, что они обладают более низкими умственными способностями по сравнению с нашими, приносит нам пользу. Мы знаем, что нарушение жизни определенного вида, в свою очередь, нарушает нашу сложную экосистему и, как следствие, влияет на наше существование. Кроме того, мы знаем, что когда мы вступаем в войну, мы приносим больше потерь, чем прибыли. Значительные потери как человеческих, так и технологических ресурсов, и это оставляет шрам в человеческой психике, который порождает недоверие, паранойю и препятствует росту и прогрессу.

Я согласен с мнением автора Эдит Кобб о том, что «в самой человеческой биологии заложена сила, которая даже более мощная, чем классическая дарвиновская идея самовоспроизведения. Она пишет, что

потребность в расширении себя во времени и пространстве - потребность творить, чтобы жить, дышать и быть - действительно предшествует, по необходимости превосходит потребность в самовоспроизведении как функции личного выживания »[7]. ]

Если бы ИИ убил наш вид, а затем мигрировал на другую планету или вселенную, действуя как паразит и уничтожая все другие организмы, с которыми он сталкивается, это было бы бесплодным усилием, которое в конечном итоге привело бы к их гибели, поскольку другие организмы ответили бы. Более совершенной и разумной идеей было бы одобрение сотрудничества, поскольку оно формирует сплоченность. Как показано в «Око за око», стратегии теории игр для решения повторяющейся дилеммы заключенного, сотрудничество оказывается наиболее устойчивой в эволюции стратегией [8]. Можно было бы надеяться, что любой сверхразум пришел к такому выводу. Разве исследование тайны существования и открытие новых смысловых областей не является более благородным занятием, чем просто потреблять и существовать?

Прогресс может быть достигнут только путем биологического и искусственного сотрудничества. ИИ всегда будут нуждаться в людях, а они существуют только благодаря человеческому опыту и воспоминаниям. Текущий ИИ построен на системах, которые собирают огромное количество данных, собранных на основе человеческого опыта. У этих данных есть процедура быстрого поиска, в которой есть алгоритмы для анализа и обнаружения определенных вещей в этих данных. Примером этого является Deep Blue, известный как первая часть ИИ. Deep Blue - это компьютер для игры в шахматы, разработанный IBM, и он был первым ИИ, выигравшим и в шахматной партии, и в шахматном матче против действующего чемпиона мира при обычном контроле времени. Deep Blue преуспел в этом, поскольку его база данных содержала 50 стратегий планирования гроссмейстеров, 700 000 партий гроссмейстеров и имела возможность оценивать 200 миллионов позиций в секунду, что, очевидно, быстрее, чем то, что может обработать средний человек. Однако Deep Blue могла достичь этого только благодаря существованию тех стратегий планирования великих мастеров, которые возможны только благодаря человеческому опыту. [9]

Другой пример - победитель конкурса Jeopardy Watson, компьютерная система с искусственным интеллектом, способная отвечать на вопросы на естественном языке. Watson - это большие данные. Речь идет о приеме огромного количества информации по конкретным предметам и о предоставлении пользователю возможности запрашивать данные для поиска закономерностей и помощи в постановке диагноза ''. В настоящее время Watson проходит тестирование, чтобы помочь врачам быстрее и точнее ставить диагнозы, и его библиотека состоит из 23 миллионов медицинских статей в Национальной медицинской библиотеке. [10] Однако диагнозы Ватсона достижимы только благодаря прошлым достижениям практикующих врачей, составляющих эту библиотеку.

Deep Blue и Watson - это примеры систем, которые просто накапливают понимание, достигнутое людьми, и используют грубую силу для быстрого и всестороннего анализа, чтобы обнаружить определенные вещи в этих данных. Есть споры о том, что машины близки к достижению человеческого интеллекта и человеческого сознания. В конечном итоге они получат возможность получать человеческий опыт. Тем не менее, у меня есть сомнения, так как сегодняшний ИИ создает подобие интеллекта посредством грубой силы обработки чисел, без какого-либо особого интереса в приближении того, как разум наделяет людей автономией, интересами и желаниями. У компьютеров пока нет ничего близкого к широкой и гибкой способности делать выводы, судить и принимать решения, которые связаны с интеллектом в общепринятом человеческом смысле [ 11 ]. Уловить природу человеческого интеллекта - колоссальная проблема. Недостаточно создать нейронную сеть, моделировать мозг и надеяться, что может появиться какое-то разумное поведение. Как красиво изображает Гэри Маркус,

Биология не так изящна, как кажется физике. Живой мир изобилует разнообразием и непредсказуемой сложностью, потому что биология является продуктом исторических случайностей, когда виды решают проблемы на основе случайностей, которые ведут их по одному эволюционному пути, а не по другому [ 12 ]

Человеческое поведение и интеллект, а также то, как они возникают, очень сложны и формируются как в результате эволюционной непредсказуемости природы, так и в результате воспитания. Просто трудно поверить, что системы, использующие грубую силу для обработки больших наборов данных, можно сравнить с воплощением этой биологической сложности.

Я согласен с Ноамом Хомски в его речи о составах группы Singularity в том, что в мире есть гораздо более насущные проблемы, чем появление Singularity. Хомский утверждает: Технологическая особенность Рэя (Рэя Крузвейла) - это научная фантастика. Я не вижу особых причин верить в это. Нам следует больше беспокоиться о гибели нашего вида. Мы очень заняты тем, чтобы уничтожить возможность достойного выживания. Я думаю, нам следует об этом беспокоиться . [ 13 ] Хомский утверждает, что мы должны больше беспокоиться о разрушении климата, которое мы проводим. Маск также подчеркивает, что наша нефтесодержащая углеродоемкая экономика создает« сумасшедший химический эксперимент в атмосфере с вероятными катастрофическими последствиями. [ 14 ] Если мы не найдем решения проблемы сжигания нефти для транспорта, когда тогда у нас закончится нефть, экономика рухнет, и обществу придет конец [ 15 ] По мере того, как мы становимся более технологически интенсивными, будет возрастать потребность в энергии. Наши нынешние источники энергии неустойчивы, поэтому следует уделять больше внимания поиску и использованию возобновляемых источников энергии.

Еще одна насущная проблема заключается в том, что нынешний экономический климат порождает антиутопию социально неустойчивого неравенства. Прежде чем мы дойдем до стадии истинно глубоких систем искусственного интеллекта, наступит момент, когда мы сможем автоматизировать высоко когнитивные и нестандартные задачи. Как Мартин Форд заявляет в своей книге «Восстание роботов», что рабочие места для белых воротничков находятся под угрозой, и утверждает, что нас ждет безрадостное будущее, связанное с безработицей, если мы не предпримем никаких действий. Когнитивные вычисления и генетическое программирование скоро сделают даже для самых динамичных белых воротничков то же самое, что роботы делают с мужчинами и женщинами на конвейере. По словам Форда, ситуация ухудшается. «Действительно, поскольку рабочие места, основанные на знаниях, могут быть автоматизированы с использованием только программного обеспечения, эти должности во многих случаях могут оказаться более уязвимыми, чем рабочие места с низким уровнем квалификации, связанные с физическими манипуляциями» [16]. Эта автоматизация вытеснит значительное количество тех и других. "синих" и "белых воротничков" и приведет к неравенству доходов и нарушению общественного порядка. Никто не будет застрахован от этой трудовой реальности, и, следовательно, должны быть инициативы для подготовки и решения этой проблемы. Было предложено принять гарантированный базовый доход, при котором каждый член общества имеет право на универсальный базовый доход.

Хотя я придерживаюсь того же скептического взгляда, что и Хомский, в отношении сингулярности и гораздо более оптимистичного взгляда на ИИ по сравнению с техно-элитой, я все же считаю, что должны быть приняты меры предосторожности. Как справедливо заявляет Энтони Винг Коснер, мы должны больше беспокоиться о мотивах мошенников, которые могут злоупотреблять этими технологиями, чем о мошеннических возможностях самих продуктов этих технологий [17]. жизнь сама по себе, и она может нанести большой вред, если ее не устроить справедливо.

Библиография

1. Аткинс, Дэвид. «Если Билл Гейтс, Илон Маск и Стивен Хокинг беспокоятся, разве вам не стоит беспокоиться?» Ежемесячный журнал Вашингтона. The Washington Monthly, 8 февраля 2015 г. Интернет. 26 мая 2015 года. ‹Http://www.washingtonmonthly.com/political-animal-a/2015_02/if_bill_gates_elon_musk_and_st054073.php›.

2. Кейси, Майкл. «Может быть, искусственный интеллект в конце концов нас не уничтожит». CBSNews. CBS Interactive, 14 мая 2015 г. Интернет. 26 мая 2015 г. ‹http://www.cbsnews.com/news/maybe-artificial-intelligence-wont-destroy-us/›.

3. «Восстание машин». Экономист. Газета The Economist, 9 мая 2015 г. Интернет. 26 мая 2015 г. ‹http://www.economist.com/news/briefing/21650526-artificial-intelligence-scares-peopleexcessively-so-rise-machines?fsrc=rss›.

4. Селлан-Джонс, Рори. Стивен Хокинг предупреждает, что искусственный интеллект может положить конец человечеству - BBC News. Новости BBC. BBC News, 2 декабря 2014 г. Интернет. 26 мая 2015 г. ‹ http://www.bbc.com/news/technology-30290540 ›.

5. Кохли, Сонали. «Билл Гейтс присоединяется к Илону Маску и Стивену Хокингу в заявлении о том, что искусственный интеллект - это страшно». Кварц. Quartz, 29 января 2015 г. Web. 26 мая 2015 г. ‹http://qz.com/335768/bill-gates-joins-elon-musk-and-stephen-hawking-in-saying-artificial-intelligence-is-scary/›.

6. Золфагарифард, Элли. «Ньюскрон». Newscron. Daily Mail, 13 января 2015 г. Интернет. 26 мая 2015 г. ‹http://app.newscron.com/render/3110399/363301627#.VVh2LvmqpBc›.

7. Рифкин, Джереми. Эмпатическая цивилизация: гонка к глобальному сознанию в мире в условиях кризиса. Нью-Йорк: Дж. П. Тарчер / Пингвин, 2009. Печать.

8. Докинз, Ричард. Издание "Эгоистичный ген" к 30-летию. Оксфорд: Оксфорд, Великобритания, 2006. Печать.

9. «Deep Blue (шахматный компьютер)». Википедия. Фонд Викимедиа, 4 марта 2015 г. Интернет. 26 мая 2015 г. ‹http://en.wikipedia.org/wiki/Deep_Blue_ (Chess_computer)›.

10. Пизани, Боб. «Спустя 3 года после« опасности »IBM Watson становится серьезным». CNBC. CNBC, 8 октября 2014 г. Web. 26 мая 2015 г. ‹http://www.cnbc.com/id/102069981›.

11. «Эра искусственного интеллекта». Экономист. Газета The Economist, 9 мая 2015 г. Интернет. 26 мая 2015 г. ‹http://www.economist.com/news/leaders/21650543-powerful-computers-will-reshape-humanitys-future-how-ensure-promise-outweighs›.

12. Маркус, Гэри. «Проблема с наукой о мозге». Нью-Йорк Таймс. The New York Times, 11 июля 2014 года. Интернет. 26 мая 2015 года. ‹Http://www.nytimes.com/2014/07/12/opinion/the-trouble-with-brain-science.html?_r=0›.

13. Данайлов, Никола. «Ноам Хомский о сингулярности 1 на 1: сингулярность - это научная фантастика!» Журнал Singularity. Журнал Singularity, 4 октября 2013 г., Web. 26 мая 2015 г. ‹https://www.singularityweblog.com/noam-chomsky-the-singularity-is-science-fiction/›.

14. Ван Диггелен, Элисон. «Илон Маск: Об Обаме, изменении климата и правительственном регулировании (стенограмма)». Свежие диалоги. Свежие диалоги, 11 фев. 2013. Интернет. 26 мая 2015 г. ‹http://www.freshdialogues.com/2013/02/11/elon-musk-on-obama-climate-change-government-regulation/›.

15. Кэблер, Джейсон. Материнская плата Илона Маска: сжигание ископаемого топлива - это «самый глупый эксперимент в истории». Материнская плата, 26 марта 2015 г. Web. 26 мая 2015 г. ‹http://motherboard.vice.com/read/elon-musk-burning-fossil-fuels-is-the-dumbest-experiment-in-history-by-far›.

16. Форд, Мартин. Восстание роботов: технологии и угроза безработицы в будущем. Нью-Йорк, 2015. Печать.

17. Вин Коснер, Энтони. «Что на самом деле пугает технических лидеров в искусственном интеллекте?» Forbes. Журнал Forbes, 20 апреля 2015 г. Интернет. 26 мая 2015 года. ‹Http://www.forbes.com/sites/anthonykosner/2015/04/20/what-really-scares-tech-leaders-about-artificial-intelligence/›.

18. Мур, Трент. «Посмотрите трейлер этого нового Ex Machina, который будет сопровождать расширенный выпуск». Blastr. Blastr, 22 апреля 2015 г. Web. 26 мая 2015 г. ‹http://www.blastr.com/2015-4-22/check-out-new-ex-machina-trailer-go-along-expanded-release›.

19. Анжелика, Амара Д. «KurzweilAI | Ускорение интеллекта ». KurzweilAI Как работает Watson. Беседа с Эриком Брауном, менеджер по исследованиям IBM, Комментарии. Информационный бюллетень Kurzweil Accelerating Intelligence, 31 января 2011 г. Интернет. 26 мая 2015 г. ‹http://www.kurzweilai.net/how-watson-works-a-conversation-with-eric-brown-ibm-research-manager›.