Мысли и теория

Искусственное сознание невозможно

Сознательные машины - это основные составляющие научной фантастики, которые часто воспринимаются как должное как статьи будущего факта, но это невозможно.

Эта статья - попытка объяснить, почему заветная фикция сознательных машин невозможна. Сам процесс проектирования аппаратного и программного обеспечения - это передача импульса как продолжение дизайнеров, а не вливание сознательной воли. Вторая половина статьи посвящена рассмотрению контраргументов. Наконец, перечислены некоторые последствия заглавного тезиса.

Интеллект против сознания

Интеллект - это способность сущности выполнять задачи, в то время как сознание относится к наличию субъективного явления.

Интеллект [1]:

«… Способность применять знания для управления окружающей средой»

Сознание [2]:

«Когда я нахожусь в сознательном психическом состоянии, для меня это похоже на пребывание в этом состоянии с субъективной точки зрения или точки зрения от первого лица».

Требования сознания

Сознательная сущность, то есть разум, должна обладать:

1. Преднамеренность [3]:

«Интенциональность - это способность разума воспринимать, представлять или обозначать вещи, свойства и положения дел».

Обратите внимание, что это не просто символическое представление.

2. Квалиа [4]:

«… Интроспективно доступные, феноменальные аспекты нашей ментальной жизни. В этом широком смысле слова трудно отрицать существование квалиа ».

Значение и символы

Значение - это мысленная связь между чем-то (конкретным или абстрактным) и сознательным опытом. Философы разума описывают силу разума, которая делает эти связи интенциональными. Символы имеют значение только для сущностей, которые установили связь между своим сознательным опытом и символами.

Китайская комната в новом обновлении

Китайская комната - это философский аргумент и мысленный эксперимент, опубликованный Джоном Сирлом в 1980 году [5]:

«Сирл воображает себя одиноким в комнате, следящим за компьютерной программой для ответа на китайские иероглифы, проскользнувшей под дверь. Сирл ничего не понимает в китайском языке, и тем не менее, следуя программе манипулирования символами и цифрами, как это делает компьютер, он отправляет соответствующие строки китайских иероглифов обратно под дверь, и это приводит к тому, что те, кто снаружи, ошибочно полагают, что есть говорящий по-китайски. в комнате."

В нынешнем виде аргумент Китайская комната нуждается в переосмыслении. Человек в комнате никогда не связывал свои сознательные переживания с китайскими иероглифами, поэтому ни человек, ни комната не понимают китайского. Центральная проблема должна заключаться в отсутствии взаимосвязанных сознательных переживаний, а не в том, существует ли правильная программа, которая могла бы превратить что-либо в разум (что равносильно утверждению, что если программа X достаточно хороша, она поймет оператор S. никогда не будет достаточно хорошим потому что это программа, как я объясню в следующем разделе). Эта первоначальная расплывчатая формулировка сорвала аргумент и сделала его более уязвимым для нападок. (Одной из таких атак в результате крушения была Sloman’s [6])

Аргумент «Китайская комната» указывает на законную проблему того, что символьная обработка не является достаточной для какого-либо значения (синтаксиса недостаточно для семантики), но имеет фрейм, который оставляет слишком много места для возражений. Вместо того чтобы смотреть, можно ли превратить программу в разум, мы углубляемся в фундаментальную природу самих программ.

Symbol Manipulator, мысленный эксперимент

Основная природа программ состоит в том, что они свободны от сознательных ассоциаций, составляющих смысл. Программные коды несут значение для людей только потому, что код имеет форму символов, которые содержат зацепки для сознательного опыта читателей. Аргумент Сирла о китайской комнате служит цели поставить читателя аргумента на место человека, который не имел экспериментальных связей с символами в программном коде. Таким образом, Китайская комната - это языковая комната. Человек в комнате не понимает смысла программного кода, тогда как внешнему миру кажется, что комната понимает определенный человеческий язык.

Аргумент китайской комнаты связан с еще одной потенциально опасной проблемой. Человек в Китайской комнате был представлен как устройство для визуализации, чтобы читатель «увидел» с точки зрения машины. Однако, поскольку у машины не может быть «точки зрения», потому что она бессознательна, присутствие человека в комнате создает проблему, когда возникает возможное возражение, что «в комнате находится сознательный человек, делающий сознательные вещи».

Я буду работать над проблемой POV и уточнить различие синтаксиса и семантики, используя следующий мысленный эксперимент:

Вы запоминаете целую кучу фигур. Затем вы запоминаете порядок, в котором должны располагаться фигуры, так что если вы увидите группу фигур в определенном порядке, вы «ответите», выбрав группу фигур в другом заданном порядке. А вы только что узнали какое-то значение какого-либо языка?

Таким образом все программы манипулируют символами. Сами программные коды не имеют смысла. Для машин это последовательности, которые должны выполняться с их полезными нагрузками, и не более того, точно так же, как китайские иероглифы в Китайской комнате являются полезными нагрузками, которые должны обрабатываться в соответствии с инструкциями по упорядочиванию, данными неграмотным в китайском языке, и не более того.

Мало того, что он обобщает программный код, мысленный эксперимент манипулятора символов с его последовательностями и полезной нагрузкой является обобщением алгоритма: « Процесс или набор правил, которым следует следовать при вычислениях или других операциях по решению проблем, особенно компьютер. [7]»

Взаимосвязь между формами и последовательностями определяется произвольно, а не причинно. Операционные правила - это то, что просто запрограммировано, и не обязательно соответствует какой-либо мирской причинно-следственной связи, потому что любые такие ссылки были бы случайной особенностью программы, а не существенной особенностью (т. Е. Случайностью, а не необходимостью). Программа может получать любые входные данные. разрешить, и машина последует за ним не потому, что она «понимает» любые мирские последствия ввода или вывода , а просто потому, что она следует диктату своего программирования.

Очень грубый пример псевдокода, чтобы проиллюстрировать эту произвольную взаимосвязь:

пусть p = "ночь"

вход R

если R = "день", то выведите p + "is" + R

Теперь, если я наберу «день», то получится «ночь есть день». Большой. Абсолютно «правильный выход» по его программированию. Это не обязательно «имеет смысл», но и не обязательно, потому что это программирование! То же самое и с любыми другими входными данными, которые поступают в машину для получения выходных данных, например, «nLc is auS», «e8jey is 3uD4» и т. Д.

Для машины коды и входные данные - не что иное, как элементы и последовательности, которые необходимо выполнить. Для машины нет никакого смысла в этой последовательности или выполнении действий. Для программиста это имеет значение, потому что он или она концептуализирует и понимает переменные как репрезентативные заменители своего сознательного опыта. Машина не понимает таких понятий, как «переменные», «заполнители», «элементы», «последовательности», «выполнение» и т. Д. Она просто не понимает, точка. Таким образом, машина никогда по-настоящему не «знает», что она делает, и может принимать только операциональный вид понимания.

Понимание комнат - машины обезьяны понимания

Метафора комнаты распространяется на все виды деятельности с искусственным интеллектом. Кажется, что машины имеют дело со смыслом только тогда, когда они в конечном итоге переводят все в инструкции машинного языка на уровне, который лишен смысла до и после выполнения и связан только с выполнением (механизм, лежащий в основе выполнения всех машинных программ, проиллюстрированный идеей запоминания формы эксперимент выше. Программа содержит смысл только для программиста). Мысленные эксперименты «Китайская комната» и «Манипулятор символов» показывают, что, хотя наш разум понимает концепции и имеет дело с ними, машины не имеют дело только с последовательностями и полезной нагрузкой. Таким образом, разум - это не машина, и ни машина, ни компьютерная симуляция никогда не могут быть разумом. Машины, которые, кажется, понимают язык и смысл, по своей природе являются «комнатами понимания», которые принимать только внешний вид понимания.

Учебные комнаты - машины на самом деле никогда не учатся, отчасти потому, что разум - это не просто физический процессор информации.

Прямым результатом полного отсутствия у машины какого-либо возможного подлинного понимания и понимания является то, что машины могут быть только учебными комнатами, которые, кажется, учатся, но никогда не учатся. Учитывая это, «машинное обучение» - это широко неправильно понимаемый термин, которым, возможно, часто злоупотребляют.

Учебники по искусственному интеллекту с готовностью признают, что «обучение» в «машинном обучении» не относится к обучению в обычном смысле этого слова [8]:

«Например, система базы данных, которая позволяет пользователям обновлять записи данных, соответствовала бы нашему определению обучающей системы: она улучшает ее производительность при ответах на запросы к базе данных на основе опыта, полученного при обновлении базы данных. Вместо того, чтобы беспокоиться о том, подпадает ли этот тип деятельности под обычное неформальное значение слова «обучение» в разговорной речи, мы просто воспользуемся нашим техническим определением класса программ, которые улучшаются с опытом ».

Обратите внимание, что термин опыт также не используется в обычном смысле этого слова, потому что опыт - это не просто сбор данных. Аргумент знания показывает, что разум не просто обрабатывает информацию о физическом мире [9].

Обладая только физической информацией и делая это без понимания, машины взламывают процесс обучения, участвуя способами, которые игнорируют экспериментальный контекст деятельности. Хорошим примером является то, как компьютер искусственно приспосабливается к видеоигре с помощью грубой силы вместо того, чтобы чему-либо учиться [10].

В случае обучения распознаванию изображений машинам показывают от пары сотен тысяч до миллионов изображений, и через множество неудачных попыток увидеть гориллу в связках не горилл пикселей, чтобы в конечном итоге правильно сопоставить группы пикселей на экран на термин горилла… за исключением того, что он даже не всегда делает это так хорошо [11].

Излишне говорить, что повышение эффективности распознавания пикселей гориллы с помощью интеллекта вряд ли то же самое, что изучение того, что такое горилла на основе сознательного опыта. Чтобы смягчить эту стратегию кувалды, нужно искусственно подталкивать машины к тому, чтобы они пробовали только меньшее подмножество всего, а не абсолютно всего [12].

Обучающие машины - это учебные комнаты, которые принимают только вид обучения. Машины имитируют определенные теоретические механизмы обучения, а также моделируют результат обучения, но никогда не повторяют экспериментальную деятельность обучения. Фактическое обучение требует соединения референтов с сознательным опытом. Вот почему машины ошибочно принимают группы пикселей, составляющих изображение гориллы, с пикселями, составляющими изображение темнокожего человека. Машины не обучаются - они соответствуют шаблону и только. Нет никакого реального личного опыта, связывающего лицо человека с лицом гориллы. Когда в последний раз человек искренне путает лицо животного с лицом человека? Конечно, мы можем видеть сходство и считать лица этих животных человеческими, но мы узнаем их только как сходство, а не как настоящие совпадения. Машины обманывают« абстрактным камуфляжем , изображениями, созданными противоборством» по той же причине [13]. Эти ошибки - всего лишь симптомы недостатка подлинного обучения; машины по-прежнему не обучались бы, даже если бы давали отличные результаты. По сути, машинное обучение так же далеко от реального обучения, как и простые обновления базы данных электронных таблиц, упомянутые ранее в учебнике по искусственному интеллекту.

Volition Rooms - Может показаться, что машины обладают внутренним импульсом.

Тот факт, что машины запрограммированы, обрекает их на придатки, продолжение воли их программистов. Дизайн машины и ее программирование ограничивают и определяют ее. Не бывает таких понятий, как «дизайн без дизайна» или «программирование без программирования». Операции машины были определены внешне ее программистами и проектировщиками, даже если есть запутанные утверждения (намеренные или иные), такие как «программа / машина эволюционировала» (Кто разработал эволюционный алгоритм?) «Никто не знает, как получилась программа. в черном ящике »(Кто запрограммировал программу, которая произвела результирующий код?)« В нейронной сети нет программы »(Кто написал алгоритм нейронной сети?)« Машина обучилась и адаптировалась »( Он не «учится…». Кто определил, как он будет адаптироваться?) И «Есть самомодифицирующийся код» (что определяет поведение этой так называемой «самомодификации», потому что это не «я».) Невозможно спрятаться или уйти от того, что в конечном итоге приводит к поведению - от программирования программистов.

Давайте еще раз взглянем на "Китайскую комнату" Сирла. Кто или что написал программу, за которой следил человек в Китайской комнате? Уж точно не тот человек, потому что он не знает китайского, и уж точно не сам Китайская Комната. Как указывалось ранее в отрывке об обучении, эта китайская комната не «учила китайский» просто путем размещения инструкций в комнате, не больше, чем электронная таблица «изучает» элементы, написанные на ней. Ни мужчина, ни Китайская Комната не «говорили по-китайски»; Они просто следовали инструкциям китайскоязычного программиста Китайской комнаты.

Легко понять, что такие термины, как «беспилотные автомобили», не совсем подходят, когда программисты программируют свое вождение. Это означает, что человеческие дизайнеры в конечном итоге несут ответственность за сбои машины, когда дело касается программирования; Все остальное было бы попыткой уйти от ответственности. «Автономные автомобили» вряд ли автономны. Они не больше учатся водить машину или водить машину сами, чем китайская комната изучает китайский или говорит по-китайски. Дизайнеры и программисты - это источники видимой воли машины.

Комнаты сознания - Заключение, машины могут только казаться сознательными

Искусственный интеллект, который кажется сознательным, - это комната сознания, имитация с разной степенью успеха. Как я показал, они не способны ни понимать, ни учиться. Мало того, они неспособны обладать волей. Искусственное сознание невозможно из-за внешней природы программирования, которое связано с синтаксисом и лишено смысла.

Ответы на контраргументы

Следующие ниже сегменты представляют собой ответы на конкретные категории контраргументов против моего тезиса. Обратите внимание, что эти ответы не являются самостоятельными и могут рассматриваться только как подтверждающие мои основные аргументы, приведенные выше. Каждый ответ относится только к тем, кто придерживается соответствующих возражений.

Округлость

Из вывода следует, что для работы за пределами синтаксиса требуется значение, полученное из сознательного опыта. Это может сделать аргумент круговым (исходя из того, что он пытается доказать), когда сознательный опыт упоминался в самом начале аргумента как определяющий компонент значения.

Однако исходное суждение, определяющее значение («Значение - это ментальная связь с сознательным переживанием»), не было признано действительным в результате заключения или чего-либо, следующего за заключением; это было наблюдение, независимое от заключения.

Возражения функционалистов (мой ответ: они не учитывают недоопределенность)

Многие возражения относятся к той или иной форме функционализма. То есть все они что-то сочетаются с одной или несколькими из этих строк:

· Если мы знаем, что делает нейрон, значит, мы знаем, что делает мозг.

· Если мы можем скопировать мозг или воспроизвести совокупность нейронов, то мы сможем создать искусственное сознание.

· Если мы сможем скопировать функции мозга, мы сможем создать искусственное сознание

Никакие функционалистские аргументы здесь не работают, потому что для дублирования любой функции должны быть способы обеспечения того, чтобы все функции и их зависимости были видимыми и измеримыми. Нет никакого «копирования» чего-то недоопределенного. Функционалистские презумпции «если мы знаем / можем ли мы копировать» неверны.

Недоопределенность влечет за собой невозможность такого исчерпывающего моделирования мозга, как объясняется следующим отрывком из SEP (выделено мной) [14]:

«... когда небесная механика Ньютона не смогла правильно предсказать орбиту Урана, ученые в то время не просто отказались от теории, но и защитили ее от опровержения ...

«… Эта стратегия принесла свои плоды, несмотря на ложность теории Ньютона…

«… Но та же самая стратегия потерпела неудачу, когда использовалась, чтобы попытаться объяснить продвижение перигелия на орбите Меркурия, постулируя существование« Вулкана », дополнительной планеты…

«… Дюгем был прав, когда предлагал не только проверять гипотезы как группу или совокупность, но также и то, что ни в коем случае не предрешено, какой член такой совокупности следует отбросить или пересмотреть в ответ на неудавшийся эмпирический тест или ложное предположение. "

Короче говоря, у нас нет никаких гарантий, что мы сможем спроектировать что-нибудь «подобное X», если мы вообще не можем иметь полное представление об этом X. Не может быть никаких гарантий полной модели из-за недоопределенности. Аргументы функционалистов терпят неудачу, потому что корреляции в выводах не подразумевают причинно-следственные связи, и эти корреляции должны быть обнаружены на 100%, чтобы иметь исчерпывающую модель. Есть несколько теоретических возражений против позиции функционализма даже до того, как взглянуть на реальные эксперименты, такие как этот:

Повторные стимуляции идентичных групп нейронов в мозгу мухи дают случайные результаты. Это физически демонстрирует недоопределенность [15]:

«… Некоторые группы нейронов могут вызывать множественное поведение у животных, а иногда даже у одного животного.

Стимуляция одной группы нейронов у разных животных иногда приводила к разному поведению. Это различие может быть связано с рядом вещей, говорит Златич: «Это может быть предыдущий опыт; это могут быть различия в развитии; это может быть как-то личность животных; различные состояния, в которых находятся животные во время активации нейронов ».

Команда обнаружила, что стимуляция одних и тех же нейронов у одного животного иногда приводит к разному поведению ».

В процитированном выше отрывке отметьте все случаи употребления фраз «может быть» и «может быть». Они указывают на наличие недоопределенных факторов в работе. Исчерпывающее моделирование невозможно, когда есть несколько возможных объяснений на основе случайных экспериментальных результатов.

Ответ функционалиста: «… но нам не нужно исчерпывающее моделирование или функциональное дублирование»

Да, это так, потому что нет никакой уверенности в том, что сознание создается иначе. Множество функций и моделей поведения может быть произведено без введения сознания; Нет реальных измеримых внешних индикаторов успеха. См. Раздел «Возражения бихевиориста» ниже.

Возражения бихевиористов

Эти контраргументы обычно говорят, что если мы можем воспроизвести сознательное поведение, значит, мы породили сознание. Например, я полностью не согласен с статьей в Scientific American, в которой утверждается, что существует тест на обнаружение сознания в машинах [16].

Наблюдаемое поведение ничего не значит, как уже было продемонстрировано в исходном аргументе «Китайская комната». Китайская комната понимает только китайский язык. Об этом свидетельствует и тот факт, что машинное обучение не приравнивается к реальному обучению.

Эмерджентизм через машинную сложность

Контрпримеры эмерджентизма сложности включают количество транзисторов в телефонном процессоре по сравнению с количеством нейронов в мозгу плодовой мушки. Почему смартфон не сознательнее плодовой мушки? А как насчет суперкомпьютеров, в которых транзисторов в миллионы раз больше? А как насчет космических стартовых систем, которые по сравнению с ними еще сложнее… сознательны ли они? Сознание не возникает из-за сложности.

Кибернетика и клонирование

Если задействованы живые существа, то это уже не искусственное сознание. Это были бы случаи манипулирования врожденным сознанием, а не создание искусственного сознания.

«В конце концов, в будущем все изобретается» и «Почему нельзя было сформировать разум с помощью другого субстрата?»

Подложка тут ни при чем. Все системы с искусственным интеллектом требуют алгоритма и кода. Все так или иначе подвержены программированию. Неважно, как далеко вы зайдете в будущее или какой субстрат используете; сохраняется фундаментальная синтаксическая природа машинного кода. Назовите хотя бы один проект искусственного интеллекта, который вообще не связан с кодом. Назовите один из способов, которым ИИ может нарушить принцип непротиворечивости и овладеть программированием без программирования (см. Выше раздел «Комнаты для воли»).

«У нас есть ДНК, а ДНК - это программный код»

ДНК - это не программный код. Генетический состав влияет только на поведение, но не определяет его. ДНК тоже не работает как машинный код. Секвенирование ДНК несет в себе инструкции для широкого диапазона ролей, таких как рост и размножение, в то время как функциональные возможности машинного кода сравнительно ограничены. Наблюдения показывают, что каждый ген влияет на каждый сложный признак в степени, которая точно не известна [17]. Это показывает, что их работа недоопределена, в то время как программный код, напротив, определен функционально (программисты не могут спроектировать поведение, адаптивное или эволюционное, не зная, что должен делать программный код. ») И сильно разделены по сравнению (покажите мне большую программу, в которой каждая отдельная строка кода влияет на ВСЕ поведение). Параллель с программированием ДНК - плохая аналогия, не выдерживающая научных наблюдений.

«Но наш разум также манипулирует символами»

То, что наш разум может иметь дело с символами, не означает, что он действует символически. Мы можем переживать и вспоминать вещи, для которых мы еще не сформулировали правильные описания [18]. Другими словами, мы можем получить неописуемые переживания. Мы начинаем с несимволических переживаний, а затем придумываем для них символические представления в наших попытках рационально организовать и передать эти переживания.

Личный анекдотический пример: в самом раннем детстве я вспомнил, как лежал на кровати и смотрел на вытяжной вентилятор в окне. Я помню то, что видел тогда, хотя в то время я был слишком молод, чтобы выучить такие слова и термины, как «кровать», «окно», «вентилятор», «электрический вентилятор» или «вытяжной вентилятор с электрическим стеклоподъемником». Сенсорные и эмоциональные воспоминания можно описать символами, но сами воспоминания не являются символическими.

Более того, медицинский феномен афантазии демонстрирует, что визуальные переживания категорически отделены от их описания [19].

Генераторы случайности и случайных чисел

Случайность - отвлекающий маневр, когда дело доходит до использования в качестве индикатора сознания (не говоря уже о сомнительной природе всех внешних индикаторов, как показывает Аргумент Китайской комнаты). Генератор случайных чисел внутри машины будет просто предоставлять еще один ввод, в конечном счете, только для генерации большего количества символов, которыми нужно манипулировать.

«Мы построили сложные функциональные модели нейронных вычислений»

Существование сложных функциональных моделей никоим образом не помогает функционалистам избежать ловушки функционализма. Эти модели все еще сильно недоопределены, как показывает недавний пример усовершенствованного алгоритма нейронного обучения [20].

Модель очень сложная, но обратите внимание, сколько недоопределенных кушаний она содержит:

"Возможно другой порог"

"Может иметь общий рефрактерный период"

"Вероятно, будет дан экспериментальный ответ"

Модели далеки от отражения функционирующих нейронных групп, присутствующих в живом мозге; Я очень сомневаюсь, что кто-либо из исследователей предъявит такое заявление, потому что это не их цель. Модели могут и действительно производят полезные функции и являются практически правильными, даже если эти модели на самом деле ошибочны в том смысле, что они не обязательно соответствуют действительности в функционировании. Другими словами, модели не должны на 100% соответствовать реальности, чтобы они работали, поэтому их фактическая точность никогда не гарантируется. Например, орбитальные спутники могут по-прежнему функционировать без учета релятивистских эффектов, потому что большинство релятивистских эффектов слишком малы, чтобы быть значимыми в спутниковой навигации [21].

«Ваш аргумент применим только к машинам фон Неймана»

Это применимо к любой машине. Это относится и к катапультам. Программирование катапульты включает в себя настройку точек поворота, натяжения и противовесов. Язык программирования катапульты определяется позиционированием осей, величиной натяжения, величиной противовеса и т. Д. Вы даже можете построить компьютер из водопроводных труб, если хотите [22]; Применяется тот же принцип. Машина делает что-то сама не больше, чем сама катапульта.

«Ваш мысленный эксперимент - насос интуиции»

Чтобы воспользоваться этой возможностью для критики, нужно было бы продемонстрировать предполагаемое злоупотребление в рассуждениях, которыми я якобы занимаюсь. Эйнштейн также использовал народные концепции в своих мысленных экспериментах относительно систем отсчета [23], поэтому мысленные эксперименты массово дискредитируются. здесь или только мой? Это неспособность выразить четкую критику, и расплывчатый ответ о том, что мысленными экспериментами можно злоупотреблять, непродуктивен. Неужели люди думают, что моя аналогия даже хуже, чем их устаревшая уловка представить разум как аналог преобладающей технологии того времени - сначала гидравлику, затем телефоны, затем электрические поля, а теперь и компьютеры [24]? Станут ли люди лучше, если они проведут мой эксперимент с узорными учетными карточками, которые они могут держать в руках? Критика должна быть конкретной.

Отсутствие объяснительной силы (Мой ответ: демонстрация ложности существующих теорий не требует еще одной теории)

Аргументы в пользу или против возможности искусственного сознания не дают большого представления о фактической природе сознания, но это не умаляет тезиса, потому что цель здесь не в том, чтобы явно определить природу сознания. Что такое сознание (например, его природа) здесь исследуется не столько, сколько что сознание не влечет за собой, что все еще может быть определено с помощью его требований. Существовали теории, окружающие различный сознательный потенциал различных физических материалов, но эти теории в значительной степени оказались бессмысленными [25]. Объясняющие теории не нужны для моего тезиса, они не нужны ни для доказательства, ни для опровержения. Необходимые фундаментальные принципы уже были предусмотрены (см. Раздел Требования сознания).

О панпсихизме

(Тема, которая была популярна в SA в последние годы [26])

Я не подписываюсь под панпсихизмом, но даже если панпсихизм верен, возможное впоследствии утверждение, что «все вещи сознательны», все еще ложно, потому что оно совершает ошибку разделения. Существует различие в природе от всего до каждой вещи. Предполагаемое универсальное сознание панпсихизма, если оно существует, не было бы того же вида, что и обычное сознание живых существ.

Вот несколько примеров таких категоричных различий: Джонни поет, а его почки - нет. Джонни видит, но ногти на ногах нет. Сказать, что лампа сознательна в одном смысле слова просто потому, что она принадлежит к вселенной, которая «сознательна» в другом, было бы такой же большой категориальной ошибкой, как сказать, что почка поет или ноготь на ноге видит.

Утверждение, что все вещи сознательны (включая ИИ) в результате универсального сознания, было бы объединением двух категорий просто из-за отсутствия разделяющих их терминов. Тот факт, что термин «сознание» связывает все вещи с приверженцами универсального сознания, не означает, что сам термин следует использовать двусмысленно. Философ-панпсихист Дэвид Чалмер пишет [27]:

«Панпсихизм, взятый буквально, - это учение о том, что все имеет разум. На практике люди, называющие себя панпсихистами, не придерживаются столь сильной доктрины. Они не придерживаются тезиса о том, что у числа два есть разум, или что у Эйфелевой башни есть разум, или что у города Канберра есть разум, даже если они верят в существование чисел, башен и городов ».

«Если это похоже на утку…» (ироничный упрек насмешливому бихевиористскому вызову)

Если он похож на утку, плавает, как утка, крякает, как утка, но вы знаете, что утка - это утка с искусственным интеллектом, значит, у вас есть причудливый автомат-утка. «Но подождите, а что, если бы никто не мог сказать?» Тогда это причудливый автомат-утка, который никто не мог отличить от настоящей утки, вероятно, потому, что вся его производственная документация была уничтожена, программист умер и не мог никому сказать, что это утка с ИИ ... Это все еще не настоящая утка, однако . Такие реплики, как «Тогда мы сможем избавиться от всех свидетельств производства» и другие шутки, которые я считаю цепкими и интеллектуально нечестными. Если кто-то конструирует функционально совершенную и визуально неотличимую искусственную утку только для того, чтобы доказать, что я ошибаюсь, то это пустая трата усилий; его личность должна быть раскрыта, чтобы точка была «доказана». Тогда откровение подтвердит мою правоту.

«Утиный ответ» - еще одно бихевиористское возражение, которое лишено смысла аргументом китайской комнаты (см. Выше раздел «Бихевиористские возражения»).

"Вы не можете доказать мне, что вы в сознании"

Это отрицание опровергает тот же эмпирически не доказываемый факт, что и возражение не-утка-утка, приведенное выше. Мы говорим о метафизических фактах, а не просто о способности или невозможности их получить. При этом отправная точка либо признания, либо скептического отрицания сознания должна начинаться с вопроса «Отрицаю ли я существование моего сознания?» а не «Докажи мне свое».

Нельзя отрицать существование собственного сознания, и было бы абсурдным упражнением ставить под сомнение его у других людей, когда мы признаем себя сознательными. Когда каждый из нас сталкивается с другим человеком, предполагаем ли мы сначала, что мы просто сталкиваемся с факсимиле человека, а затем проверяем, является ли этот человек человеком, прежде чем, наконец, начать думать о сущности как о личности после удовлетворения? Нет, чтобы кто-то не страдает бредовой паранойей. Мы также не хотели бы создавать мир, в котором эта абсурдная паранойя стала возможной (см. Раздел ниже).

Некоторые последствия невозможности искусственного сознания

1. AI никогда не следует давать права. Поскольку они никогда не могут быть сознательными, они менее достойны прав, чем животные. По крайней мере, животные в сознании и могут чувствовать боль [28].

2. ИИ, который очень похож на людей как по внешнему виду, так и по поведению (например, пересечение Страшной долины), должен быть строго запрещен в будущем. Позволение им существовать только создает мир, погруженный в абсурдную паранойю (см. Раздел выше). Судя по моим наблюдениям, многие люди достаточно сбиты с толку в отношении машинного сознания как есть слишком частыми случаями того, что один из моих коллег назвал плохой научной фантастикой.

3. Сознание никогда нельзя «загружать» в машины. Любая попытка сделать это с последующим «удалением» первоначального тела до его естественного срока жизни была бы актом самоубийства. Любая полная «замена» побитовой машины в стиле Корабля Тесея постепенно приведет к тому же.

4. Любая катастрофическая «беда» ИИ будет вызвана плохим дизайном / программированием и только плохим дизайном / программированием.

5. Люди несут полную ответственность за действия своих творений, а корпорации должны нести ответственность за ненадлежащее поведение их продуктов.

6. Мы живем не в симуляции. Согласно моему тезису, эти предположения бессмысленны:

Учитывая, что искусственное сознание невозможно:

- Моделируемые среды искусственны (по определению).

- Если мы существуем в такой среде, мы не должны быть сознательными. В противном случае наше сознание было бы частью искусственной системы. Невозможно из-за невозможности искусственного сознания.

- Однако мы в сознании.

- Следовательно, мы живем не в симуляторе.

использованная литература

[1] merriam-webster.com, Разведка (2021 г.), https://www.merriam-webster.com/dictionary/intelligence

[2] Интернет-энциклопедия философии, Сознание (2021 г.), https://iep.utm.edu/consciou/

[3] Стэнфордская энциклопедия философии, Интенциональность (2019), https://plato.stanford.edu/entries/intentionality/

[4] Стэнфордская энциклопедия философии, Qualia (2017), http://plato.stanford.edu/entries/qualia/

[5] Стэнфордская энциклопедия философии, Аргумент о китайской комнате (2020), https://plato.stanford.edu/entries/chinese-room/

[6] А. Сломан, Атаковал ли Сирл сильный сильный ИИ или слабый сильный ИИ? (1985), Искусственный интеллект и его приложения, А.Г. Кон и Дж. Р. Томас (ред. .) Джон Вили и сыновья 1986.

[7] Оксфордский словарь английского языка, алгоритм (2021 г.), https://www.lexico.com/en/definition/algorithm

[8] Т. Митчелл, Машинное обучение (1997), McGraw-Hill Education (1-е изд.)

[9] Стэнфордская энциклопедия философии, Qualia: аргумент знания (2019), https://plato.stanford.edu/entries/qualia-knowledge/

[10] В. Хайфилд, ИИ учится обманывать в Q * Bert в таком смысле, которого никогда не делал человек раньше (2018), https://www.alphr.com/artificial-intelligence/ 1008697 / ai-learn-to-cheat-at-qbert-in-a-way-no-human-never-made-before

[11] Дж. Винсент, Google исправил свой расистский алгоритм, удалив горилл из своей технологии маркировки изображений (2018), https://www.theverge.com/2018/1/12 / 16882408 / google-racist-gorillas-photo-распознавание-алгоритм-ai

[12] Х. Сикчи, На пути к безопасному обучению с подкреплением (2018), https://medium.com/@harshitsikchi/towards-safe-reinforcement-learning-88b7caa5702e

[13] Д. Г. Смит, Как взломать интеллектуальную машину (2018), https://www.scientificamerican.com/article/how-to-hack-an-intelligent-machine/

[14] Стэнфордская энциклопедия философии, Недоопределенность научной теории (2017), https://plato.stanford.edu/entries/scientific-underdetermination/

[15] Л. Сандерс, Десять тысяч нейронов, связанных с поведением у мух (2014), https://www.sciencenews.org/article/ten-thousand-neurons-linked-behaviors-fly.

[16] С. Шнайдер, Э. Тернер, Кто-нибудь дома? Способ узнать, стал ли ИИ осознающим себя (2017), https://blogs.scientificamerican.com/observations/is-anyone-home-a-way-to-find-out-if -ai-стал-осознавать себя /

[17] В. Гринвуд, Теория предполагает, что все гены влияют на все сложные черты (2018), https://www.quantamagazine.org/omnigenic-model-suggests-that-all-genes- аффект-все-комплекс-черта-20180620 /

[18] Д. Робсон, Непереводимые эмоции, о которых вы даже не подозревали (2017), https://www.bbc.com/future/article/20170126-the-untranslatable-emotions -вы-никогда-не-знали-были

[19] К. Циммер, Представьте себе это? Some Just Can’t (2015), https://www.nytimes.com/2015/06/23/science/aphantasia-minds-eye-blind.html

[20] Р. Урбанчик, Обучение с помощью дендритного предсказания соматических всплесков (2014), Neuron. 2014 5 февраля; 81 (3): 521–8.

[21] Ž. Хечимович, Релятивистские эффекты в спутниковой навигации (2013), Tehnicki Vjesnik 20 (1): 195–203

[22] К. Патовари, Водный компьютер Владимира Лукьянова (2019), https://www.amusingplanet.com/2019/12/vladimir-lukyanovs-water-computer.html

[23] Стэнфордская энциклопедия философии, Мысленные эксперименты (2019), https://plato.stanford.edu/entries/ Thinkt-experiment/

[24] М. Кобб, Почему ваш мозг не компьютер (2020), https://www.theguardian.com/science/2020/feb/27/why-your-brain- это-не-компьютер-нейробиология-нейронные сети-сознание

[25] М. А. Серулло, Проблема с Phi: критика интегрированной теории информации (2015), PLoS Comput Biol. 2015 сен; 11 (9): e1004286. Конрад П. Кординг (Ред.)

[26] Разные авторы, Список статей о панпсихизме, извлеченный на сайте Scientificamerican.com в иллюстративных целях (22 апреля 2021 г.), https://www.scientificamerican.com/search/?q=panpsychism

[27] Д. Дж. Чалмерс, Панпсихизм и панпротопсихизм, Лекция Амхерста по философии 8 (2013): 1–35

[28] М. Бекофф, Сознание животных: новый отчет усыпляет все сомнения (2018), https://www.psychologytoday.com/us/blog/animal-emotions/201801/animal -сознание-новый-отчет-усыпляет-все-сомнения