Мы анализируем самую ажиотажную тему современности, которая, на наш взгляд, создала абсолютно необоснованный взгляд на наш образ мышления, не имеющий научной основы. Чтобы написать эту статью, я прочитал несколько книг по ИИ (слезы из-за огромного количества логических ошибок) и пообщался со многими специалистами по машинному обучению и дата-инженерами.

Алгоритмическая база ИИ

Начнем с того, что я не занимаюсь большими данными, специалисты которых любят подводить черту - я философ и поэтому проанализирую основные научные возможности ИИ.

Для анализа темы я буду использовать философский формально-логический язык, специально созданный для исследования возможности какого-либо знания (или логической необходимости), в то время как язык формул основан на абсолютной сущности понятий, а не на анализе возможности их существование (мы можем найти только «белое пятно», если говорить о шансах).

Я также не буду вдаваться в расчет аспектов темы. Я прочитал две замечательные статьи Азима Азхара о проблемах расчета возможностей в 2017 году:

В автономном автомобиле мы должны учитывать камеры, радар, гидролокатор, GPS и LIDAR - компоненты, столь же важные для этого нового способа вождения, как поршни, кольца и блоки цилиндров. Камеры будут генерировать 20–60 МБ / с, радар - более 10 кБ / с, сонар - 10–100 кБ / с, GPS - 50 кБ / с, а LIDAR будет работать в диапазоне 10–70 МБ / с. Запомните эти числа, и каждое автономное транспортное средство будет генерировать примерно 4000 ГБ - или 4 терабайта - данных в день. Для сравнения: финны, которые в 2015 году больше всего требовали данных от пользователей мобильного интернета в мире, использовали в среднем 2,9 Гб данных в месяц. Финны в интернете.) Полная версия.

Здесь я проанализирую алгоритмическую основу возможности ИИ - то есть аспект, с которого нужно начать, прежде чем создавать теории об его архитектуре.

Проблемы AI

Любое дерево алгоритмов строится на двух смысловых единицах - ДА и НЕТ (единицы и нули). В свою очередь, совокупность семантических единиц делится на две логические операции: И, ИЛИ. Их всего двое! Надо сказать: в бинарной логике не существует операции НЕ, это бессмысленно. Я пишу «1 ИЛИ 0», затем добавляю 1 или 0 и в результате получаю «1 и 0 и 1…». У меня нет операции НЕ - e.x. Я не могу написать «не 1», потому что это будет «0», и я не могу написать «НЕ 1 и 0», потому что это ничего не значит (прочтите разницу между «Противоречие» и «Противоречие»).

Семантика алгоритма, какой бы сложной она ни была, не может выходить за рамки двух семантических единиц и операций с ними. Они могут привести к длинной последовательности элементов (конкретный набор единиц и нулей) с различным набором «да» и «нет». В ответ на определенную последовательность алгоритм дает однозначный вывод, заложенный в алгоритме - смысл алгоритма заключается в работе с входными и выходными данными. Отметим, что в бинарном алгоритме нет иерархии и абстракций - есть только последовательность входных и выходных данных. Только последовательность! Поэтому программный код должен быть точным и однозначным - он не допускает многослойности, не допускает ничего, кроме «да» и «нет».

Важный! Открытие двоичной системы в западном мире принадлежит Лейбницу, который был прежде всего философом и был очарован элегантностью двоичной логики. По его мнению, эта логика может описывать целостность вселенной, потому что любая логика - какой бы сложной она ни была - приводит к 0 и 1: любое событие либо произошло, либо нет. Состоялся факт или нет - любая другая логика приводит к двоичному результату только из-за этого объективного принципа. Раньше главная фигура всей современной логики Томас Аквинский в своих объемных трудах доказывал невозможность того, чтобы произошедшее событие произошло даже по воле Божьей. Опуская религиозный подтекст, мы можем отметить, что в логике любое значение A является абсолютным, а не относительным, и любое абсолютное значение - как мы знаем из формальной логики - приводит либо к «истине», либо к «лжи».

Современным доказательством универсализма бинарной логики являются квантовые компьютеры, которые изначально связывали надежды на преодоление бинарной логики, но, увы! Даже здесь бинарная логика является высшей: в отличие от обычного компьютера принцип квантового компьютера основан на вычислении всех возможных вариантов от 1 до 0, и, в конечном итоге, мы получаем вероятный результат, но эта вероятность выражается только в 1 и 0, что является сферой Блоха в теории квантовых компьютеров.

Вкратце, сфера Блоха показывает все возможные варианты расчета, и при регистрации конкретного расчета результат «наклоняется» к 0 или 1 в зависимости от его положения на сфере.

Суть в том, что какой бы сложный алгоритм ни был изобретен, результатом будет двоичная логика, которая является не законом локальной математики, а законом природы. ИИ должен принять решение либо 1, либо 0 в любой конкретной задаче, вопрос заключается в том, насколько точно он может определить эту задачу, не имея полного набора данных, и поэтому мы продолжаем дальше.

1. Алгоритмический предел

Но идея алгоритма - это не идея ИИ. AI начинается, когда алгоритм, не имеющий элемента в своей системе, сам «создает» такой элемент в ответ на входные данные. На каком основании? На основании единственного вспомогательного инструмента - операций «и», «или», другими словами, сравнение неизвестных входных данных с известными и выдача наиболее статистически подходящего варианта в качестве выходных данных. Чтобы научить ИИ, мы смотрим на то, что он дал нам на выходе, и даем ему новые данные, которые он использует в качестве нового элемента для принятия решения в будущем - таким образом мы повышаем точность ИИ. Ошибочную иллюзию создает ряд алгоритмов, которые можно реализовать в этих простых конструкциях. На самом деле мы можем построить алгоритм с миллионом взаимосвязанных элементов, но, по сути, проблематика ИИ заключается в возможности давать наиболее точные выходные данные в ответ на максимально неизвестные входные.

Проблематика ИИ заключается в возможности давать наиболее точные выходные данные в ответ на максимально неизвестные входные.

Эта проблема приводит к двум способам создания ИИ. Мы либо постараемся окончательно специализировать алгоритм так, чтобы неизвестных данных в конкретной области стало меньше, либо они были в большей степени «похожи» на известные. По сути, это не искусственный интеллект, а сверхточное машинное обучение, и, как мы увидим позже, чем меньше он будет напоминать «интеллект», тем лучше будет работать. Вот почему специализированные нейросети работают и работают хорошо (например, распознавание изображений), но как только появляется новая специализация, они сразу выходят из строя.

Второй способ - сделать ИИ максимальным интеллектом, т.е. максимально похожим на наш разум. Второй способ подразумевает включение в алгоритм такой тонкой вещи, как творчество, чтобы он не был привязан к конкретной специализации и мог принимать разнообразные решения, а значит, это мог быть хотя бы немного интеллекта. Но в обоих случаях мы можем столкнуться с тремя непревзойденными естественными неудачами, связанными с алгоритмами в целом:

  • Невозможность абстрактного алгоритма.
  • Сложный характер объективных данных.
  • «Проблема остановки», неразрешимость которой была доказана Тьюрингом, может звучать так: невозможно определить, будет ли алгоритм работать вечно или остановится, если изначально мы не указали входные данные, что он будет работать вечно или остановится.

В следующей статье мы исследуем эти проблемы, изучим точки зрения сторонников ИИ (включая теорему Байеса) и сделаем вывод о том, почему сильный ИИ невозможен.

Суть всего исследования: чем меньше машинное обучение похоже на сильный ИИ, тем лучше он работает. В первой части мы определили общую алгоритмическую базу всех алгоритмов (включая AI и квантовые алгоритмы) и основную проблематику AI: она заключается в возможности давать наиболее точные выходные данные в ответ на максимально неизвестные входные. Давайте исследуем теорию алгоритмов и 3 основных аргумента в пользу сильного ИИ.

2. Невозможность абстрактного алгоритма.

Погрузимся в теорию алгоритмов. В алгоритмике есть такое понятие, как алгоритмически неразрешимые проблемы, которые пригодятся для нашего исследования. Мы возьмем для примера три.

  • Entscheidungsproblem (проблема решения) можно сформулировать так: невозможно алгоритмически доказать правильность или недействительность работы другого алгоритма. Это означает, что мы не можем создать алгоритм, который - без нашего конкретного ввода - сможет определять истинность формальных операций.
  • Нам также интересно изучить сложность Колмогорова, которая гласит, что, хотя компьютер способен искать согласованности, он не может найти лучшие из них. Если мы заставим его искать согласованности в разнородных данных, он найдет первый из них, и сомнительно, что этот будет лучшим. Мы можем заставить его искать дальше, но для алгоритма это будут новые данные, отличные от исходных. Это будет означать, что точность выходного результата будет зависеть не от задачи ввода, а от математического контекста, что усложняет принятие решения в реальной жизни.
  • Алгоритмический предел.

Эти и другие задачи обычно приводят к теореме Гёделя о неполноте. Сформулируем это так: для любой несовместимой системы аксиом или формальных инструкций мы можем сформулировать истинное утверждение, которого этой системе будет не хватать, то есть каждая система несовместима.

В более прикладном смысле все эти и другие примеры показывают, что алгоритм не может дать правильный ответ, если объем неизвестных элементов вдвое больше, чем его собственный заранее запрограммированный объем - адекватность алгоритма (даже не его точность) зависит от этой проблемы. В теореме о неполноте мы можем сделать истинное утверждение, состоящее более чем из 50% других аксиом. Даже с 80% полнотой объема мы не уверены в его точности, не говоря уже о том, что объем менее 50%. Для детей: если в алгоритме есть две корзины для синих и красных яиц, он определит фиолетовую и поместит ее в одну из корзин, поскольку фиолетовый имеет оба цвета, но он не сможет адекватно определить белое яйцо, потому что он более чем на 50% отличается от красного и синего - даже не поймет, что это яйцо. Добавление

информация о белых яйцах не «улучшит» алгоритм, а добавит новые знания, т.е. расширит его объем, а значит, отдалит алгоритм от исходной задачи.

3. Переподготовка

Если визуальный алгоритм, предназначенный для определения кошки по четырем критериям (форма тела, размер тела, шерсть, форма ушей), дан лысой кошке без ушей, он ответит, что это не кошка. Мы можем указать, что такие кошки тоже существуют, т.е. ввести информативные знания или варианты. Мы даже можем изменить приоритет. НО! Мы меняем приоритет для себя, но меняем последовательность для алгоритма. Однако предположим, что алгоритм научился определять всех кошек, не имеющих отношения к их жизненному пути. Для большей точности мы добавим новый алгоритм, который может определять кошку по голосу. Мы можем повысить точность алгоритма и отметить, что во всех случаях мы не улучшаем алгоритм, а вводим новый контент, превышающий эти 50% неизвестных данных. Над двумя алгоритмами мы создадим третий, который будет принимать окончательное решение. Что мы получим? Супер-алгоритм, который может определять кошек - и все. Это замечательно работает со стабильными входными данными, когда отдельный элемент не сильно отличается от другого. Вот как работает кредитный рейтинг, который обрабатывает заявки на получение кредита на основе предыдущих заемщиков. Он бесконечно учится на статистике выдачи ссуд.

Идея объединения специализированных алгоритмов в один супералгоритм принятия решений кажется привлекательной. Но его смысл не изменится - он по-прежнему будет выдавать «и или» и выводить «да, нет», хотя возрастающая неоднородность неизвестных данных будет иметь тенденцию превышать 50% известных данных. Мысль о том, что ИИ будет работать лучше, если мы объединим множество сильных алгоритмов в один, похожа на мысль о том, что мы могли бы создать самый быстрый автомобиль, объединив Bugatti и McLaren. Количество известных данных от этого не изменится. Фактически, в какой-то момент будет полезнее сделать ИИ более глупым, потому что автомобиль без водителя, определяющий все виды кактусов, менее полезен, чем автомобиль, который просто определяет, что перед ним есть объект, которого следует избегать. Кроме того, каковы критерии работы супералгоритма, кроме прямых данных? Его данные - это другие алгоритмы, как мы показали выше, алгоритм не может определять истину со ссылкой на другие алгоритмы («Entscheidungsproblem»). Он может делать это только статистически, а недостающие 50% пытаются заполнить статистическими данными, которые алгоритм должен проверить, но почему это бесполезно, можно увидеть, проанализировав аргументы теоретиков. А пока подумаем об еще одной базе ИИ - обучении.

4. Природа данных

Чтобы достичь интеллектуальных способностей, ИИ всегда должен учиться. Обучение? Извините - переобучение, то есть не получение новых знаний, а создание новых элементов на основе старых или внесение их в новые категории. Фактически, он не может двигаться дальше от своего входного содержания или, если быть более точным, дальше от своих входных категорий (качеств). ИИ не обязательно знать конкретную информацию, потому что его природа не в знании содержания, а в демонстративном. Мы, несчастные люди, в отличие от ИИ, можем мыслить что-то не в рамках данных категорий, а все остальное, в том числе самое удивительное. Если мы применим этот метод к обучению ИИ, мы добавим удивительные категории, и ИИ придется постоянно переучивать. Но постоянное переобучение нейросети приведет к возврату к ее старым ошибкам и повторному обучению, потому что, если мы формализуем весь процесс, алгоритм в целом всегда реализует простую последовательность элементов. Алгоритм не учитывает природу, потому что он имеет только одну природу. А также, чему он будет учиться? Строго говоря, алгоритм принимает любое знание как абсолютное, однако мы сами видим, что абсолютного знания не существует - все зависит от контекста. Следовательно, помещенный в разные контексты, алгоритм всегда будет изучать противоречивые данные и, как следствие, будет полезен только в полностью обобщенных сферах, что буквально показывает его бесполезность. Машинное обучение хорошо, потому что оно учится на новых данных, где новым является все, что еще не было включено в конкретную задачу. Например, мы искали мошенников в Интернете на основании их ненормального поведения, и недавно мы были рады узнать, что большинство из них посещают форум www.uspeshnye-denigy.narod. Но как только появится новая специализация, эти знания могут стать не только бесполезными, но и разрушительными для точности. Например, мы хотим, чтобы ИИ предлагал рекламу подходящим людям, но исключил бы все Дениса, даже если они подходят по всем другим параметрам, но у них есть комбинация deni, которая присутствует в веб-адресе. Мне могут возразить, если я скажу, что эта проблема решается количеством данных (ситуаций, контекста и т. Д.) Для обучения, но это не решит проблему. Покажи нам.

Три аргумента теоретиков ИИ

Даже если мы введем все мировые знания в ИИ, и он будет воспринимать реальность со всех точек зрения, он ничего не даст, а, напротив, сделает его в конечном итоге бесполезным и действующим по хаотическому алгоритму. Во-первых, эта сверхточная нейросеть в какой-то момент будет делать много ошибок, потому что вещи в мире очень часто похожи. Не исключено, что точность станет встречной проблемой, когда она начнет классифицировать действительно новые данные как известные. Высокая точность - это не только хорошо, но и плохо.

Какой должна быть точность, чтобы ИИ стал интеллектом? Дело в том, что человеческий интеллект не приспособлен к точности - его природа - в спонтанных решениях, которые могут раскрыть воспринимаемый объект с новой стороны, и мы по-другому поймем его природу. Ребенок воспринимает тепло не через градацию тепла между предметами, к которым он прикасается, а - как это часто бывает - через спонтанное решение прикоснуться к кипящей кастрюле. Если бы алгоритм мог делать что-то неизвестное, чтобы получить новое неизвестное или связать его с известным, то ИИ стал бы не только сильным, но и божественным. Но проблема первого этапа в том, что он имеет только те входные данные, которые мы вводим в него, и он не будет различать его характер. Подумайте о собственном обучении: любые достойные знания заставляют вас реконструировать все ваши привычные категории воспринимаемого мира и создавать новые. Это способ узнать о несоответствии вещей в мире. И мы всегда учитываем долю неизвестного во всем: как только мы сталкиваемся с новыми проявлениями знакомого, мы начинаем перестраивать свой менталитет и стараемся примирить противоречия. Мы, несчастные люди, работаем с тем, что есть снаружи - этим фактором влияния, а не с тем, что внутри нас. Вероятно, это процесс формирования психики с самого младенчества и, видимо, этот процесс происходит непрерывно. В отличие от компьютера, мы не храним все данные в своей памяти, а как бы создаем их заново - этот вопрос требует отдельного философского анализа, но мы можем определенно сказать, что мы можем работать с тем, что только у нас есть, не обращаясь к нашей памяти. Иначе на чем основана наша память, когда в ней еще ничего нет? Алгоритм так работать не может - он всегда работает со ссылкой на существующую базу данных.

Один алгоритм может решать разные задачи

Я проанализировал теоретические возможности ИИ, не говоря уже о самом «интеллекте», но позвольте нам взглянуть в лицо теоретикам ИИ и подвергнуть сомнению их основные положения.

Статистическое обучение и теорема Байеса

На основании этого предположения возникает предположение, что мы можем сделать алгоритм предельно универсальным, в ущерб его эффективности для решения отдельных задач. По сути, мы создаем логическую структуру, универсальную для большинства законов природы и системных процессов. Это способ разработать один алгоритм, который будет играть в шахматы и ловить кредитных мошенников. Это будет один и тот же вход нейросети с разными данными. Если мы продолжим эту логику, мы можем предположить, что создадим ИИ, построенный на абсолютно абстрактных и универсальных законах. Эта нейросеть решит все задачи «правильно», поскольку не противоречит основным законам Вселенной.

Антитезис: здесь мы видим несколько популярных логических ошибок. Во-первых, строго говоря, мы не знаем «законов природы» - мы знаем законы конкретных объектов и их сродство между разными объектами, хотя мы даже не уверены, что одни и те же законы создают одинаковый зарегистрированный результат. Во-вторых, понятие «универсальность» существует только в нашем сознании - мы объединяем похожие проявления в одну структуру для работы с данными. Но любая универсальность приводит к недостатку содержания. В заключении A ≠ -A мы имеем максимально абстрактную структуру, которая важна для дифференциации объектов, но ничего не говорит о самих данных. Если мы введем данные, структура о них ничего не скажет - придется показывать вручную: «это хот-дог» и «это не хот-дог». Только имея данные, нейросеть начнет чему-то учиться, но ничего не узнает по структуре. Следовательно, для сильного ИИ нам нужно будет собирать данные из всех сфер, и они должны быть максимально конкретными. Если ввести параметр «твердость», нам придется назвать все виды твердости. Для специализированного машинного обучения нам нужно будет ввести только те типы жесткости, которым оно может соответствовать - это хорошо, но мы все еще сталкиваемся с «законом 50%», потому что все другие типы жесткости потребуют нового обучения. Мы не можем обнаружить абстрактный закон, который сам по себе мог бы определять эти типы. «Почему мы можем показать алгоритму, что сложно, а что символично !?» Но концепция жесткости уже является содержательной, и алгоритм должен быть обучен на основе различных типов жесткости. И чтобы научиться отличать это от символического, ему потребуется дополнительное обучение дифференциации - то есть нужно будет различать большое количество сложных и большое количество символических. Напоминаю, что для алгоритма все данные имеют одну и ту же природу и в нем нет ничего абстрактного.

ИИ развивается сам

Эта теорема гласит, что если произошло одно событие, то статистически вероятно, что связанное с ним событие тоже произойдет. Многие думают, что эта теорема станет основой сильного ИИ. Алгоритм Байеса работает очень просто: в него вводятся разные гипотезы, и он начинает их проверку на основе постоянно получаемой статистики. Итак, согласно этой теории, ИИ может извлекать любые данные из содержащихся в нем предположений. Затем он может сам создавать гипотезы и проверять их. Это звучит обнадеживающе, и нам дано множество примеров, когда машинное обучение определяет речь, изображения, звуки и т. Д. На основе бесконечного потока входных данных.

Антитезис: теорема Байеса может работать только в одном контексте с одним набором строго определенных понятий, поэтому она так хорошо работает, например, с машинным зрением. Если задуматься, алгоритм не может выдавать гипотезу в строго определенном контексте. Если концепции начинают становиться расплывчатыми, алгоритм начинает выдавать странные теории, пока не дойдет до отдельных концепций, но тогда он будет работать только с ними. Для достижения высокой точности даже в специализированном машинном обучении нам понадобится большое количество данных. Если сильный ИИ создает множество предположений и проверяет их на основе расплывчатых концепций, он создаст мир формальной статистики, и в какой-то момент эта статистика начнет противоречить знаниям о содержании. Давайте подумаем, как мы строим и проверяем наши гипотезы. Очевидно, мы не делаем этого на основе статистических данных, не так ли? Однако мы уверены в некоторых выводах, сделанных на основе очень небольшого количества данных. Почему так? Строго говоря, мы никогда не можем быть полностью уверены, но нам достаточно иметь некоторые предположения, чтобы принять соответствующие решения. Мы можем расставить приоритеты задач в любом контексте, и нам часто приходится принимать статистически неблагоприятные, но наиболее подходящие решения в нашем случае. Таких решений в нашей жизни большинство, и они не обязательно являются трудными - самые простые решения всегда требуют восприятия контекста. Представим, что мы дали ИИ задание ухаживать за ребенком дома. Потом происходит пожар. Что будет делать ИИ: потушить огонь или вывести ребенка из дома? Судя по статистике погибших при пожарах, ребенка придется вывести из дома и принести в жертву огню. Но что, если пожар был небольшим, но из-за реакции ИИ на него стал большим, в то время как ИИ спасал ребенка, а не тушил огонь? Даже если ИИ научится определять размер пожара на основе научных данных о распространении огня, будет ли это более бесполезным, чем обычная пожарная сигнализация? Мораль

is: любая статистика может быть полезна только в контексте конкретной области, во всех остальных случаях она избыточна. Как только у ИИ есть две расплывчатые задачи, в большинстве случаев он примет неверное решение, даже если ему известны все условия. Кроме того, в случае пожара человек попытается его потушить, а в случае неудачи начнет спасать ребенка - это, скорее всего, лучшее решение. Однако, если ИИ обучается с «попыткой», количество неизвестных данных в какой-то момент превысит 99%, а не 50%.

Главный тезис о невозможности

Тогда теоретики утверждают, что в процессе длительного обучения ИИ найдет критерий оценки и сам примет правильное решение. Он сможет находить связи скрытых объектов и, таким образом, научится лечить болезни, находить черные дыры и регистрировать субатомные частицы - в общем, он будет делать научные открытия, потому что ИИ может постоянно анализировать данные и поэтому он может генерировать «интуитивный разум».

Можно сказать, что алгоритм не может измениться, его можно только указать, но разве изменения не лежат в основе «эволюции»? В узком техническом смысле, который нам подходит, эволюция подразумевает большую точность решения прикладных задач, основанную на более дифференцированном восприятии этих задач. Интернет «эволюционировал», когда появилось больше прикладных сервисов и больше прикладных функций в них. Для любой эволюции, в том числе биологической, необходимо новое восприятие задачи, новый подход, что справедливо и для научных открытий. Но для алгоритма не может быть ничего нового - у него есть только существующая база данных, и если эта база данных уже содержит все мировые знания, ИИ будет интеллектом. А как насчет сложных операций, которые ИИ уже выполняет? Не путайте ИИ с автоматизацией, и я не нашел никаких надежных источников, где бы робот делал операцию в полном объеме. В более или менее надежной «статье» буквально было написано: «Дюпон представляет себе автономных роботов, помогающих хирургам в сложных операциях, снижающих утомляемость и позволяющих хирургам сосредоточиться на самых сложных маневрах, улучшая результаты». Это означает, что помогал робот, а ИИ в данном случае выполнял одну специализированную функцию - определял, где он находится, а затем передавал управление хирургу.

Я отказался от аргументов, которые косвенно входят в вышеперечисленное, хотя чаще это теории о том, как ИИ будет работать, а не о его основном существовании - а это фантазии. С другой стороны, я старался не делать детских выводов о китайской комнате и следовал логике. Как вывод:

Невозможно создать обучающуюся систему обработки данных (то есть такую, которая будет постоянно улучшать точность выходных данных в ответ на максимально неизвестные входные), где количество неизвестных входных данных превышает 50% от существующих, которые будут основой обучения, и их качество обладает номинально бесконечной градацией атрибутов между любыми двумя элементами. Основные неудачи:

Алгоритмический предел.

В свете вышеизложенного можно сделать вывод, что создание искусственного интеллекта возможно, если вы обладаете метафизическими знаниями (в том числе о будущем) и умеете разрешать любые противоречия - хотя это утверждают сторонники постоянно происходящего существование.

  • Невозможность многофункциональной специализации, что будет противоречить самому себе.
  • Невозможность полагаться на статистику и гипотезы, потому что чем больше они выходят за рамки контекста, тем менее объективными становятся.
  • Невозможность создать «абстрактный» или «интуитивный» алгоритм, потому что абстракции и интуиция основаны на неизвестном, в то время как алгоритм принимает только четкие команды.
  • Непрерывное обучение не сделает ИИ лучше, оно заставит его двигаться по кругу и переучиваться, потому что критерием эффективных решений являются только конкретные ситуации, которые очень часто противоречат друг другу.
  • Антитезис. В нашем мире действительно есть закономерности и множество скрытых связей. Ученый, совершающий открытие, находит эти связи или обнаруживает влияние фактора, о котором раньше не знали. Таким образом, биолог ищет генетические и химические закономерности болезни, а физик ищет физические процессы в природных явлениях. Во всех этих случаях ученый изучает объект в соответствии с природой данных. Существуют разные методы исследования объектов квантового размера и больших физических объектов. Этот метод был разработан в соответствии с теорией относительности, которую само по себе безумно постичь. Эта теория была частично разработана на основе наблюдения последовательных закономерностей, но эти наблюдения также послужили основой для полностью неверных теорий эфира, господствовавших в 20-м веке. Точно так же теория лучей, выходящих из наших глаз и отражающихся от объектов, преобладала в 19 веке, как на это указывали закономерности. Открытия происходят тогда, когда возникает принципиально иная точка зрения - тогда последовательные модели обогащаются новым содержанием! Фактически, они становятся другими факторами: вчера бог дождя послал с неба капли дождя, а сегодня облако - это совершенно разные факты и логические содержания одного явления. Такие открытия человек делает в необычайном напряжении своего воображения и только после этого определяет закономерности. Мы можем создавать бесконечное количество фантазий из закономерностей и аномалий. ИИ может научиться определять или предсказывать те или иные заболевания на основе тестов, но он будет делать это только с очень конкретными данными в очень конкретном контексте. По сути, это автоматизация работы врача. ИИ никогда не сможет обнаружить принципиально новый фактор в болезни, потому что мы не сможем внести в нее представление о природе болезни. Почему? Потому что в абсолютном смысле мы сами не знаем природы какой-либо конкретной болезни. Если вы уверены, что «ученые знают», ответьте на простой вопрос: почему в одинаковых условиях один ребенок простужается, а другой - нет? После некоторого спора вы скажете, что у каждого человека есть своя «индивидуальность» - и это правильно. Но природа самой «индивидуальности» нам неизвестна, и поэтому мы знаем о болезни по крайней мере далеко не все. А это означает, что мы не можем ввести строгий критерий - он может только статистически сортировать различные связи заболевания, что потребует проверки (например, люди с длинными волосами болеют раком в возрасте 40–45 лет). Как сказано в колмогоровской сложности, алгоритм не может определить наилучший согласованный образец. Он может найти только скрытые из текущего набора данных.

Возможен ли сильный искусственный интеллект? Нет