Недавняя статья бросает вызов гуманизации ИИ и машинного обучения; давайте пересмотрим сравнения с человеческими способностями

Ирвинг Владавски-Бергер

Мы говорим о машинах, которые думают, учатся и делают выводы. Само название дисциплины - искусственный интеллект - практически заставляет нас сравнивать наши человеческие способы мышления с поведением алгоритмов , - пишет докторант Оксфорда Дэвид Уотсон в своей недавно опубликованной статья Риторика и реальность антропоморфизма в искусственном интеллекте. «Однако, несмотря на соблазн вернуться к антропоморфным тропам при обсуждении ИИ, я прихожу к выводу, что такая риторика в лучшем случае вводит в заблуждение, а в худшем - совершенно опасна.

Стремление к гуманизации алгоритмов является препятствием для правильного осмысления этических проблем, связанных с новыми технологиями ».

Что мы подразумеваем под интеллектом? В 1994 г. Wall Street Journal опубликовал определение, которое отразило консенсус 52 ведущих академических исследователей в областях, связанных с интеллектом: «Интеллект - это очень общая умственная способность, которая, среди прочего, включает способность рассуждать, планировать, решать проблемы, мыслить абстрактно, понимать сложные идеи, быстро учиться и учиться на опыте. Это не просто книжное обучение, узкие академические навыки или умение сдавать экзамены.

Скорее, он отражает более широкую и глубокую способность понимать наше окружение - «улавливать», «понимать» вещи или «выяснять», что делать ». Это очень хорошее определение общего интеллекта - типа интеллекта, который давно измеряется в тестах IQ и который в обозримом будущем будет иметь только человек.

С другой стороны, специализированный интеллект - способность эффективно решать четко определенные, конкретные цели в данной среде - это своего рода ориентированный на выполнение задач интеллект, который является частью многих человеческих работ. За последние несколько лет наши все более умные машины стали достаточно опытными в решении множества таких специализированных интеллектуальных задач. Технологии искусственного интеллекта приближаются или превосходят человеческие возможности в отношении зрения, распознавания речи, языкового перевода, раннего обнаружения и диагностики различных форм рака и других возможностей, которые когда-то считались исключительной сферой деятельности человека.

Машинное обучение сыграло центральную роль в последних достижениях искусственного интеллекта. Машинное обучение выросло из проведенных десятилетиями исследований нейронных сетей, метода, позволяющего машинам учиться на данных, которые слабо смоделированы по образцу биологического мозга, состоящего из больших кластеров тесно связанных нейронов, которые учатся решать проблемы. Каждый узел в нейронной сети AI связан со многими другими такими узлами, и связи могут быть статистически усилены или ослаблены на основе данных, используемых для обучения системы. Самые последние достижения в области искусственного интеллекта основаны на алгоритмах глубокого обучения, мощном статистическом методе классификации шаблонов с использованием очень больших наборов обучающих данных и многослойных глубоких нейронных сетей, где каждый последующий уровень использует выходные данные предыдущего уровня в качестве входных.

«Даже термин нейронные сети… вызывает изображения машины, похожей на мозг, принимающей решения», - отмечает Уотсон.

Но, вдохновленный анатомией человеческого мозга, он пишет, что глубокие нейронные сети (DNN) хрупкие, неэффективные и близорукие, когда их производительность сравнивается с реальным человеческим мозгом.

Определение глубоких нейронных сетей

Хрупкий. DNN легко обмануть, слегка изменив обучающие входные данные. В статье приводится ряд примеров, когда после добавления небольшого количества шума к обучающему изображению алгоритмы глубокого обучения были обмануты, чтобы ошибочно обозначить панду как гиббона, ошибочно классифицировать зебр как лошадей, бананы как тостеры и другие абсурдные комбинации. Людей не обманули бы небольшие искажения обучающих образов, потому что мы гораздо более устойчивы к таким незначительным изменениям. Это важное различие между биологическими и искусственными нейронными сетями представляет собой серьезную проблему для применимости DNN в критических областях, таких как клиническая медицина и автономные транспортные средства.

Неэффективно. Глубокие нейронные сети требуют больших объемов данных и неэффективны, требуя огромного количества обучающих примеров для изучения различий, которые человек сразу же обнаружит очевидными. Интеллект человеческого уровня требует способности выходить за рамки алгоритмов глубокого обучения и данных. Люди могут создавать модели мира, как они его воспринимают, включая повседневные знания здравого смысла, а затем использовать эти модели для объяснения своих действий и решений. Трехмесячные младенцы имеют более практическое понимание окружающего мира, чем любое приложение искусственного интеллекта, созданное когда-либо. Приложение ИИ начинается с чистого листа, прежде чем учиться на закономерностях в данных, которые оно анализирует, в то время как младенцы начинают с генетической форы, полученной за миллионы лет эволюции, и структуры мозга, которая позволяет им узнавать гораздо больше, чем данные и закономерности. .

Люди могут изучить абстрактные отношения с помощью нескольких испытаний, - написал профессор Нью-Йоркского университета Гэри Маркус в недавней статье. В настоящее время в глубоком обучении отсутствует механизм для изучения абстракций посредством явных словесных определений, и он работает лучше всего, когда существуют тысячи, миллионы или даже миллиарды примеров обучения. При обучении через явное определение «вы полагаетесь не на сотни, тысячи или миллионы обучающих примеров, а на способность представлять абстрактные отношения между переменными, подобными алгебре.

Люди могут изучать такие абстракции как с помощью явных определений, так и с помощью более неявных средств. Действительно, даже семимесячные младенцы могут это сделать, усвоив выученные абстрактные языковые правила из небольшого количества примеров без ярлыков всего за две минуты ».

Близорукость. Глубокое обучение оказалось на удивление близоруким по сравнению с человеческим познанием. Он может видеть много отдельных деревьев, но не может разглядеть весь лес. Например, при классификации изображений алгоритмы глубокого обучения ищут общие черты в промежуточных слоях анализируемых изображений, не понимая взаимосвязей между этими функциями. Таким образом, в то время как человек может инстинктивно сказать, что облако, которое может иметь форму и черты собаки, не является настоящей собакой, алгоритм глубокого обучения не сможет отличить выглядеть как что-то и на самом деле быть этой штукой.

Эти несоответствия предполагают, что по сравнению с биологическим мозгом в искусственных нейронных сетях отсутствуют важные компоненты, необходимые для навигации в реальном мире.

Новые способы вывода

«Было бы ошибкой утверждать, что эти алгоритмы воссоздают человеческий интеллект; вместо этого они вводят новый способ вывода, который превосходит нас в некоторых аспектах и ​​уступает в других… », - отмечает Уотсон. «Однако проблемы возникают, когда мы начинаем воспринимать эти метафоры и аналогии слишком буквально», особенно в таких областях, как уголовное правосудие, оценка кредитоспособности и военные операции, которые «предполагают принятие решений с высокими ставками и значительным влиянием на жизнь участников».

Традиционно мы полагаемся на экспертов-людей для вынесения таких важных и рискованных решений по трем основным причинам: точность - эксперты должны иметь возможность минимизировать серьезные ошибки; доверие - нам нужно доверять рассуждениям, которые используются при принятии таких важных решений; и моральная ответственность - эксперты несут ответственность за свои решения и действия. Может ли искусственный мозг проявлять эти качества?

Правдоподобно можно сказать, что ИИ соответствует качеству точности, утверждает Уотсон, хотя «степень, в которой ИИ действительно соответствует или превосходит человеческие возможности, - это эмпирический вопрос, который необходимо решать в каждом конкретном случае. основу. " Доверие более проблематично, потому что доводы, лежащие в основе решения о глубоком обучении, - тонкие корректировки числовых весов, которые связывают огромное количество искусственных нейронов, - трудно объяснить, потому что они сильно отличаются от рассуждений, используемых людьми. . Наконец, хотя можно сказать, что алгоритмы несут ответственность за свои результаты, возлагать на них какую-либо моральную ответственность нет никакого смысла в обозримом будущем.

«Алгоритмы могут осуществлять свое (искусственное) действие только в результате социально сконструированного контекста, в котором мы намеренно передаем на аутсорсинг некоторые задачи машине… Более продуманный и всеобъемлющий подход к концептуализации этических проблем, создаваемых ИИ, требует правильного понимания, а не только о том, как работают эти алгоритмы - об их сильных и слабых сторонах, их возможностях и ограничениях - но о том, как они вписываются в более широкую социотехническую структуру.

Антропоморфный импульс, столь распространенный в дискурсе об ИИ, в этом отношении явно бесполезен ».

Впервые опубликовано 3 февраля 2020 г. здесь.