Искусственный интеллект в кино почти всегда связан с искусственным «общим» интеллектом (AGI); человеческий интеллект. В оригинальном сериале «Звездный путь» персонаж Спок обладает почти суперсилой холодной, бесстрастной логики, то есть рассуждений, лишенных эмоций. Едва ли проходит серия, чтобы другой персонаж не сказал о логике Спока, не запятнанной эмоциями. Идея состоит в том, что «эмоция» нарушает «логику».

Разум имеет очевидные тактические преимущества. Это помогло нашим предкам найти пищу, отбиться от хищников и, в конце концов, изобрести лего. Со времен Просвещения, когда власть церкви начала уступать место силе науки, разум стал движущей силой оправдания, убеждения и часто угнетения. За прошедшие годы сила разума вошла в нашу речь и мысли. Быть неразумным - значит быть иррациональным. В «разумном» обществе эмоции противоположны разуму. Эмоции часто считаются беспорядочными и необоснованными. Это сила, которую нужно приручать или терпеть. Мы «уязвимы», когда мы эмоциональны, и слабы, когда мы уязвимы. Возможно, это частично объясняет, почему мы проектируем ИИ для прогнозирования и классификации, а не для «ощущения».

Теперь давайте рассмотрим разум и эмоции, пусть даже поверхностно, с точки зрения когнитивной психологии. Почему? Потому что мы не можем создать ИИ, подобный человеку, без понимания старого доброго человеческого интеллекта. Человеческий интеллект - огромная область, поэтому давайте рассмотрим его подмножество; этика. У большинства из нас есть какое-то понятие о «правильном» и «неправильном». Конечно, это социально и культурно детерминировано, но я считаю, что часть того, что порождает человеческую этику, - это сочувствие. Я знаю, что в психологической литературе есть технические определения эмпатии, но я считаю, что по своей сути эмпатия - это эмоциональная реакция на эмоциональные состояния других людей. Система правил может имитировать этику в упрощенной и ограниченной среде. Без сочувствия этика возвращается к системам, основанным на правилах, но эти подходы, на мой взгляд, слишком хрупки, чтобы справиться со сложностями принятия решений в реальном мире. Давайте посмотрим на один пример.

Одним из примеров подхода к этике, основанного на правилах, является проблема с троллейбусом (или проблема с автономным транспортным средством, если хотите). В задаче о троллейбусе гипотетический троллейбус вышел из-под контроля и мчится к развилке на путях. Вы (или ИИ) можете потянуть за рычаг, направляя неконтролируемую тележку по той или иной дорожке. На одном треке - один человек или группа людей, а на другом - другой человек или группа. Агент должен выбрать, по какому пути поедет троллейбус и, следовательно, в кого он ударит. Моральный вес может быть присвоен различным трекам, таким как «школьный автобус, полный детей» или «суицидальный человек». Подобные отвлекающие факторы изменяют динамику решения (или, что более вероятно, устраняют наши собственные социальные предубеждения).

Одним из основанных на правилах подходов к этому может быть утилитаризм Милля, который в основном предлагает оптимизацию для достижения наибольшего блага для наибольшего числа людей. Разработчик может закодировать это как серию правил если / чем. Утилитаризм - хрупкий подход к проблеме, потому что не каждую ситуацию разработчик может заранее закодировать. Попытка закодировать моральные суждения очень быстро усложняется, потому что в реальной этике почти всегда есть значительные серые зоны, в которых нет четких решений. Допустим, мы говорим о беспилотном автомобиле вместо троллейбуса. Должен ли автомобиль ставить безопасность пассажиров выше всего остального? (Как беспилотные автомобили Mercedes) Или автомобиль должен быть оптимизирован по стоимости? Как правила робототехники Азимова справятся с этой ситуацией? Может быть, стоит стремиться к препятствию с лучшим страховым покрытием? ИИ-персонаж HAL в фильме 2001 демонстрирует наихудший сценарий при объединении людей и агентов, когда он убивает своих коллег-людей, потому что они ставят под угрозу его миссию.

Так как же эмоции ИИ могут помочь? Позвольте мне прямо сказать, что я не эксперт в этом, но я думаю, что наличие некоторого понятия «эмпатия» (то есть эмоционального резонанса с другим) может обеспечить моральную основу для принятия решений. Что-то больше похоже на трансферное обучение, в котором агент ИИ может обобщить обучение из одной ситуации и применить его аспекты в другой аналогичной ситуации. Короче говоря, своего рода нечеткая эвристика, а не хрупкий жесткий набор правил.

Во-вторых, рассмотрите эмоции как способ придать ценность данным. Сильная эмоциональная реакция получателя может работать вместе с функцией вознаграждения в системе обучения с подкреплением. Возможно, определенное действие приносит высокую награду в системе RL, но вызывает крайне негативную эмоциональную реакцию (например, HAL может выполнить свою миссию, но для этого он должен убить свою команду людей). Это могло бы помочь, если бы ИИ использовал такую ​​систему для моделирования, оценки и выбора из ряда возможных действий.

Некоторые из первых шагов в этих областях были предприняты в таких местах, как Affective Computing Group в Media Lab Массачусетского технологического института. Также важны такие аспекты обработки естественного языка (НЛП), как анализ тональности. Но в целом аффективные вычисления не являются важной частью исследований ИИ как потому, что это сложно, так и потому, что они недооценены в культурном отношении (на мой взгляд). Возможно, что человеческий интеллект - полезное отвлечение наравне со строительством самолета с машущими крыльями. Настоящего прогресса в полётах не произошло, пока мы не отказались от биомимикрии птиц и не начали строить самолеты с неподвижным крылом. Точно так же человекоподобный ИИ может быть химерой, но я думаю, что наполнение ИИ эмоциями имеет решающее значение для безопасного и этичного ИИ будущего, независимо от того, как он выглядит.