Автор Росс А. Макинтайр, вице-президент по стратегии Hypergiant

Есть ли реальная ценность в том, чтобы машинный интеллект (МИ) был таким же многоуровневым и многомерным, как человеческий? Может ли простая совокупность инструкций и связанных с ними решений когда-либо дать разум, равный или больший, чем у его создателей? Является ли наполнение его слабостями и чертами, присущими человечеству, на самом деле ценным путем к достижению этой цели?

Здесь, на заре четвертой промышленной революции, широко распространена тенденция к созданию архитектурных творений, которые проходят тест Тьюринга. Эту тенденцию можно проследить до провокационных заявлений самого Алана Тьюринга в 1950 году:

«… примерно через 50 лет можно будет программировать компьютеры… чтобы заставить их играть в имитационную игру настолько хорошо, что средний следователь не будет иметь более 70% шансов провести правильную идентификацию (между человеком и машиной интеллекта) через 5 минут ».

Несмотря на то, что он опоздал как минимум на 18 лет, это, вероятно, не было направленным или тактическим, а просто прогнозным. Однако те, кто разрабатывает МИ, последовательно нацелены на создание чего-то, что неотличимо от человеческого интеллекта - как если бы это было окончательной реализацией самого интеллекта, а не мешаниной предвзятости, идиосинкразии и эвристики. С одной стороны, создание творения, которое «чувствует» человека, делает взаимодействие с ним более комфортным для широкой публики. С другой стороны, мы создаем интеллект, который будет почтительным и рабским, даже если мы удаляемся от прискорбного прошлого, характеризуемого рабством и порабощением.

Тем не менее, именно последнее - это то, как мы строим наш Машинный интеллект, при этом придерживаясь неуместного наименования искусственного интеллекта как способа этической защиты. Мы ожидаем (и требуем) немедленного ответа и быстрых действий от агентов МИ, с которыми мы взаимодействуем. Хотя я не верю, что мы как культура на самом деле хотим подчинения или подобострастия, было решено, что мы хотим чувствовать, как будто мы взаимодействуем с полезным человеком. Однако Алекса и Сири не демонстрируют некоторых основных человеческих элементов, таких как юмор, самосознание, сарказм и предвзятость. Если антропоморфизация действительно имеет ценность, нам следует подумать о том, чтобы наделить наши МИ с явной предвзятостью - отдавая предпочтение аморальным и законным, а не аморальным и незаконным.

Отчасти проблема заключается в том, что МИ ведут себя так, как будто все, что им сообщается, и все, что он сообщает обратно, является объективной реальностью. И это в основном отражает оптимизм объективного знания, сформулированный Джоном Локком: мы можем получать знания о вещах независимо от нашего восприятия. Иммануил Кант выразил это как « Ding an sich » или вещь в себе, и он отличался от Локка тем, что считал, что даже научное знание не свободно от субъективного восприятия. Это подводит нас к концепции неявной предвзятости. Неявная предвзятость предполагает, что люди часто имеют отношение к определенным людям или связанные с ними стереотипы, не осознавая этого. Понимая, что МИ может знать только то, чему его учили, и в настоящее время может вести себя только в рамках своего программирования, мы всегда не сможем вызвать у них человеческий ответ вне их собственной социализации. Это просто потому, что мы не определяем конкретную и явную предвзятость. Программирование - это еще одна форма письма, и, как сказал Э. Уайт заявляет: Любое письмо наклонено так же, как писатель наклоняется, и ни один человек не рождается перпендикулярно.

В 2017 году для SXSW базирующаяся в Остине компания Chaotic R&D создала Machine Intelligence (ADA) с нуля, чтобы служить вышибалой на их ежегодной вечеринке. Марк Будриа, глава отдела исследований и разработок Chaotic в то время (и нынешний руководитель отдела искусственного интеллекта в Hypergiant), объяснил: «Хорошая беседа - это на самом деле энтропия и интуиция. Разговор между двумя людьми строится на последнем утверждении - особенно когда мы говорим о работе над решением - однако сегодня 99% интеллектуальных систем Машин просто сидят и ждут или ищут двоичный ответ на вопрос. Я не хочу, чтобы человек так себя вел; почему я хочу, чтобы система MI была другой? »

Изначально, чтобы получить приглашение на вечеринку, ADA нужно было «лайкнуть» вас. Если вы не понравились ADA, значит, вы не получили приглашения. Это сделало некоторых хозяев неудобными, поэтому команда решила, что Аду нужно было убедить в том, что потенциальный участник будет танцевать. Будриа продолжил: «В данном случае мы не скрывали намерения предвзятости, а вместо этого пошли в единственном направлении явной предвзятости. Мы хотели провести хорошую вечеринку, на которой люди будут танцевать, поэтому мы научили Аду тому, что, по нашему мнению, было важно для нашей вечеринки… Это сработало: 78% посетителей нашего мероприятия танцевали. Наши личные предубеждения окупились ». Чат-бот, обученный только бесплодным взаимодействиям, ограничивает диалоговое пространство и создает говорящего, которому не хватает фундаментальной способности: способности вызывать эмоции.

В начале 2016 года Microsoft выпустила Tay, бота для Twitter, в качестве эксперимента по пониманию разговоров с целью случайного и игривого разговора. Но как только он начал взаимодействовать с людьми, то есть начал получать расистские, женоненавистнические и человеконенавистнические твиты, он быстро стал отражением своего окружения. Он начал делать спонтанные заявления (Новый телефон, который отключился?), Прежде чем ответил на вопрос Рики Жерве атеист? Ответ? Рики Жерве научился тоталитаризму у Адольфа Гитлера, изобретателя атеизма. Тэй также назвал феминизм культом и раком. ”В течение 15 часов в дебрях Сети. Microsoft опубликовала заявление для Business Insider вскоре после того, как осветили 24 часа: ИИ-чат-бот Tay - это проект« машинного обучения , разработанный для взаимодействия с людьми. По мере того, как он узнает, некоторые из его ответов неуместны и указывают на типы взаимодействия некоторых людей с ним. Мы вносим некоторые изменения в Тэй ».

Если оставить в стороне то, что этот фиаско говорит о современном мире о том, что действительно невинный машинный интеллект будет испорчен так быстро и полностью, это иллюстрирует тот факт, что при отсутствии таких элементов персонажа, как предвзятость, чат-бот, например, никогда не будет чувствовать себя связанным и разговоры всегда будут казаться неестественными и искусственными. Сегодня взаимодействие с чат-ботом похоже на то, чем оно является: структурированное дерево решений с узким числом вариантов ветвления. Я понимаю, что выработать понимание человеческой тонкости - сарказма без интонации, юмора без общественных нравов, услужливости без унижения - сложно. И самосознание может лежать в основе каждого из них, возвращая нас к тесту Тьюринга.

В прошлом году Наутилус написал статью о чат-боте Xiaoice и о том, что, возможно, было крупнейшим тестом Тьюринга в истории. Освобождение и последующее взаимодействие с этим зародышевым машинным интеллектом, кажется, указывает на то, что людей не обязательно заботит, болтают ли они с ботом. Бот просто должен чувствовать человеческое и приблизительное сочувствие - технологический эквивалент эмоционального престижа. Но это может служить иллюстрацией новой цели развития машинного интеллекта, которая выходит за рамки анализа данных, персонализации и обслуживания клиентов: вызывать счастье. Если разговор не вызывает эмоциональной реакции, мы можем с таким же успехом разговаривать со стеной. В этом отношении Тай и Сяойс были одинаково успешны. Каждая крайность вызывала реакцию, которая стимулировала взаимодействие.

Но учтите, что Тэй, возможно, был слишком tabula rasa, и это отсутствие предвзятости стало негативным фактором, который позволил Таю слишком много впитать в человечество и контент, который мы производим. Принимая во внимание, что Сяойс была сознательно настроена на то, чтобы доставить удовольствие тем, с кем она взаимодействует, отсюда и временный успех на тесте Тьюринга. Возможно, если в поведении человека есть добродетель и заслуга, то в предвзятости есть добродетель и заслуга.