Нужно ли нам дегуманизировать искусственный интеллект?

Интервью с ведущим экспертом по искусственному интеллекту Джоанной Брайсон о чрезмерном антропоморфизме искусственного интеллекта, предвзятости и системном дизайне для безопасного искусственного интеллекта.

«Решения принимает не ИИ. Именно люди решают возложить ответственность за решения на ИИ, и это то, что они затем контролируют».

Джоанна — адъюнкт-профессор искусственного интеллекта в Университете Бата и член Принстонского университета. Она работала в различных областях, таких как естественный интеллект, культура, религия, а также интенсивно занималась проектированием интеллектуальных систем. Ее первый опыт работы с ИИ относится к середине 80-х годов.

Мне посчастливилось поговорить с Джоанной в течение часа, чтобы узнать больше о ее глубоком опыте и точках зрения.

Не могли бы вы немного рассказать нам о себе? Как вы пришли к ИИ?

«Мне действительно нравится программировать; Мне нравится тот факт, что вы можете создавать миры и творческие аспекты этого. Приятно иметь обе части в своей работе».

Моя первая степень — наука о поведении, разновидность неклинической психологии. Это было в Чикагском университете, и это была степень по гуманитарным наукам, которая была общей для всех факультетов социальных наук. Это то, что меня действительно заботило, я хотел понять интеллект животных, но, поскольку люди тоже довольно интересные животные, я изучал все эти вещи. При этом я был действительно хорошим программистом. Я думаю, что на самом деле с моей стороны было консервативным решением делать то, в чем я был чрезвычайно хорош, и сочетать это с тем, что меня действительно интересовало.

Часто люди очеловечивают искусственный интеллект, что противоречит вашей точке зрения, поскольку вы подчеркиваете, что искусственный интеллект есть и всегда будет чем-то совершенно отличным от человеческого…

Да, есть два принципиальных отличия.

Во-первых, искусственный интеллект по определению является артефактом. Что-то, что мы преднамеренно разработали, и даже если мы решим разработать его, время от времени бросая кости, это не уменьшает нашей ответственности.

Другое фундаментальное отличие заключается в том, что мы пока не строим его путем клонирования. Все, что я говорю, не относится к клонированию, биологической инженерии и тому подобному. Я просто говорю о том, что когда вы строите систему из проводов и кремния, то феноменологически вы никогда не получите того же самого. Вы никогда не получите что-то настолько близкое к нам, как корова, крыса или, возможно, даже плодовая муха, потому что у них гораздо больше общего с точки зрения архитектуры и с точки зрения обработки информации, того, как они взаимодействуют с миром, в котором мы находимся, чем что-либо еще. которую мы построили из проводов и кремния.

Мы едим животных; мы их отравляем. Я только что читал об отравлении крыс в Вашингтоне, округ Колумбия, потому что, по-видимому, это всплеск. Мы делаем с животными всевозможные вещи, и некоторые думают, что вы не должны этого делать, но дело в том, что, если мы даже не можем решить, как правильно обращаться с крысами и мышами, зачем нам теперь возвращаться в другом направлении?

Зачем нам разрабатывать что-то, что нуждается в такой же защите, как крысы и милые?

ИИ — это то, что мы построили, и пока мы создаем то, что мы можем поддерживать, то, за что мы можем нести ответственность, у нас никогда не будет чего-то, что испытывает стресс, боль и подобные вещи так систематически, как люди. Было бы очень плохой идеей сделать это.

Теперь вы можете построить робота и заложить в него бомбу. Можно поставить датчик и часы и сказать: ладно, если я не видел никого другого в течение пяти минут, я взорву себя. Вы могли бы сделать это, и вы могли бы сказать, что это даже хуже, чем быть человеком, потому что, когда мы идем в одиночную камеру, это для нас пытка, но мы выживаем, а этот робот взрывается через пять минут, а робот не буду заботиться. Это отдельный кусок. Это не тот опыт одиночного заключения, который есть у человека.

В то время как мы чрезмерно антропоморфизируемся, мы в основном позволяем людям эксплуатировать себя. Например, я ненавижу тот факт, что люди говорят об умных колонках, когда они являются умными микрофонами.

Как бы вы их назвали?

Вы знаете 1984 год? Один из моих друзей Джейсон Ноубл сказал, что мы должны называть их телекранами.

Я бы назвал их персональными цифровыми помощниками, как мы привыкли называть что-то вроде смартфона. Первые смартфоны не были подключены к сети, но мы просто записывали на них информацию.

Дело в том, что у вас есть персональный цифровой помощник, это не личное, потому что вы не знаете, как часто им пользуются другие люди, и я очень надеюсь, что одна из вещей, которую мы делаем (я вижу некоторые признаки об этом) заставляет людей думать, что интернет вещей — это хорошая идея.

Я был на заседании Европейской комиссии в Софии, цифровая ассамблея и восточноевропейские политики полностью это понимают. Объединение мира воедино означает, что вы позволяете соседнему хакеру проникнуть в мир, поэтому вам нужно быть очень осторожным в том, как вы создаете вещи. Если у вас была одна программа, которая отвечала за, например. электросеть, тогда она становится единственной точкой, которую можно скомпрометировать, либо взломав ее напрямую, либо поняв, как она работает, а затем как бы эксплуатируя ее, перемещаясь вокруг нее. Вы бы предпочли гетерогенную систему.

Еще одна вещь, которая действительно важна, заключается в том, что вся наша культура и все наши концепции, такие как справедливость, наказание и ответственность, — это то, что мы разработали, чтобы поддерживать существование нашего вида. Это не то, что просто существует в мире; это инновации, которые мы используем и постоянно обновляем.

Я не могу поверить, как много людей думают, что справедливость — это нечто исконное состояние мира. В прошлом году у меня вышла статья, в которой показано, что сексизм и расизм можно найти в любом искусственном интеллекте, обученном простому языку. Некоторые люди говорят, просто добавьте случайный шум.

Добавление случайного шума ничего не исправляет, а только уменьшает сигнал. Он возвращает ее к энтропии, но жизнь — не энтропия. Энтропия — это противоположность жизни. Жизнь — это структура и порядок, например, справедливость — это наша постоянная попытка упорядочить жизнь таким образом, чтобы мы все могли получить пользу. Справедливость — это идеал, который не является естественным. Люди не рождаются одинакового роста, с одинаковой силой, с одними и теми же родителями и с одним и тем же полом, у всех нас есть очень физические различия, и ментальное является частью — продолжением — физического.

Мы разные, и тогда справедливость заключается в том, как мы справляемся с этими различиями так, как это лучше всего для общества в целом, и это постоянно меняющийся набор компромиссов, на которые мы идем.

Что нам нужно сделать в ближайшие пять-десять лет, чтобы убедиться, что мы разрабатываем безопасный ИИ, расширяющий наши возможности? ИИ принимает многие решения, и у всех нас разные ценности и мы происходим из разных культур. Как мы можем учесть это при разработке ИИ?

«Искусственный интеллект — это всего лишь технология, которую мы можем использовать плохо или хорошо»

Решения принимает не ИИ. Именно люди решают возложить ответственность за решения на ИИ, и это то, что они затем контролируют. Они могут изменить ИИ и изменить решения.

Это не ИИ; мы ведем переговоры не с другим видом или другой страной. Скорее важно понять, что искусственный интеллект — это то, что у нас есть уже давно; на протяжении десятилетий мы использовали цифровые компьютеры, и это один из инструментов в нашем наборе инструментов, и нам нужно получить четкое представление об этом. Нам нужно начать говорить об этом.

Опять же, это одна из огромных опасностей антропоморфизации, вы буквально получаете умных, благонамеренных людей, которые сидят там, пытаясь защитить права ИИ или действительно хотят построить это будущее, где нас вытеснит ИИ, а они нет. понимая, что, во-первых, это невероятно технологически неправдоподобно, а во-вторых, как вы бы сказали, в следующие тридцать лет или около того почти наверняка просто приведут к тому, что больше людей будет убито и уничтожено. Правительство, корпорации или богатые люди будут рассматривать людей как неважные аспекты, которым они не нужны как часть их плана.

ИИ используется как щит, который буквально является подставной компанией, позволяя людям делать то, что они действительно хотят, и перенаправлять внимание на некоторые машины.

Искусственный интеллект — это просто технология, которую мы можем использовать плохо или хорошо. Нам нужно ответить на те же вопросы, что и в отношении других потенциально опасных технологий; например Как правильно хранить химическое оружие? Как правильно развернуть ядерную энергетику, следует ли вообще не размещать ядерную энергетику или, может быть, это действительно важно с экологической точки зрения? Подобные решения — это те же решения, которые мы должны принимать, когда говорим не только об искусственном интеллекте, но и о конфиденциальности данных и кибербезопасности. Это относится к ИКТ в целом. ИИ — это всего лишь один инструмент в наборе инструментов.

Мы взаимодействуем с ИИ более личным образом. А как насчет эмоциональных связей?

Даже если у вас есть робот, который действительно является вашим лучшим другом; к которому вы очень эмоционально привязаны, вы можете потребовать, чтобы этот робот был подкреплен. Тогда вам не придется беспокоиться, например, если будет пожар или что-то в этом роде. Вы просто оставляете его, а затем покупаете другого робота и получаете резервную копию.

Даже если вы решите создать эмоциональную связь с машиной, а не с людьми, которые действительно могут помочь вам в долгосрочной перспективе. Это ваше личное решение, но вы можете потребовать, чтобы у вас не было такого разоблачения, и я думаю, что это реальная проблема.

Когда у нас было наводнение в Новом Орлеане, нужно было решить, сколько ресурсов и расходов вы выделите, чтобы попытаться убедиться, что с собаками и кошками все в порядке, но собаки и кошки ведут себя так же, как люди, они действуют эмоционально, физически, очень похожие вещи, но проблема в том, что у нас очень мало ресурсов. Как нам убедиться, что детей не осталось, прежде чем мы начнем спасать собак? Кроме того, семьи не придут без своих собак. То же самое произошло с Сэнди здесь, на восточном побережье; животные остались позади, и они голодали, и люди были очень обеспокоены этим.

Почему мы должны ставить себя в такую ​​ситуацию с технологией, которая разработана таким образом, чтобы у нас не возникало подобных проблем?

Понимая опасности, связанные с ИИ, расскажите нам о своей кандидатской диссертации. тема в начале 90-х и как она связана с безопасностью ИИ?

«Ошибка, которую совершают такие люди, как Ник Бостром, заключается в том, что если вы на самом деле строите систему, то вероятность того, что она превратит мир в скрепки, равна нулю… если система вообще автономна, она автономна на уровне ваших гарантированных приоритетов. быть в нем…»

Одной из вещей, о которой люди говорили, даже когда я был студентом, была модульность. Например, когда вы за рулем, вы как бы другой человек, чем когда вы пешеход, потому что у вас такие разные взгляды. Кажется, что у вас есть эти отдельные разделы вашего разума, вы не просто одна большая вещь.

Об этом тогда говорили даже философы. Когда я профессионально занимался программированием между получением степени бакалавра и получением докторской степени. люди начали понимать, что, может быть, вам не нужен один большой мэйнфрейм, может быть, вы можете иметь кучу разных компьютеров и создавать что-то вроде сети. Теперь это, очевидно, называется облаком, но в то время это была такая большая вещь, когда люди говорили: «О, да, клиенты, сервер, архитектура… может быть, мы сможем получить некоторые вычисления, выполняющие различные специализированные задачи на основе имеющегося оборудования».

Затем, когда я получил степень магистра и увидел, чем занимается Родни Брукс и куча других людей, пока я был в Эдинбурге, они были в восторге от его работы. Это называлось дизайном, основанным на поведении, и идея заключалась в том, чтобы вместо того, чтобы пытаться построить что-то такое же сложное, как человек, вы строили относительно простые модули, и каждый модуль воспринимал то, что ему нужно было воспринимать, чтобы делать то, что он должен. необходимо сделать.

Дизайн, ориентированный на поведение (BOD) — это методология разработки, которую я разработал во время моей докторской диссертации для создания сложных, полных агентов, таких как персонажи виртуальной реальности, автономные роботы, интеллектуальные наставники или интеллектуальные среды. Агенты BOD представляют собой модульные, а не многоагентные системы.

Еще одна вещь, которую я понял, заключалась в том, что вам нужна память не только для того, чтобы иметь интеллект, но также имеет смысл, что это ядро ​​​​модуля. Одна из вещей, которая определяет, когда вам нужен модуль, — это то, какая информация вам нужна для восприятия и действия. Однако другой компонент, который пришел в игровую индустрию, заключался в том, как вы выполняете арбитраж между этими модулями.

Как только вы что-то разобрали на части, одна из проблем состоит в том, как собрать это снова, вам нужно последовательное поведение. Тем не менее, есть определенные вещи, которые вы можете делать просто автономно, например, рефлекс, чтобы избежать огня, довольно много того, что должен делать любой организм. Существуют определенные виды ресурсов, такие как ваше физическое местоположение, которые полностью определяются всеми модулями. Именно тогда я создал то, что сейчас называется деревьями поведения. Мы назвали его P.O.S.H. (Выбор иерархического действия с параллельным корнем, упорядоченным скользящим стеком).

Основная идея заключалась в том, что вы хотите использовать объектно-ориентированный дизайн (стандартная разработка программного обеспечения), но единственное, что вам действительно нужно сделать по-другому для ИИ, — это указать, каковы приоритеты в системе, потому что система ИИ является проактивной. Это то, что на самом деле должно распознавать контекст, в котором оно собирается действовать, и действительно, оно должно действовать по гомеостатическим причинам. Он должен действовать, потому что знает, что должен что-то сделать, у него есть цель.

У меня были бумаги в конце моей докторской степени. Говоря о том, как это действительно важно для безопасного ИИ, если у вас обучение происходит только в модулях, есть предел тому, насколько злой или чем может стать система ИИ.

На самом деле меня не беспокоил злой ИИ, но я беспокоился о том, что не смогу гарантировать, например, что он будет знать, как убежать от огня или чего-то еще.

Таким образом, вы должны были иметь определенные высокие приоритеты в отношении обеспечения относительно детерминированной системы. Даже если вы используете машинное обучение, его также можно использовать детерминированным образом, потому что у него могут быть границы, вокруг которых вы не позволяете системе обновлять свое обучение. Если кажется, что он не будет соответствовать рекомендациям по производительности, вы можете построить детерминированные заборы вокруг системы, которые пытаются улучшить один аспект того, что система делает.

Ошибка, которую совершают такие люди, как Ник Бостром, заключается в том, что если вы на самом деле создаете систему, то вероятность того, что она превратит мир в скрепки, равна нулю. Его беспокоит согласование между приоритетами высокого уровня и тем, что происходит с нижними уровнями, но вы не даете полной автономии нижним уровням. Если система вообще автономна, она автономна на уровне ваших приоритетов, которые гарантированно будут в ней, и их частей, которые уходят, чтобы узнать, как лучше что-то сделать. Если остальная часть системы, которая обычно для любого ИИ включает людей, заметит, что нет повторного потребления металла или чего-то еще, тогда она отключит эту часть системы.

Можете ли вы привести пример, иллюстрирующий это? Вы говорите, что вместо одной системы, которая может работать автономно, вы разрабатываете модульную систему с различными компонентами, которые контролируют друг друга и, таким образом, систему…

Мы все хотим жить в обществе, которое, по крайней мере, достаточно стабильно, чтобы мы могли планировать компанию, семью или что-то еще.

Одним из примеров является биткойн. Первоначально никто не ожидал, что Биткойн будет потреблять столько энергии, сколько имеет, но теперь все пытаются выяснить, как это регулировать. Это проблема в некоторой степени саморегулирующаяся, потому что люди не могут позволить себе такую ​​власть.

У власти есть цена, поэтому до тех пор, пока не будет бесконечного значения, которое будет произвольно присвоено схеме Понци, которой является Биткойн, тогда будет ограничение на то, сколько энергии он сможет купить.

Однако кажется, что есть и другие регулирующие силы, которые могут каким-либо образом прийти и сказать; вы, ребята, не платите свою справедливую долю за ущерб окружающей среде, который вы наносите, и тогда они могут быть вынуждены фактически, и, возможно, не только они, но все среды, все потребители энергии могут внезапно начать обнаруживать себя в результате разговора, который был о Биткойне, фактически платя более подходящую сумму денег за инфраструктуру, которую они разрушают, глобальную инфраструктуру.

Дело в том, что вы можете потерпеть неудачу, но это потому, что в это вовлечены люди. Это называется осознанным обнаружением ошибок. Это осознание того, что не всегда все идет как надо. Следовательно, основная вещь, которую вы должны сделать при структурировании системы, — убедиться, что вы создаете компоненты, которые проверяют наличие других компонентов. На самом деле, это более простой способ построить мощную систему, поскольку у вас есть простые компоненты, которые обнаруживают, когда другие компоненты выходят из строя.

Я не говорю, что это обязательно правда, что все работает так хорошо. Были очень хорошие примеры корпораций и различных других организаций, которые нанесли огромный ущерб миру. Дело не в том, что мир совершенно безопасен и ничего не может случиться, а в том, что существуют процессы, которым мы можем следовать и которые значительно повышают вероятность того, что мы поймаем эти процессы на ранней стадии и предотвратим причинение ими большого ущерба.

Это одна из вещей, над которой я сейчас много работаю, — это просто попытка сообщить законодательным органам, что вы можете привлекать к ответственности людей, использующих искусственный интеллект.

Я также разговариваю с компаниями; Две недели назад я разговаривал с Microsoft и Google об этом, и я ожидаю, что это будет происходить по трубам.

Вы больше не будете просто ссылаться на любую произвольную библиотеку программного обеспечения, которую вы загрузили из Интернета, и вы не знаете ее происхождения, и вы не знаете, кто взломал ее или что-то еще.

Скорее вам нужно будет показать, какую версию программного обеспечения вы использовали и какую версию библиотеки данных вы используете для обучения машинному обучению, и какие у вас были процедуры. Если у вас нет таких записей, вы не сможете доказать должную осмотрительность, и вы будете нести ответственность за любой ущерб, причиненный вами или другими людьми с вашим программным обеспечением.

Это не уникальный подход. Если вы посмотрите на такие вещи, как медицина или автомобильная промышленность, где уже есть хороший опыт разработки ИИ и документирования процесса, и у них есть множество ИИ. Все говорят о беспилотных автомобилях, но у каждого производителя автомобилей есть множество ИИ, пытающихся улучшить впечатления от вождения и сделать автомобиль более безопасным, и они уже задокументировали это, это не невозможно. Это даже не так уж сложно, и когда вы тщательно подходите к разработке программного обеспечения, вам потребуется немного больше времени, чтобы выйти на рынок, но также гораздо проще поддерживать и расширять свой код.

Я думаю, нам нужно повзрослеть. Например, в архитектуре того времени вы могли просто построить здание где угодно, и это создавало различные виды хаоса для движения в городах, а иногда здания просто рушились на людей и убивали их. То, что у вас есть сейчас, это то, что студенты, получающие архитектурное образование, узнают, как разговаривать с людьми, которые занимаются градостроительным планированием, и они собираются получить лицензию и узнают, как получить лицензию, и здания будут проверены.

Я думаю, что мы вполне можем оказаться в таком положении, и это не означает конец IP. Медицина жестко регулируется, тщательно проверяется, но у нее в десять раз больше интеллектуальной собственности, чем у программного обеспечения и технологической индустрии. Я думаю, мы просто собираемся определить процессы, посредством которых мы разрабатываем вещи. Все меняется, и это хорошо для нашего общества.

Мы все хотим жить в обществе, которое, по крайней мере, достаточно стабильно, чтобы мы могли планировать компанию, семью или что-то еще.