Следующая статья изначально была размещена на Futurism.com.

Последние достижения в области искусственного интеллекта ясно показали, что наши компьютеры должны иметь моральный кодекс. Не согласны? Подумайте об этом: машина едет по дороге, когда ребенок на велосипеде внезапно поворачивает перед ней. Автомобиль съезжает на встречную полосу, врезаясь в другую машину, которая уже там находится? Автомобиль съезжает с дороги и врезается в дерево? Продолжает ли он двигаться вперед и поражает ребенка?

Каждое решение связано с проблемой: оно может привести к смерти.

Это прискорбный сценарий, но люди сталкиваются с такими сценариями каждый день, и если автономный автомобиль контролирует ситуацию, он должен иметь возможность сделать этот выбор. И это означает, что нам нужно выяснить, как запрограммировать мораль в наши компьютеры.

Винсент Конитцер, профессор компьютерных наук в Университете Дьюка, недавно получил грант от Института будущего жизни, чтобы попытаться выяснить, как мы можем создать продвинутый ИИ, способный выносить моральные суждения ... и действовать на них.

СОЗДАНИЕ НРАВСТВЕННОСТИ

На первый взгляд цель кажется достаточно простой - создать ИИ, который ведет себя этически ответственным образом; однако это намного сложнее, чем кажется на первый взгляд, поскольку в игру вступает огромное количество факторов. Как подчеркивается в проекте Конитцера, на моральные суждения влияют права (например, неприкосновенность частной жизни), роли (например, в семьях), прошлые действия (например, обещания), мотивы и намерения, а также другие морально важные особенности. Эти разнообразные факторы еще не встроены в системы искусственного интеллекта .

Это то, что мы пытаемся сделать сейчас.

В недавнем интервью Futurism Контизер пояснил, что, хотя общественность может быть обеспокоена тем, чтобы мошеннический ИИ не решил уничтожить человечество, такая вещь на самом деле не является реальной угрозой. настоящее время (и это ненадолго, долго). В результате его команда не заботится о предотвращении глобального роботизированного апокалипсиса, создавая самоотверженный ИИ, обожающий человечество. Скорее, на гораздо более базовом уровне они сосредоточены на том, чтобы наши системы искусственного интеллекта могли делать трудный моральный выбор, который люди делают ежедневно.

Итак, как создать ИИ, способный принимать трудные моральные решения?

Контизер объясняет, что для достижения своей цели команда следует двухстороннему процессу: заставить людей делать этический выбор, чтобы найти закономерности, а затем выяснять, как это можно преобразовать в искусственный интеллект. Он поясняет: «Сейчас мы работаем над тем, чтобы люди на самом деле принимали этические решения или заявляли, какое решение они бы приняли в данной ситуации, а затем мы используем машинное обучение, чтобы попытаться определить общую закономерность и определить, в той степени, в которой мы могли воспроизводить такие решения ».

Короче говоря, команда пытается найти закономерности в нашем моральном выборе и воплотить его в системах ИИ. Контизер отмечает, что на базовом уровне все сводится к прогнозированию того, что человек будет делать в данной ситуации, «если мы сможем очень хорошо предсказывать, какие решения люди принимают в подобных этических обстоятельствах, что ж, тогда, мы могли бы принимать эти решения сами в форме компьютерной программы ».

Однако одна из основных проблем здесь заключается в том, что мораль необъективна - она ​​не вечна и не универсальна.

Контизер формулирует проблему, обращаясь к предыдущим десятилетиям: «Если бы мы провели те же этические тесты сто лет назад, решения, которые мы получили бы от людей, были бы гораздо более расистскими, сексистскими и всеми другими вещами, которые мы бы не приняли. теперь смотреть как «хорошо». Точно так же прямо сейчас, возможно, наше моральное развитие еще не достигло своего апогея, и через сто лет люди могут почувствовать, что некоторые вещи, которые мы делаем прямо сейчас, например, как мы относимся к животным, полностью аморальны. Так что есть своего рода риск предвзятости и застревания на каком бы то ни было уровне нашего морального развития ».

И, конечно же, существует вышеупомянутая проблема, касающаяся сложности морали. Чистый альтруизм, с которым очень легко справиться в теории игр, но, возможно, вы чувствуете, что что-то мне задолжали, основываясь на предыдущих действиях. Этого не хватает в литературе по теории игр, поэтому мы тоже много думаем об этом - как сделать это, то, что теория игр называет «концепцией решений - разумным? Как вы можете вычислить эти вещи? »

Чтобы решить эти проблемы и помочь выяснить, как именно мораль функционирует и может (надеюсь) быть запрограммирована в ИИ, команда объединяет методы из информатики, философии и психологии. примерно », - утверждает Контизер.

Но что насчет разумного ИИ? Когда нам нужно будет начать о них беспокоиться и обсуждать, как их следует регулировать?

ЧЕЛОВЕЧЕСКИЙ ИИ

По словам Контизера, искусственного интеллекта, подобного человеческому, не будет в ближайшее время (ну да ладно! Никакого апокалипсиса в стиле Терминатора… по крайней мере, в ближайшие несколько лет).

«В последнее время был сделан ряд шагов в направлении такой системы, и я думаю, что было много удивительных достижений…. Но я думаю, что наличие чего-то вроде« настоящего ИИ », действительно такого же гибкого, способного к абстрагированию, и делать все то, что люди делают так легко, я думаю, мы еще очень далеки от этого », - утверждает Контизер.

Конечно, мы можем запрограммировать системы на выполнение множества вещей, которые люди делают хорошо, но есть некоторые вещи, которые чрезвычайно сложны и трудны для преобразования в шаблон, который компьютеры могут распознать и на основе которого в конечном итоге основа всего ИИ).

«Из ранних исследований ИИ, первых двух десятилетий исследований ИИ стало то, что некоторые вещи, которые мы считали реальными эталонами интеллекта, например умение хорошо играть в шахматы, на самом деле были вполне доступны для компьютеров. Было нелегко написать и создать программу для игры в шахматы, но это было выполнимо ».

Действительно, сегодня у нас есть компьютеры, которые могут обыграть лучших игроков мира во множестве игр - например, Шахматы и Alpha Go.

Но Конитцер поясняет, что, как выясняется, игры не совсем подходят для измерения человеческого интеллекта. Или, по крайней мере, в человеческом уме гораздо. «Между тем мы узнали, что другие задачи, которые были очень просты для людей, на самом деле были довольно трудными для компьютеров или для их программирования. Например, узнать свою бабушку в толпе. Вы могли бы сделать это довольно легко, но на самом деле очень сложно запрограммировать компьютер так, чтобы он распознавал вещи так хорошо ».

С первых дней исследований ИИ мы создавали компьютеры, способные распознавать и идентифицировать определенные изображения. Однако, если подвести итог, можно сказать, что чрезвычайно сложно запрограммировать систему, которая способна делать все из того, что могут делать люди, поэтому пройдет некоторое время, прежде чем мы получим ' настоящий ИИ ».

Тем не менее, Конитцер утверждает, что сейчас пора начать размышлять о том, какие правила мы будем использовать для управления таким интеллектом. «Это может быть немного дальше, но для компьютерных ученых это означает, может быть, порядка десятилетий, и определенно имеет смысл попытаться подумать об этих вещах немного вперед». И он отмечает, что, хотя у нас пока нет роботов, похожих на людей, наши интеллектуальные системы уже делают моральный выбор и потенциально могут спасти или положить конец жизни.

«Очень часто многие из этих решений, которые они принимают, действительно влияют на людей, и нам может потребоваться принять решения, которые мы обычно будем рассматривать как морально нагруженные решения . И стандартный пример - это беспилотное вождение. автомобиль, который должен решить: либо ехать прямо и врезаться в машину впереди него, либо свернуть и, возможно, поранить пешехода. Как вы идете на эти компромиссы? И я думаю, что в этом мы действительно можем добиться некоторого прогресса. Для этого не требуется сверхразумный ИИ, это могут быть просто программы, которые разными способами идут на компромисс ».

Но, конечно, чтобы знать, какое решение принять, сначала необходимо знать, как действует наша мораль (или, по крайней мере, иметь довольно хорошее представление). Оттуда мы можем начать программировать, и это то, что Контизер и его команда надеются сделать.

Итак, добро пожаловать на заре моральных роботов.

Это интервью отредактировано для краткости и ясности.

Первоначально опубликовано на сайте futureoflife.org 6 июля 2016 г.