Искусственный интеллект легко испугать.

Не о тех — я тоже не решаюсь выбрать определение, чтобы оно не звучало слишком грубо — фантазии о том, что ИИ может расти, чтобы захватить мир, и у него нет ничего более полезного, чем уничтожить человечество. Я бы не хотел, чтобы это звучало подло, потому что не страх заслуживает деконструкции (при условии, что у некоторых людей он действительно есть), а психология тех, кто его создает. Эта психология блестяще разобрана в беседе/тексте Мацея Цегловского 2016 года (в двух словах: к запредельным гибрисам добавить безрассудное желание бессмертия) — добавить к этому нечего, так что даже не буду пытаться. Я имею в виду, что легко испугаться того, что люди: правительства, компании, общество делают с ИИ.

Следующий текст был написан как противоядие от этого страха, как своего рода антидепрессант; он описывает набор основанных на здравом смысле, но, возможно, иллюзорных ожиданий, которые должны оправдаться, чтобы ИИ стал хорошей вещью.

ИИ как хорошая вещь

Вместо определения ИИ я начну с того, что я не имею в виду. Ни в коем случае я не рассматриваю искусственный интеллект как самоцель, как некоторые люди. «Построение разумной машины» как самоцель, но как это вообще может быть мечтой? Что ж, пожалуй, мне не следует задавать этот вопрос; как человеку, который когда-либо читал только одну книгу научной фантастики (Солярис Станислава Лема, да и то только из-за фильма), мне здесь явно не хватает понимания. Как сон, почему бы и нет. Но от того, на что ежегодно тратятся миллиарды долларов, мы можем требовать большего, а именно, чтобы эти разумные машины были полезны для человечества: например, чтобы они служили наукам о здоровье; смягчить или даже противодействовать (если возможно) изменению климата; уменьшить неравенство и несправедливость в мире; или просто как-то улучшить жизнь на земле.

ИИ как новая инженерная дисциплина (М. Джордан)

Вместо этого мне нравятся взгляды, высказанные Майклом Джорданом, который является не только выдающимся деятелем в области компьютерных наук и статистики, но и одним из самых здравых голосов в этой области, часто утверждающим вещи, которые подсказывает здравый смысл и которые должны быть очевидны, но, к сожалению, не в нашем обществе. Джордан, который предпочитает термин машинное обучение термину искусственный интеллект, но, очевидно, предпочитает обсуждать содержание, а не произвольную терминологию, предполагает новую инженерную дисциплину, основанную на существующих знаниях о логических выводах. , оптимизация, вычисления и неопределенность, как химическая инженерия и гражданское строительство построены на химии и физике соответственно. В дополнение к этим строительным блокам (из математики, статистики, компьютерных наук) эта новая дисциплина включает рекомендации из социальных и гуманитарных наук. (Как именно это будет выглядеть, еще предстоит обсудить более подробно; кроме того, необходимо добавить дополнительные дисциплины — не в последнюю очередь юриспруденцию.)

Как Джордан выражается,

Несмотря на то, что строительные блоки уже готовы, принципы их объединения отсутствуют, поэтому блоки в настоящее время собираются в произвольном порядке.

Из-за специальности трудно понять, чему и когда можно доверять. Иногда нейронные сети выдают вероятности (например, классификаторы); иногда они даже указывают на неопределенность (например, когда выход представляет собой распределение). Но часто этой информации недостаточно, чтобы действительно принять решение: а принимать решения нам часто приходится в реальной жизни. Так что в этой новой дисциплине предстоит большая творческая работа.

В то же время, хотя усилия направлены на создание безопасного, полезного и пригодного для использования ИИ, есть вещи, которых следует избегать. Все нижеследующее — простые, здравые вещи, которые, тем не менее, слишком редко слышны.

Избегайте антропоморфизма и будьте бдительны

Чтобы ИИ был безопасным в использовании, крайне важно, чтобы люди осознавали, что он может и чего не может сделать в данный момент времени — другими словами, сохранять бдительность и сохранять критическое суждение. Как отмечает Дэниел Деннетт в книге От бактерий до Баха и обратно, это упрощается, если устройства ИИ не предназначены для того, чтобы действовать таким образом, чтобы они выглядели более авторитетными, компетентными и прочими. - зная, чем они являются. Люди уже более чем счастливы приписывать намерения и чувства неживым существам; наделение искусственных агентов (например, экспертных систем в форме чат-ботов) антропоморфными характеристиками, вероятно, заставит людей слишком легко уступать им в суждениях.

Позвольте пользователям оставаться под контролем

С этим пониманием — быть «гражданином, наделенным полномочиями» в состоянии ИИ — тесно связана тема прозрачности и контроля. Деннетт цитирует Дугласа Хофштадтера, который в открытом письме бывшему студенту, работавшему в Google, выразил свою тревогу по поводу новой на тот момент функции «автоподсказки при поиске»:

Я хочу, чтобы машины были надежными механическими, а не постоянно отклонялись от того, о чем я их прошу. […]

Меня подобные попытки читать мои мысли фантастически раздражают, если не опасны, потому что они почти никогда не бывают правильными или даже неправильными. Я хочу, чтобы машины оставались надежно механическими, чтобы я точно знал, с чем имею дело. Я не хочу, чтобы они пытались меня «перехитрить», […]

Это письмо было написано в 2010 году, и спустя десять лет мало кто замечает подобную функциональность. Тем временем мы привыкли к существенной потере контроля. Но суть остается в силе: чтобы ИИ был безопасным в использовании, должно быть ясно, где он начинается и где заканчивается; это должен быть надежный инструмент, но все же инструмент. Потому что, если это не так, почему мы, люди, должны нести за это ответственность? Так сказала машина; что теперь я сделал?

Иными словами, ради общества важно, чтобы основное человеческое чувство автономии, ответственности и контроля не нарушалось — или, что еще лучше, усиливалось пропорционально использованию ИИ. Я не говорю о «настоящей автономии», что бы это ни было, или о фактическом контроле; часто в жизни его может быть немного, в зависимости от того, где вы живете, вашего положения в социальной иерархии, удачи — и многого другого. Все, о чем я говорю, это небольшая автономия, необходимая для того, чтобы чувствовать себя ответственным и действовать ответственно. Это аналог свободы воли: скорее всего, ее нет; однако мы действуем так, как если бы они были, и это допущение в какой-то степени (вероятно) является неотъемлемой частью функционирующих обществ.

Не инструментизируйте — создавайте рынок (М. Джордан)

Наконец, к осведомленности и прозрачности давайте добавим еще одну связанную идею, в последний раз возвращаясь к М. Джордану. Вместе с потерей прозрачности и контроля — это классическая бизнес-модель Силиконовой долины, основанная на рекламе. Если вы похожи на меня всего несколько месяцев назад, прочитав бизнес-модель, основанную на рекламе, вы можете просто пожать плечами и подумать, да, конечно, Лучшие умы моего поколения думают о том, как заставить людей кликать по рекламе, черт возьми. бла-бла-бла… но мы все это знали. Что это означает на самом деле, менее известно (по крайней мере, я не знал). Это означает, что для получения оптимальной прибыли каждый агент в сети игроков, участвующих в показе рекламы, заинтересован в наилучшем сопоставлении пользователей и продуктов. Не только глобально или на основе неизменных во времени функций. Вместо этого важен момент: какой наиболее многообещающий продукт предложить тому, кто возвращается с обычной обеденной пробежки (известной благодаря геолокации), вероятно, голоден (см. сожженные калории, показанные спортивными часами) и все еще расстроен из-за конфликта. тяжелые дискуссии до полудня (известно по аудиозаписям или, возможно, давлению на клавиатуру или частоте сердечных сокращений с помощью фитнес-трекера). Чем больше данных, тем лучше; и что я знаю о том, что они знают обо мне.

Проблема в том, что хотя эту бизнес-модель часто критикуют, вы не часто слышите жизнеспособные альтернативы. Я не экономист, но меня обнадеживает то, что люди хотя бы думают об альтернативных моделях. Одну из таких альтернатив, опять же, сформулировал Иордан: создать рынок, объединяющий производителей и потребителей (например, рестораны и людей, которые хотят пообедать, музыкантов и людей, которые слушают музыку, всевозможные услуги и тех, кто ищет услуги), где матчи составляются на основе индивидуальных ожиданий и данных конкретных ситуаций. Это будет включать рекомендательные системы с обеих сторон и должно учитывать дефицит и ограничения в реальном времени и в реальном пространстве; так что не будет задачи слишком легкой для ML. Однако, в отличие от моделей, основанных на рекламе, хотя брокер — тот, кто создает платформу и запускает алгоритм — получает свою долю, обе стороны на этом рынке также должны быть довольны. Конечно, прибыль для брокера не будет такой огромной, но это звучит как справедливая модель для общества.

Подводя итог: не очевидно, что может сделать один человек (это, безусловно, зависит от человека), но давайте все постараемся сделать ИИ максимально безопасным, оставаясь бдительными, размышляющими и ответственными. Спасибо за чтение!

Первоначально опубликовано на https://divergences.xyz 28 марта 2020 г.