В нынешнем виде существует множество концепций того, что по существу означает развертывание технологии ИИ на благо общества. Как и в случае любой спорной темы, то, что значит делать «хорошо» с помощью ИИ, зависит от организации и касается, среди прочего, вопросов этики, согласования ценностей, философии и государственного регулирования. Тем не менее, эти дебаты выходят за рамки простого упражнения интеллекта. учитывая, что ИИ — мощная технология, которая все больше влияет на нашу социальную, политическую и экономическую жизнь.

Недавно фонд AI for Good Foundation взял интервью у члена организации, доктора Ли Шленкера, директора Института бизнес-аналитики, о его текущих взглядах на насущные проблемы, такие как этика, согласование ценностей и AI для «хорошего», в короткой сессии вопросов и ответов. В приложении вы найдете его концептуальный документ, который расширяет наш краткий форум вопросов и ответов и контактную информацию.

Доктор Ли Шленкер

Я основатель и руководитель Института бизнес-аналитики. Я также являюсь консультантом и основным докладчиком по темам, связанным с управленческими проблемами искусственного интеллекта, клиентской аналитикой и Интернетом ценностей. В настоящее время мы с коллегами работаем в Институте, помогая использовать данные для улучшения процесса принятия организационных решений. Кроме того, мы организуем международные летние и зимние школы, а также корпоративные образовательные программы для аспирантов и менеджеров банковского дела и финансов, телекоммуникаций, общественных работ и сферы услуг.

Наш вклад в ИИ во благо? был разработан, чтобы спровоцировать дискуссию и дебаты вокруг нашей Зимней школы по применению ИИ на благо Добра с 1 по 10 февраля в Майсоре, Индия.

Прочтите концептуальный документ доктора Ли Шленкера здесь.

Что вы считаете самой большой проблемой в этичном развертывании ИИ и почему?

Применяя «этику» к технологиям, мы предполагаем, что различия между добром и злом не связаны контекстом и культурой, тогда как история показывает обратное. Каждое новое поколение технологий, будь то паровой двигатель, Интернет или Web3,
порождает новый набор экономических возможностей и этических проблем.

Самой большой проблемой, которую я вижу сегодня, является разработка этической основы, которая позволит лицам, принимающим решения, сосредоточиться на процессе использования искусственного интеллекта в бизнесе и обществе.
Есть несколько причин сосредоточиться на процессе, а не пытаться чтобы определить результаты того, как может выглядеть «ИИ во благо». Начнем с того, что человеческие предпочтения в отношении того, что представляет собой «хорошо», со временем меняются в зависимости от социальных и экономических условий. Они различаются от одного
индивидуума к другому и даже между функциями «переживания» и «воспоминания» нашего собственного сознания.

Учитывая это, часто существует заметная разница между нашими собственными намерениями и действиями. Таким образом, ИИ не может выучить операциональные определения «хорошего» только из человеческого поведения. Все эти причины говорят в пользу разработки этических рамок, которые позволят командам разработчиков ИИ и конечным пользователям исследовать правильный баланс между человеческим и машинным интеллектом.

Считаете ли вы, что «потребности бизнеса (экономическая эффективность, снижение затрат, увеличение прибыли и т. д.)» когда-нибудь действительно совпадут с потребностями общества?

Наоборот, я думаю, что потребности бизнеса всегда совпадают с потребностями общества, но не обязательно на благо всех. Наше желание согласовать потребности бизнеса и общества лежит в основе использования ИИ во благо, но ключ заключается в том, чтобы определить, где провести черту.

Первая задача — учиться на действиях наших сверстников и на том, что они действительно ценят («полезность»). Поскольку мы сталкиваемся с многочисленными примерами того, как потребители и менеджеры не действуют в своих собственных интересах (из-за риска, неопределенности и двусмысленности среды принятия решений
), алгоритмы обучения работают как для отдельных, так и для общих «Хорошо» — сложная задача. Мы добились определенного прогресса в обучении с обратным подкреплением, но практикующим ИИ предстоит долгий путь.

Во-вторых, привлечение ИИ для согласования потребностей бизнеса и общества воплощено в проблеме остановки. Искусственный интеллект добился замечательных результатов в средах принятия решений, которые можно наблюдать и в которых задействовано ограниченное число действующих лиц, где действия дискретны, а результаты определяются известными или предсказуемыми правилами.

К сожалению, поиск компромиссов между бизнесом и обществом зачастую оказывается более сложным: это динамически изменяющиеся мультиагентные среды, в которых правила и переменные зачастую неизвестны и/или трудно предсказуемы. Эти ситуации требуют большего, чем математический интеллект, который может предложить ИИ, но должны задействовать эмоциональный, межличностный и экологический интеллект, который могут предоставить люди.

Разработка алгоритмов, которые полагаются на человеческий интеллект при столкновении с неопределенностью, отсюда и проблема остановки, является единственным правдоподобным ответом, который я вижу для перестройки будущих потребностей бизнеса и общества.

В своей статье вы отличаете государственное регулирование от этики; считаете ли вы одно более необходимым, чем другое, или они дополняют друг друга?

Хотя государственное регулирование призвано смягчить предполагаемые несовершенства рыночной системы, попытки регулировать информационные технологии часто не приводили к этичному поведению по многим причинам. Государство и общество попытались узаконить технологии,
а не этические последствия их использования.

Законодательство часто направлено на наказание за неэтичное поведение, а не на стимулирование этичного решения проблем. Характер и скорость инноваций в ИТ во многом превосходят предыдущие технологии. Наконец, латентность неизбежно
занимающего много времени и сложного законодательного процесса приводит к тому, что законодательство часто устаревает еще до его принятия.

Показательным примером является GDPR Европейского Союза, поскольку, несмотря на его достоинства, текст значительно не обеспечивает основу для этического принятия решений.

Эти усилия были направлены на защиту личных данных, а не права человека на неприкосновенность частной жизни, свободу
мысли или свободу выбора. Природа новейших технологических инноваций, таких как Web3, основана на цепочке необратимых транзакций, которые несовместимы с кодифицированным «правом» на изменение или удаление личной информации. Этот разрыв между добрыми намерениями законодательства
и деловой практикой кажется неизбежным, учитывая, что сама основа капитализма наблюдения основана на выявлении, мониторинге и влиянии на поведение.

Что, по вашему мнению, является самой большой возможностью для разработчиков ИИ уменьшить предвзятость данных?

Предвзятость можно определить как качество объекта, идеи или события, которое нельзя вывести непосредственно из самих данных. Мы должны помнить, что «предвзятость» обнаруживается не только в данных, но и в эвристиках, алгоритмах и бизнес-логике, которые мы используем, чтобы отличить лучшее от худшего.
Мы все используем когнитивные искажения, делая предположения об окружающем нас мире, чтобы обрабатывать информацию достаточно быстро, чтобы принимать решения. Смещение и дисперсия являются неотъемлемыми качествами алгоритмов, которые мы используем для просмотра данных, и на практике они обратно коррелируют
как таковые.

Предвзятость — это не хорошо и не плохо, хотя скрытая предвзятость может исказить нашу способность использовать ИИ и привести к ошибочным выводам.
Я считаю, что разработчики ИИ должны меньше заботиться о «уменьшении» предвзятости, чем о ее «распознавании», и должны сосредоточиться на том, чтобы помогать организациям и потребителям «предполагать» или «исправлять» предвзятость и ее последствия для принятия решений. Уменьшение предвзятости несколько иллюзорно, поскольку это неотъемлемое качество социальных процессов, которые определили как проблемы, так и возможности, которые мы рассматриваем. черный ящик глубокого обучения, который необходимо решить. Наконец, неспособность текущих реализаций ИИ генерировать новые концепции и взаимосвязи при исследовании
сложных сред принятия решений демонстрирует возможность для разработчиков ИИ решить проблему совместного развития человеческого и машинного интеллекта.

AI for Good Foundation устанавливает стандарт передового опыта в области этики ИИ в компаниях, классах и политиках.

Наша работа основывается на Целях ООН в области устойчивого развития и правах человека, которые они защищают.

Узнайте больше здесь о наших рекомендуемых программах: Аудит этики ИИ и Институт этики ИИ.