Вы с другом идете за покупками, и вы оба покупаете одно и то же, только они платят за это меньше, чем вы. У них нет конкретной скидки или карты лояльности. Но, основываясь на их профиле, ИИ решил, что вы купите товар по более высокой цене, чем ваш друг. Как это заставляет вас чувствовать? Этично ли это?

Этическое использование ИИ должно быть ключевым фактором для организаций, которые заботятся о своем бренде и отношениях со своими клиентами и сотрудниками. Неправильное использование ИИ может нанести непоправимый ущерб этим отношениям и вашей репутации. В некоторых случаях это может привести к усилению регулирования рынка, поскольку государственные органы стремятся предотвратить злоупотребления служебным положением. Это означает, что понимание этического использования ИИ важно для обеспечения прочных постоянных отношений с клиентами и предотвращения напрасных инвестиций в ИИ.

В настоящее время искусственный интеллект постоянно фигурирует в новостях, и большинство организаций планируют начать использовать ИИ, если они еще этого не сделали. Тем не менее, некоторые больше думают об их использовании, чем другие. По словам Марка Цукерберга, некоторые будут «двигаться быстро и ломать вещи», другие будут двигаться быстро и ничего не ломать.

Хотя приведенный выше пример с покупками вряд ли произойдет на главной улице, на некоторых сайтах он уже происходит в Интернете. В сфере продажи билетов правительство Великобритании вмешалось и запретило использование ботов продавцами билетов. Они использовались для оптовой покупки билетов, которые рекламщики могли продавать на вторичных рынках по более высокой цене. Это означало, что фанаты не могли получить билеты на концерты напрямую, и им приходилось платить сверх шансов, чтобы увидеть концерты. Теперь продавцам билетов грозит неограниченный штраф, если обнаружится, что они использовали ботов.

Итак, что мы имеем в виду, когда говорим об этичном использовании ИИ? Для бизнеса есть несколько ключевых моментов, которые следует учитывать при рассмотрении вопроса об использовании ИИ.

1) Поддержат ли мои клиенты или сотрудники то, как я использую ИИ?

Если вы используете ИИ для профилирования клиентов, в чем польза для клиента? Как вы используете информацию профилирования? Мы выступаем за открытость. Проверка ответов на эти вопросы перед запуском — хорошая идея.

Многие уже предполагают, что ИИ используется там, где на самом деле это не так. Однако некоторые группы людей принимают это больше, чем другие. Четко определите ценность ИИ для вашего клиента или сотрудника, а не только для вашей организации. Если вы получите отрицательный ответ, найдите время, чтобы понять, что движет этим, чтобы вы могли пересмотреть свое решение.

2) Может ли то, как я использую ИИ, структурно изменить отрасль, в которой я работаю?

ИИ может полностью изменить некоторые отрасли за счет автоматизации интеллектуальных задач. Например, страховая отрасль с самого начала полагалась на объединенный риск. В потребительском пространстве это было основано в основном на демографии и роде занятий. ИИ может просматривать гораздо более широкий спектр данных, чтобы получить более полную картину человека и определить черты поведения или характера, которые указывают на то, может ли человек быть хорошим или плохим риском.

Это означает, что ценообразование может основываться на ряде (иногда более субъективных) критериев, определяющих, какой риск вы представляете. Эта большая способность предсказывать риск может легко привести к снижению цены на одни продукты и полному вытеснению с рынка других.

Регулирующие органы уже продемонстрировали готовность выйти на этот рынок, чтобы обеспечить продолжение работы объединения рисков и справедливое ценообразование. То же самое, вероятно, верно и в ряде других отраслей, от путешествий до розничной торговли и от энергетики до финансовых услуг. Admiral Insurance недавно была вынуждена отказаться от планов использовать профили в социальных сетях для расчета стоимости автострахования после волны негативной рекламы.

Другим примером этого является использование ИИ для создания пассивных средств отслеживания. Они автоматически отслеживают рынки и корректируют портфель на основе алгоритмов. Поскольку они менее затратны и в целом отслеживают динамику рынка, произошел значительный переход от активных фондов к пассивным фондам. Автоматизированная торговля повлияла на крах рынка еще в 2007 году. Развитие ИИ с тех пор означает, что алгоритмы стали более автономными, и в этом новом пространстве их поведение не всегда предсказуемо и может легко привести к дальнейшим крахам.

Разрыв — это хорошо, поскольку он часто является двигателем прогресса. Тем не менее, понимание недостатков, а также преимуществ — это хороший способ убедиться, что вы остаетесь на вершине, делаете клиентов счастливыми и не попадаете под регулирование рынка.

3) Защищаюсь ли я от искусственной тупости, когда боты делают то, что не должны?

Искусственный интеллект как концепция существует уже более полувека, но каждый новый созданный ИИ способен создавать неожиданные результаты. Это может варьироваться от отказа в кредите лояльному клиенту, когда он не должен, до автоматической покупки акций, когда нет денег, чтобы заплатить за них. Выявить и устранить проблему такого типа важно, но сложно, потому что большинство реализаций ИИ представляют собой «черный ящик». ИИ получает данные, а затем принимает решение в рамках «черного ящика» на основе своего обучения. Причины принятия решения не всегда прозрачны, потому что ИТ обучены на основе статистического анализа и корреляции данных, где корреляции не всегда очевидны. Во многих отношениях они могут быть похожи на непокорных опытных сотрудников, которые почти всегда правы, но не объясняют, как они пришли к тому или иному выводу.

Еще одно направление искусственной тупости — боты на ботах. По мере того, как внедрение ИИ становится все более распространенным, возрастает вероятность того, что боты столкнутся друг с другом. Это может привести к непредвиденным последствиям, поскольку боты не предназначены для работы с другими ботами. Например, Википедия использует ботов для исправления многих недействительных или вредоносных правок на сайте. Теперь у них есть проблема, когда боты борются друг с другом за правки, постоянно перезаписывая правки предыдущих ботов.

4) Является ли мой бот предвзятым или предвзятым?

Microsoft привлекла нежелательное внимание прессы, когда их прототип чат-бота Tay начал публиковать расистские твиты. Они опубликовали Тэя в Твиттере, и в течение 24 часов тролли «обучили» Тэя быть похожим на них.

Facebook, который использует ИИ для подбора и персонализации новостных лент, недавно столкнулся с проблемой предвзятости этих ботов. У них были обвинения от политиков США с обеих сторон в том, что новости предвзяты. Поэтому им приходится постоянно отслеживать результаты и настраивать алгоритмы, чтобы убедиться, что они не создают предвзятости.

Большинство ИИ, используемых в бизнесе, обучаются, а затем развертываются, поэтому есть возможность проверить и выявить предвзятость. Однако для этого требуются определенные навыки и опыт, в которые организации должны будут начать инвестировать.

5) Защищен ли мой бот от атак или игр?

В последнее время много говорят о влиянии кибератак на выборы в США. Поскольку ИИ автоматизирует больше человеческих задач, риски, связанные с такими атаками, возрастают. Если злоумышленник может повлиять на ИИ, которые осуществляют платежи, перемещают товары или выдают кредиты, существует значительный потенциал вреда как для отдельных клиентов, так и для организаций, использующих ИИ.

6) Встроены ли меры безопасности для обеспечения надлежащего человеческого контроля за ботом?

Будь то искусственная глупость, предвзятость ботов или взлом, все идет не так. Обеспечение должного уровня человеческого надзора важно для того, чтобы вы могли исправить ситуацию. Это наиболее очевидно в беспилотных автомобилях, где водитель должен оставаться за рулем, чтобы взять на себя управление в случае, если ИИ ошибается.

Создание защитных механизмов не так просто, как может показаться. ИИ часто принимает решения на основе ряда критериев и в большинстве случаев в «черном ящике». Это может затруднить человеку определение того, было ли решение правильным или неправильным. Возьмем пример, когда вы и ваш друг покупаете один и тот же товар по разной цене. Как человек может сказать, повлияла ли цена на продажу? Ответ обычно лежит в данных, поэтому вам нужно, чтобы люди активно смотрели на данные и следили за тем, чтобы ИИ вел себя так, как ожидается.

Вы также должны быть в состоянии отключить их и по-прежнему предлагать услуги.

ИИ, безусловно, способен преобразовывать, и мы должны использовать эту силу с четким пониманием последствий. Я выступаю за то, чтобы воспользоваться возможностью, имея совет по этике ИИ, который рассматривает все реализации ИИ с этической точки зрения. Это обеспечит надлежащую защиту организации от потенциальных рисков, связанных с ИИ.