18 января 2017 года на Всемирном экономическом форуме в Давосе, Швейцария, четыре технологических лидера присоединились к панельной дискуссии по искусственному интеллекту (ИИ):

  • Джинни Рометти, генеральный директор IBM
  • Джой Ито, директор медиа-лаборатории Массачусетского технологического института
  • Рон Гутман, основатель и генеральный директор HealthTap
  • Сатья Наделла, генеральный директор Microsoft

Как руководители некоторых из самых влиятельных в мире брендов искусственного интеллекта, мы узнали, как каждый из них позиционирует свою работу против насущных проблем технологии.

Ведущий Роберт Ф. Смит попросил участников дискуссии провести «воодушевляющую дискуссию» о будущем ИИ и «проблемах, с которыми мы сталкиваемся как технологи, люди и общество». Он сослался на ранние сбои в мировой экономике и других международных системах. «Великие умы и мыслители-гуманисты должны… разработать элегантные решения сложных проблем, вызванных применением этих систем».

Джинни Рометти начала с того, что сформулировала проблему, решаемую ИИ: мы настолько перегружены данными, что не можем их использовать. Это вызывает «когнитивную перегрузку». Она сообщила, что данные являются конкурентным преимуществом только тогда, когда их разблокирует искусственный интеллект.

Но сбои, вызванные искусственным интеллектом, ставят под угрозу его внедрение. Чтобы снизить риск, генеральный директор IBM привел свою организацию в соответствие с тремя ключевыми этическими принципами:

  • Цель. Система ИИ должна дополнять, а не заменять способность человека мыслить.
  • Прозрачность. Открытость является важным элементом доверия. Пользователь должен четко понимать, когда и где используется система ИИ, как она обучается и качество ее результатов. Пользователь должен сохранять контроль.
  • Навыки. Обучение является обязанностью организаций, разрабатывающих платформы ИИ и применяющих их. Они должны развивать навыки рабочей силы, использующей программное обеспечение. Чтобы обеспечить такое обучение, предприятия должны создавать ИИ в партнерстве с сообществами, которые они обслуживают (например, медицинскими, юридическими, финансовыми и т. д.).

Эти принципы будут иметь решающее значение в те моменты, когда ИИ причиняет вред (например, в случае аварии автоматизированного транспортного средства). Рометти выступал за обучение людей-операторов реальным случаям использования. Это сделало бы их лучше подготовленными к тому, чтобы справляться с его ошибками. В духе цели и прозрачности она призвала к сотрудничеству с регулирующими органами. Вместе предприятия и правительства должны определить безопасные и этичные принципы использования ИИ.

Джой Ито повторил призыв Рометти к определению границ ИИ: Рынок сам по себе не может этого сделать. Он привел пример в недавнем исследовании Массачусетского технологического института. Выяснилось, что большинство людей ожидают, что беспилотные автомобили пожертвуют жизнями своих пассажиров, прежде чем заберут окружающих. Но большинство опрошенных также отметили, что никогда не хотели бы владеть таким автомобилем. Таким образом, вместо того, чтобы оставить эти сложные вопросы на усмотрение рынка, Ито призвал экспертов из разных дисциплин помочь определить правила, касающиеся ИИ. Он расширил это, процитировав книгу Ларри Лессига об этических и моральных ценностях технологий. Формирующими силами этики вокруг ИИ будут техническая архитектура, закон, рынки и [социальные] нормы.

Сатья Наделла подчеркнул актуальность такого разговора. В настоящее время ИИ находится на стадии, которую он назвал «контролируемой». Люди «в теме», маркируют данные и анализируют результаты. Наделла предсказал, что по мере роста комфорта с ИИ все больше будет работать в «неконтролируемых» ситуациях — или в том, что он назвал «черным ящиком».

Рометти возразил: ИИ никогда не должен работать в «черных ящиках». В качестве примера она привела медицину. Врачи понимают, что Watson, платформа искусственного интеллекта IBM, разбирается в миллионах медицинских документов. Тем не менее, они хотят прозрачности в отношении выходных данных агента. Для этого Watson должен поделиться своей «степенью уверенности» и «домашним заданием», которое он проделал, чтобы прийти к такому выводу.

Но когда дело доходит до признания ИИ, генеральный директор IBM меньше заботится о «черных ящиках». Больше всего ее беспокоит призрак экономического неравенства и смещения рабочих мест. Рометти сказал, что люди считают растущее богатство технологических лидеров «несправедливым с экономической точки зрения». Кроме того, они боятся потерять работу.

Но смещение работы — это миф, который она хочет разрушить. «Будут рабочие места». Рометти предсказала: «Но для их выполнения нам нужны новые навыки». Чтобы воспользоваться возможностями этой «трансформации труда, происходящей раз в поколение», она обозначила три цели:

  • Определение должностных функций «нового ошейника» для всех людей, включая тех, кто не имеет высшего образования.
  • Поощрение компаний к переобучению своих работников, чью работу ИИ расширит
  • И создание решений ИИ, которые помогают сотрудникам передавать существующие навыки.

«Что нам нужно запомнить, так это слово «увеличение», — сказала Рометти в своем заключительном слове. Она вспомнила более ранний разговор о том, чтобы помогать людям думать (а не заменять их). «Нам нужно инвестировать в преимущества и защищаться от недостатков».

Это всего лишь одна дискуссия в более широком разговоре об ИИ. Делясь этическими принципами IBM, Джинни Рометти помогла задать тон организациям, позиционирующим свои технологии для широкой публики. Учитывая ставки, те, у кого их нет, должны.

От других новых технологических брендов мы видели принципы демонстрации на дисплее, аналогичные принципам IBM. В прошлом году запуск беспилотных автомобилей Uber в Питтсбурге дал нам понять их цель и прозрачность. Прочитайте мой анализ их пилотного проекта и то, как он может помочь вам определить принципы для вашего собственного бренда.

Это сообщение было впервые опубликовано в аналитическом блоге Centerline Digital 24 января 2017 года. Следите за новостями в блоге.