Обезьяна видит обезьяна делает. Смотри и учись. Мы все слышали эти высказывания. Будь то спортсмен на поле, наблюдающий за определенным навыком, чтобы улучшить свою игру, или младенец, наблюдающий и копирующий поведение и слова своих родителей — мы все видели эту теорию. доказано… что наблюдение и подражание могут привести к обучению и продвижению. И хотя эта концепция «наблюдай и учись» является глубоко укоренившейся человеческой характеристикой, она может применяться и применяется вне человеческого контекста.

Робот видит, робот делает… лучше?

В регионах, отраслях и должностных обязанностях мы видим, что все больше и больше компаний внедряют технологии искусственного интеллекта. От производства до здравоохранения и финансовых услуг организации осознают и извлекают выгоду из преимуществ, которые могут быть связаны с достижениями ИИ. В последнее время одна из ветвей искусственного интеллекта, кажется, попала в заголовки — Машинное обучение.

Возьмем, к примеру, беспилотные автомобили. С помощью алгоритмов машинного обучения беспилотные автомобили могут наблюдать и изучать навыки вождения, а также адаптироваться к изменяющимся дорожным условиям. Благодаря этому подходу «обучения с глубоким подкреплением» беспилотные автомобили учатся водить, как люди. Этот тип обучения с подкреплением также применяется в робототехнике. Во-первых, роботам даются простые задачи. Природа алгоритмов позволяет обучать и переучивать роботов; изучение нового и сложного поведения, которое позволяет им выполнять задачи, которые изначально не были поставлены. Эти алгоритмические роботы способны «наблюдать», имитировать, восстанавливаться после ошибок и адаптироваться — мало чем отличается от спортсмена, осваивающего новый навык на поле.

Хотя все это очень увлекательно, для поклонника Айзека Азимова это также немного пугает. Я должен задаться вопросом… что, если сами алгоритмы, созданные человечеством, в конечном итоге станут умнее, чем предполагалось, обучаясь и развиваясь быстрее, чем ожидалось, и в областях, не предназначенных для этого… улавливая тенденции и нюансы, которые мы бы предпочли не использовать. Экономия затрат и времени, а также повышение производительности, которые приходят вместе с программами машинного обучения, могут быть достаточно привлекательными, чтобы позволить людям, получающим от них пользу, не обращать внимания на эти потенциальные ловушки. В частности, одна из них, о которой должны помнить все организации, — алгоритмическая предвзятость.

Чума предвзятости

Вопрос этики и, в частности, предвзятости в ИИ является сложным. Дело в том, что предвзятость может возникать в любой программе, способной обучаться. Например, в сфере управления персоналом разрабатываются инструменты машинного обучения, помогающие упростить процесс отбора и найма. Но что происходит, когда алгоритмы найма фактически полагаются на предвзятые данные для принятия решений? Если алгоритмы найма основаны на исторических данных о найме, компании могут столкнуться с риском найма одних и тех же людей — потенциально упуская из виду подходящих кандидатов из-за расы, пола, этнической принадлежности или происхождения. Входные данные должны основываться на том, где компания хочет быть, и на талантах, которые ей нужны, чтобы удовлетворить эти стремления. Если входные данные алгоритма найма не тщательно контролируются и не регулируются, они могут нанести серьезный ущерб будущему успеху организации.

Недавно я прочитал статью, опубликованную IBM, в которой говорится, что в течение следующих пяти лет количество предвзятых систем и алгоритмов ИИ резко возрастет. Если это правда, тогда возникает вопрос, как нам поступать с ними по мере их возникновения? Как исправить проблемные алгоритмы и предотвратить заражение чистых?

Предотвращение эпидемии предвзятости

Не существует одного волшебного решения, позволяющего избежать предвзятости. Машинное обучение не будет автоматически структурировать ваши данные таким образом, чтобы предотвратить предвзятость. Однако есть вещи, которые организации могут сделать, чтобы активно смягчить его возникновение.

Самый очевидный способ — начать с прочного фундамента. Потенциальная алгоритмическая погрешность возникает из-за предвзятых входных данных, подаваемых на машины, поэтому для получения надежных (беспристрастных) результатов требуются надежные базовые наборы данных. Например, в Northern Trust мы разработали сложный алгоритмический механизм ценообразования при кредитовании ценными бумагами, который использует машинное обучение и передовые статистические методы для выявления возможностей для увеличения доходов наших клиентов. Мы тщательно отслеживаем и управляем любыми возможными отклонениями в алгоритмах, используемых движком, но, что более важно, разработали прочную основу для самого движка. Мы делаем это, применяя одну и ту же методологию в равной степени ко всем ценным бумагам, мы не используем какую-либо информацию о заемщике, тем самым гарантируя, что сгенерированные машиной ставки не зависят от клиента, и мы проверяем, что машина использует только объективные и актуальные рыночные данные. обучающие приложения.

Хотя единого решения проблемы предвзятости не существует, есть упреждающие способы, с помощью которых мы можем принять участие, чтобы убедиться, что технологии ИИ используются ответственно и этично. Советы по этике ИИ, сильное управление и разнообразный кадровый резерв — это лишь некоторые из способов, которыми мы можем работать над более ответственными практиками в сфере ИИ. Давайте продолжим разговор об этике и ИИ и подтолкнем наши организации к тому, чтобы смягчить предвзятость, а не закрывать на нее глаза.