Я думаю, что статья правильная в поверхностном плане и неправильная в глубоком. Конечно, при рассмотрении метрик ИИ, оптимизированный для этих метрик, будет иметь более высокие оценки, чем люди, и в целом представление о том, что алгоритм более объективен, чем люди, кажется немного избыточным, поскольку это именно то, что вы ожидаете от автомата и объективность сама по себе вряд ли является независимым показателем эффективности.

Проблема с ИИ не в том, может ли он превзойти людей в каком-то узком логическом смысле (конечно, может), а скорее в том, сможет ли он обеспечить/поддерживать систему, которая уважает и защищает основные права человека (в абстрактно И де-факто) и схватывает мимолетные термины, такие как справедливость, равенство, правильность, неправильность. Термины, которые зависят не от метрик, а скорее от мягко определенных моральных, правовых и социальных дебатов, которые не имеют дискретных логических результатов, никаких серьезных ошибок или прав. Применение этих терминов формирует легитимацию решений, поскольку оно основано на мнениях тех, кто подвергается его последствиям, даже если эти последствия неоптимальны. Я думаю, что это фундаментальный законный характер демократических полномочий, которыми пользуются граждане. Суть не в том, что другой процесс принятия решений более эффективен по какой-либо метрике. Демократия — меньшее из зол, и не потому, что она лучшая в своем классе по какому-то показателю.

Я считаю, что мы должны принципиально отвергнуть идею о том, что ИИ может иметь дискреционные полномочия по принятию решений, но в то же время мы должны принимать его как инструмент расширения интеллектуальных возможностей. Нам нужно несовершенство, нам нужны недостатки, нам нужны ошибки, но да, нам не помешала бы помощь алгоритмов, управляемых данными, потому что мы пронизаны предрассудками из нашего окружения и из нашего прошлого.

Опять же, остается вопрос: как не допустить, чтобы наша нынешняя доминирующая схема мотивации под названием капитализм свободного рынка оптимизировала людей, выбив их из уравнения?



С точки зрения машинного обучения идея исключения людей из процессов принятия решений также ошибочна, потому что со временем обучающие данные будут основываться на все большем количестве данных, генерируемых машинами. Никакой периодической проверки точности, а скорее скользкий путь к случайной автоматической несправедливости. Автоматическая несправедливость, которую со временем мы больше не сможем понять из-за все возрастающих уровней абстракции, которые автоматы способны производить, не говоря уже о том, чтобы управлять и контролировать.

Опять же, мы должны позаботиться о том, чтобы рассматривать человеческие недостатки, упомянутые в этой статье, как недостатки, которые можно исправить с помощью ИИ в качестве инструмента поддержки,
и, конечно же, не как замена. Ядро любого свободного и открытого общества невозможно описать с помощью метрик. Это заблуждение, процветающее в коммунистических диктатурах, движимых контролем, и (как ни странно) в неолиберальных корпоративных культурах, движимых жадностью. Вместо того, чтобы использовать человеческое предубеждение в качестве аргумента для замены людей, мы должны указать на предубеждение тем, чем оно является, человеческим невежеством, и вы можете решить эту проблему с помощью образования и социальных дебатов, а почему бы и нет, с помощью вспомогательной системы ИИ.

В целом это выглядит как соломенная чучело: возражение против ИИ-систем было не в точности, а в отсутствии прозрачности сложности апелляции против
такого автоматизированного решения , блестящая автоматизация того, что когда-то было взаимодействием между людьми, и вообще дегуманизация людей.

Рассмотрим мнение Рэйчел Томас из fast.ai:



который добавляет, что мы должны также подумать о масштабах автоматизированных решений и, т.е. возможном влиянии систематических ошибок/предубеждений, по сравнению с изменчивостью предубеждений от человеческих решений. Эта изменчивость человеческих предубеждений вполне может быть переведена в своего рода органический шум, шум, который, возможно, позволяет сбалансировать наши предубеждения в совокупности.

Кроме того, идея о том, что алгоритм полностью игнорирует личные учетные данные (престижный университет, социальная сеть), возможно, очень плоха,
поскольку эти учетные данные основаны на доверии. Удаляя людей из цикла, мы устраняем необходимость межчеловеческого доверия. Это само по себе, возможно, является петлей обратной связи, которая подкрепляет более широкое использование автоматических процессов принятия решений, потому что мы все меньше и меньше доверяем друг другу и самим себе. Кроме того, от использования электронных карт до использования алгоритмов посредничества, когда у нас возникают конфликты, мы будем становиться все более зависимыми от него, потому что нам самим все больше не хватает необходимой компетенции.

Кроме того, легко увидеть, как этот, казалось бы, идеальный меритократический фильтр может привести к системе, которая просто измеряет IQ/EQ или даже извлекает персональные компетенции из устройств отслеживания здоровья или даже из вашей ДНК. Нетрудно представить, что такие показатели применяются независимо от любых личных трудностей, которые вы пережили, и несмотря на тысячи часов усилий, которые вы приложили, несмотря ни на что. Почему? Потому что эти чрезвычайно важные личные переживания, которые формируют характер и личность, неизмеримы. В этом смысле автоматический HR-алгоритм IQ/EQ является антимеритократическим и принципиально негуманным.

Если мы будем рассматривать решения, которые мы принимаем, на основе оптимизации показателей, мы не должны удивляться, если нас будут рассматривать как цифры.