Человечество движется к эре, когда машины с мощью искусственного интеллекта (ИИ) будут выполнять любую работу, на которую способен человек. Неважно, поддерживаете ли вы ИИ или сопротивляетесь ему, никто не сможет остановить этот переход. Наши совместные усилия могут привести к такому развитию, одинаково выгодному для людей. Системы искусственного интеллекта состоят из алгоритмов, обученных на данных, созданных человеком. Однако на этапе обучения им также присуща человеческая предвзятость. Их прогнозы ограничиваются только тем, что доступно в виде данных. Стивен Хокинг сказал: «Рост мощного ИИ будет либо лучшим, либо худшим событием, которое когда-либо случится с человечеством». Предвзятость ИИ может стать самым ужасным, если с ней не справиться должным образом. Люди разрабатывают ИИ для людей, используя данные, полученные от людей, следовательно, смещение может быть введено из разных источников в разные типы. Они состоят из выборки, измерения, исключения, наблюдателя и предубеждения.

Смещение выборки возникает из-за отсутствия сбалансированного распределения данных. Google публично извинился, когда пользователи обнаружили ошибку, в которой их алгоритм маркировки изображений в приложении Photos помечает некоторых чернокожих людей как горилл. Аналогичные проблемы наблюдались в фотоаппарате Nikon и программном обеспечении веб-камеры HP. Ошибка выборки возникла в алгоритмах распознавания лиц, потому что они больше обучались на лицах со светлой кожей.

Причина смещения измерения - неправильный сбор и измерение данных. COMPAS - это алгоритм прогнозирования риска рецидива, используемый в судебных органах 12 штатов США для прогнозирования вероятности повторного совершения преступления лицом. Исследование ProPublica выявило дискриминационное поведение в зависимости от цвета кожи людей. Они определили ошибочные предсказания алгоритма против чернокожих людей, отдавая предпочтение белым. Предположения КОМПАС были основаны на личном и родственном им аресте. Поскольку меньшинства сталкиваются с дополнительным наблюдением, это вызывает больше арестов и неизбежно подвергает их высокому риску.

Исключение объектов и точек данных из набора данных во время процесса очистки может вызвать смещение исключения. Очистка данных с надлежащим знанием предметной области может помочь в улучшении алгоритмической точности. Однако игнорирование некоторых функций и точек данных без уважительной причины приводит к предвзятости. Нассим Николас Талеб представил когнитивный феномен «Черные лебеди» в своей книге-бестселлере «Черные лебеди», метафора, используемая для неопределенных событий. Черные лебеди также являются важным аспектом разработки и развития ИИ. Игнорирование некоторых важных данных и функций при обучении алгоритмов искусственного интеллекта приводит к появлению черных лебедей.

Один из источников предвзятости в отношении ИИ - это члены команды, участвующие в создании решений ИИ. Предвзятость наблюдателя возникает из-за намерений людей или без них из-за их решений в процессах проектирования, реализации и сбора данных. Группа экспертов высокого уровня Европейского союза по искусственному интеллекту предоставила набор руководящих принципов для моделей машинного обучения. Он рекомендует, чтобы система была законной, этичной и надежной. Следуя этим рекомендациям, можно разработать более надежные ИИ-решения.

Предубеждение Предубеждение возникает из-за культурного влияния и институциональной дискриминации. Когда информация о социальной дискриминации передается в систему ИИ, она отражает те же различия в прогнозах. Предубеждение. Предубеждение довольно сложно выявить, и оно все еще существует во многих существующих в настоящее время системах. Исследование, представленное на симпозиуме по технологиям улучшения конфиденциальности, показало, что женщины не могли видеть высокооплачиваемую работу, потому что Google разрешает рекламодателям ограничивать такую ​​работу только мужчинами.

Нет сомнений в том, что ИИ улучшил нашу повседневную жизнь. Однако справедливо ли поднимать свою жизнь ценой причинения вреда чужой жизни? Это может нанести нам вред, если оно неправильно спроектировано и спроектировано. Если мы не сможем контролировать эту предвзятость, в нашем обществе сохранится дискриминация. Не существует волшебной палочки для решения этой проблемы, но все начинается с того, что мы осознаем, что надвигается. Если мы хотим, чтобы технология работала для всех, нам нужно обсудить, как ее улучшить. Сал Рестиво в своей книге «Наука, технология и общество: социологический подход» объясняет взаимосвязь между технологиями и обществом. Он подчеркивает, что технологии работают лучше только в том случае, если они взаимовыгодны для общества, и что нам нужно отказаться от «этического ускользания». Благодаря тесному сотрудничеству всех мы можем уменьшить предвзятость, и ИИ может удовлетворить наше общество, только если это работает для всех.