Прежде всего, еще раз позвольте мне извиниться за мое название, я начинаю думать, что это плохая привычка, приобретенная после слишком многих лет работы в медиакомпаниях. Во-вторых, я не знал, как легко впасть в предвзятое глубокое обучение, пока не увидел это своими глазами, и, в-третьих, это не какой-то расистский ИИ, это просто неисправное программное обеспечение, которое нужно исправить.

Поэтому, пожалуйста, давайте забудем о приписывании человеком компьютерного программного обеспечения и давайте перейдем к исправлению. Я создаю конвейер глубокого обучения для стартапа автомобильной компании в Барселоне. Компания, которая объединяет компьютерное зрение и когнитивное восприятие для повышения осведомленности и продвижения хороших методов вождения. Модель глубокого обучения работает плавно в выровненном изображении от водителя, фактически точность превышает 95% в тестовом наборе. Но, поскольку я никогда не был доволен такими отличными результатами, я постоянно искал переобучение. Но на самом деле он никогда не приходил ко мне… В поисках изображений, которые могут обмануть мою модель позами и актерами, которых не было в тренировочном наборе (бороды, солнцезащитные очки, экстремальные позы, плохое освещение и т. д.), я нашел набор данных с замаскированными людьми. и, к счастью, некоторые черные люди. К сожалению, очень печально, результаты меня удивили.

Со мной произошли тревожные последствия алгоритмической предвзятости. При проверке вывода на других расах этой проблемы не возникало, так что это не просто проблема, которую можно исправить с помощью большего количества тренировочных образцов или меньшего количества белых инженеров-расистов, как это озаглавлено в этой статье (такие дезинформирующие статьи ранят дважды, когда они взято из The Guardian). В настоящее время это проблема осведомленности, поскольку это непреднамеренная предвзятость. Я настаиваю, что это не просто проблема обучения наборов данных, некоторые образцы никогда не показывались в сети и очень хорошо предсказывались. Я прочитал десятки новостных статей об алгоритмах смещения, но обращал на них внимание, пока это не случилось с моей работой. При написании моей диссертации я нашел несколько тревожных исследовательских работ, таких как Автоматизированный вывод о преступности с использованием изображений лиц и нашел их очень тревожными. Первые мысли, которые пришли мне в голову, были о том, что произойдет, если это программное обеспечение В штатах, по данным Бюро статистики юстиции, каждый третий чернокожий мужчина может рассчитывать на то, что при жизни попадет в тюрьму. Я надеюсь, что они используют мою предвзятую нейросеть :( к сожалению, этого не произойдет, в этом случае ИИ просто увеличит их шансы.

Размышляя над этим исследовательским документом и над своим неисправным программным обеспечением, я сделал окончательный вывод. Зная, что в архитектуре программного обеспечения у нас есть некоторые принципы, такие как «безопасность по замыслу», почему бы не начать использовать другие, такие как «этичность по замыслу»? >