Я часто просматриваю предыдущие статьи, которые я написал, чтобы увидеть, актуальны ли содержащиеся в них идеи или изменилось ли состояние мышления в этой области. Недавняя дискуссия о том, может ли модель искусственного интеллекта Google быть разумной, а также некоторые недавние мейнстримные отчеты о моделях искусственного интеллекта Фонда заставили меня вспомнить о статье, которую я написал в прошлом году о скрытой этике в именовании ИИ/технологии и о том, как предвзятость по-прежнему остается одной из основных проблем, с которыми мы сталкиваемся при этичном использовании данных и искусственном интеллекте.

Поскольку гендерная предвзятость явно проявляется в интеллектуальных цифровых помощниках, а также в наших усилиях по их более физическим формам, мы видели много случаев расовой предвзятости в интеллектуальных системах, принятых как в государственном, так и в частном секторах. Машины и автоматизация значительно расширяют наши возможности по доставке — там, где они имеют врожденную предвзятость, они значительно увеличивают нашу способность причинять вред нашим собратьям.

Независимо от того, сознательно или бессознательно создается эта предвзятость создателем/программистом, или она возникает в результате поглощения плохо сконструированных, управляемых или понятых наборов данных, результаты могут быть в равной степени катастрофическими. Это особенно остро проявляется в государственном секторе и секторе услуг, где такая автоматизация может способствовать дальнейшему укоренению неравенства — даже если целью может быть устранение такого неравенства.

Что беспокоило меня больше, чем то, стала ли модель Lamda в Google разумной (если быть точным, я не верю, что она была), так это мысль о том, что любой эмерджентный разум, основанный на данных, которые мы скормим ему сейчас, не может не быть ничем иным, как пронизанным. со всякими человеческими предубеждениями. Хуже того, в зависимости от того, какие данные были раскрыты, он мог собрать множество потенциально вредных предубеждений — намного больше, чем может утаить один человек.

Я считаю, что нам пора установить контроль над тем, как «растят и обучают» наших новых умных помощников. У нас есть четкие правила относительно того, чему мы учим наших детей в школах, как эта информация представлена ​​и как связать различные темы вместе. Мы должны проявлять такую ​​же заботу и внимание к нашим технологическим детям, как и к нашим человеческим детям. Мы не должны и впредь позволять созданию и обучению искусственного интеллекта происходить в темноте с непрозрачным управлением данными, с помощью которых он обучается, и тем, как он обучается. Я никогда не был особым поклонником антропоморфных систем ИИ, но мы все равно должны относиться к этим системам с уважением и не позволять их учить, в темноте все несправедливо, недобро или ненужно.

Итак, как мы можем начать бороться с этим? Мы можем начать с гораздо большей прозрачности в отношении качества, происхождения и контекста наборов данных, которые мы передаем этим моделям. Я считаю, что у нас должен быть четкий код и набор правил, по которым мы выбираем и утверждаем, какие данные предоставляются нашим моделям. В этой области растет число игроков, от крупных игроков общего профиля, таких как Google, Amazon и IBM, до нишевых игроков, о которых вы, возможно, все еще слышали, таких как Open.AI, Sift и Clearview. Компании будут чрезмерно ревностно охранять особенности своих продвинутых моделей, а также точную природу данных, которые они потребляют. Мы не должны выпускать какие-либо модели ИИ из лаборатории и использовать их до тех пор, пока нам не будут прозрачно предоставлены подробности наборов данных, на которых они обучались, и любой контекст, предоставленный в методе обучения, чтобы модель «понимала», какое предубеждение может существуют в данных и принять это во внимание.

Я считаю, что пришло время для нас иметь независимый внешний надзор за развитием ИИ и привлекать создателей к ответственности за разглашение качества, происхождения и контекста наборов данных, а также средств контроля, которые у них есть, чтобы поддерживать беспристрастность, справедливость и этичность обучения моделей. Амбициозный? Возможно, но необходимо, если мы все хотим сохранить свой личный цифровой суверенитет.

Одним из подходов к реализации этого может быть саморегулирование — отраслевой орган, который устанавливает правила и держит всех под контролем. Однако подобные схемы носят добровольный характер, скорее всего, будут локализованы в какой-либо стране и, как правило, полагаются на участников, желающих, чтобы их деятельность регулировалась. Расширение полномочий существующих регулирующих органов является альтернативным решением, а также обеспечит платформу для более глобального подхода, поскольку регулирующие органы работают в рамках существующих каналов сотрудничества с правительствами. Этот подход может также сделать правила более прозрачными, поскольку они формируются законодательством и общественными консультациями.

Если вы создаете большие модели, влияющие на решения, принимаемые в отношении отдельных лиц корпорациями или правительствами, вы можете помочь, задав вопросы о том, как собираются и управляются обучающие данные, как встроены меры безопасности и как модель подвергается сомнению и очищается от предвзятости. Вы можете подтолкнуть свою организацию к тому, чтобы стать лидером в области прозрачности в пространстве, завоевать доверие людей и, таким образом, зарекомендовать себя в качестве предпочтительного поставщика.

Начните задавать простые вопросы — это то, что мы создаем, и в конечном итоге это приведет к тому, что люди будут по-настоящему справедливыми, добрыми и нужными тем, на кого они нацелены.

Частные лица, корпорации и правительство должны действовать сейчас — еще не поздно, и сделать первые постепенные шаги, которые объединятся в мощный и защищающий человека контроль, несложно.

Об авторе

Джон Михаэлидис – старший директор по конфиденциальности, безопасности и этике данных в британской прогрессивной консалтинговой фирме Slalom, занимающейся внедрением Современной культуры данных и ИИ для всех.