Предвзятость ИИ и что с этим делать

Предвзятость ИИ исходит не от алгоритмов ИИ, а от людей. Что это значит и что мы можем с этим поделать?

Наборы данных - это только люди.

Технологии не свободны от людей

Никакая технология не свободна от создателей. Несмотря на наши самые заветные научно-фантастические пожелания, не существует таких вещей, как системы ML / AI, которые были бы по-настоящему отдельными и автономными… потому что они начинаются с нас.

Все технологии - это отголоски желаний тех, кто их построил.

Речь идет не только о ML / AI; любая технология, которую вы рискуете считать независимой, - это просто та технология, эффект которой сохраняется дольше после нажатия кнопки.

Независимо от того, насколько сложным является его эхо, технология всегда исходит от людей и создается ими, а это значит, что она не более объективна, чем мы. Это делает определение алгоритмической предвзятости проблематичным.

Алгоритмическая предвзятость относится к ситуациям, когда компьютерная система отражает неявные ценности людей, которые ее создали, но разве не все технологии отражают неявные ценности ее создателей? А если вы думаете, что люди могут быть совершенно непредвзятыми, прогуляйтесь по этому списку

Данные и математика не равны объективности

Если вы ищете ИИ как своего спасителя от человеческих слабостей, действуйте осторожно.

Математика может скрыть человеческий фактор и создать иллюзию объективности.

Конечно, данные и математика могут увеличить объем информации, которую вы используете при принятии решений, и / или избавить вас от сиюминутной глупости, но то, как вы их используете, все еще зависит от вас.

По данным Википедии:

Объективность - это философское понятие о том, что оно истинно независимо от индивидуальной субъективности, вызванной восприятием, эмоциями или воображением.

К сожалению, слой математики и данных распространился поверх множества совершенно субъективных решений (Для чего нам применять ИИ? Стоит ли это делать? В каких обстоятельствах? Как мы должны определять успех? Насколько хорошо он должен работать? и т. д. ») затемняет вездесущий человеческий элемент и создает иллюзию объективности.

Гораздо ярче сказать: «ИИ научился решать эту задачу сам…», чем сказать правду.

Послушайте, я знаю, что научная фантастика продается. Гораздо ярче сказать: «ИИ научился решать эту задачу сам…», чем сказать правду: «Люди использовали инструмент с классным названием, чтобы помочь им писать код. Они вводили примеры, которые считали подходящими, находили в них некоторые закономерности и превращали эти шаблоны в инструкции. Затем они проверили, понравилось ли им то, что для них сделали эти инструкции ».

Истина пропитана человеческой субъективностью - взгляните на все те маленькие выборы, которые остаются на усмотрение людей, управляющих проектом. Обернув их гламурным слоем математики, ядро ​​не станет менее мягким.

Когда математика применяется к какой-то цели, эта цель по-прежнему определяется чувствительностью нашего времени.

Что еще хуже, весь смысл ИИ в том, чтобы позволить вам объяснять свои желания компьютеру, используя примеры (данные!) Вместо инструкций. Какие примеры? Эй, это зависит от того, чему вы пытаетесь научить свою систему. Наборы данных похожи на учебники для вашего ученика. Угадай, что? У учебников есть авторы.

Когда я сказал, что « предвзятость исходит не от алгоритмов искусственного интеллекта, а от людей , некоторые люди написали мне, что я ошибаюсь, потому что предвзятость исходит от данных. Что ж, мы оба можем быть победителями… потому что данные создают люди.

Учебники отражают пристрастия их авторов. Как и у учебников, у наборов данных есть авторы. Их собирают по инструкции людей.

Другие варианты дизайна, такие как критерии запуска, совокупность данных и многое другое, также полностью зависят от людей, принимающих решения, поэтому так важно, чтобы вы позаботились о том, чтобы мудро выбирать руководителей проекта и тренируйте их хорошо .

Безопаснее всего думать об ИИ как об инструменте для написания кода.

Пожалуйста, не становитесь жертвой научной фантастики. Вы уже знаете, что компьютерный код пишут люди, поэтому он отражает их неявные ценности. Думайте об ИИ как об отличном инструменте для написания кода - потому что это то, что он есть - поэтому те же основы остаются в силе. Не забывайте тщательно проектировать и тестировать всю технологию, особенно когда она масштабируется.

Это не оправдание быть придурком

Машины - это просто инструменты. Они являются продолжением своих создателей, которые, согласно кровавому определению в последнем пункте этого списка (когда наш прошлый опыт искажает наше восприятие информации и реакцию на нее), являются пристрастный.

Восприятие каждого из нас сформировано нашим прошлым опытом, и все мы - продукты нашей личной истории. В этом смысле каждый человек предвзят.

Философские аргументы, опровергающие существование действительно беспристрастных и объективных технологий, никому не дают повода быть придурком. Во всяком случае, тот факт, что вы не можете переложить этические деньги на машину, возлагает на ваши плечи больше ответственности, а не меньше.

Конечно, наше восприятие сформировано нашим временем. Общественные представления о добродетели, справедливости, доброте, справедливости и чести сегодня уже не те, что были у людей, живших несколько тысяч лет назад, и могут продолжать меняться. Это не делает идеи несущественными, это только означает, что мы не можем передать их на аутсорсинг в куче проводов. Мы все вместе несем за них ответственность. Мы должны стремиться к соблюдению этических норм и относиться ко всем людям с высочайшими стандартами уважения и заботы.

Тот факт, что вы не можете переложить этические обязательства на машину, возлагает на ваши плечи больше ответственности, а не меньше.

Справедливость в ИИ

Когда вы осознаете, что несете ответственность за то, как вы используете свои инструменты и куда вы их указываете, постарайтесь осознать, как ваш выбор влияет на остальное человечество. Например, какое приложение выбрать - это выбор, который влияет на других людей. Подумайте об этом.

Вы несете ответственность за то, как вы используете свои инструменты и куда вы их указываете.

Другой выбор - какие данные использовать для ИИ. Вы должны ожидать лучшей производительности на примерах, которые похожи на те, на которых училась ваша система. Если вы решите не использовать данные таких людей, как я, ваша система с большей вероятностью совершит ошибку, когда я появлюсь как ваш пользователь. Ваш долг - подумать о боли, которую вы можете причинить, когда это произойдет. Да, это требует усилий и воображения (и обширной аналитики).

Как минимум, я надеюсь, у вас хватит здравого смысла проверить, соответствует ли распределение вашей пользовательской совокупности распределению в ваших данных. Например, если 100% ваших обучающих примеров поступают от жителей одной страны, но ваши целевые пользователи являются глобальными… ожидайте беспорядка. Ваша система будет относиться к жителям этой страны менее небрежно, чем ко всем остальным. Это честно?

Если вы хотите вывести свою аналитику справедливости на новый уровень, существуют специальные инструменты, которые могут вам помочь. Один из моих любимых - Что-если.

Справедливый и осведомленный

Есть много вариантов, за которые люди несут ответственность на пути к ИИ. Половина решения состоит в том, чтобы проектировать системы, чтобы они были хорошими, справедливыми и справедливыми для всех. Другая половина - уничтожить ваше незнание последствий вашего выбора в пути. Считать. Осторожно. (И используйте аналитику, чтобы думать еще более тщательно.)

Если вы хотите стремиться к справедливости, работайте над тем, чтобы уничтожить собственное незнание последствий своих решений.

Я написал здесь много слов, хотя мог бы просто сказать вам, что большая часть исследований по теме предвзятости и справедливости в ML / AI направлена ​​на то, чтобы убедиться, что ваша система не оказывает непропорционального воздействия на одна группа пользователей по отношению к другим. Основное внимание уделяется распределительным проверкам и подобной аналитике. Причина, по которой я так много написал, в том, что я хочу, чтобы вы сделали еще лучше. Автоматические проверки распространения пока идут не так далеко. Никто не знает систему лучше, чем ее создатели, поэтому, если вы создаете ее, подумайте.

Подумайте о том, как ваши действия повлияют на людей, и сделайте все возможное, чтобы дать тем, на кого вы повлияете, голос, который проведет вас через ваши слепые зоны.

Спасибо за прочтение! Как насчет курса YouTube AI?

Если вам здесь было весело и вы ищете прикладной курс искусственного интеллекта, предназначенный для развлечения как новичков, так и экспертов, вот один, который я сделал для вашего развлечения: