Этика при разработке алгоритмов искусственного интеллекта - часть 1

По мере того как наша цивилизация становится все более и более зависимой от компьютеров и других интеллектуальных устройств, возникает особая моральная проблема, которую дизайнеры и программисты неизбежно будут вынуждены решать. Среди этих проблем - доверие. Можем ли мы верить, что созданный нами ИИ будет делать то, для чего он был разработан, без всякой предвзятости? Еще есть проблема неподкупности. Можно ли обмануть ИИ, сделав что-то неэтичное? Можно ли запрограммировать его на совершение незаконных или аморальных действий? Также на ум приходит прозрачность. Будут ли понятны мотивы программиста или ИИ? Или будет двусмысленность во взаимодействии между людьми и ИИ? Список вопросов можно продолжать до бесконечности.

Представьте, что правительство использует алгоритм машинного обучения, чтобы рекомендовать заявки на одобрение студенческих ссуд. Отвергнутый ученик и / или родитель могут подать иск, утверждая, что алгоритм был разработан с расовой предвзятостью против некоторых абитуриентов. Защита могла заключаться в том, что это было невозможно, поскольку оно было специально разработано таким образом, чтобы не было информации о расе человека, подающего заявку на студенческую ссуду. Это могло быть причиной создания такой системы в первую очередь - чтобы гарантировать, что этническая принадлежность не будет фактором, как это может быть с человеком, одобряющим заявки. Но предположим, что в этом случае было доказано какое-то расовое профилирование.

Если направленная эволюция создала алгоритм ИИ, тогда будет невозможно понять, почему и даже как. Возможно, алгоритм ИИ использует данные физического адреса кандидатов в качестве одного из критериев при принятии решений. Возможно, они родились или когда-то жили в бедных регионах, и что на самом деле большинство тех претендентов, которые соответствуют этим критериям, оказались представителями меньшинств. Мы не смогли бы ничего узнать об этом, если бы у нас не было способа проверить системы, которые мы проектируем. Для нас станет критически важным разработать алгоритмы ИИ, которые не только будут надежными и масштабируемыми, но и легко открытыми для проверки.

Открытость для проверки - не единственная характеристика, которую мы надеемся привить ИИ. Также важно, чтобы они были предсказуемы для тех функций, которые мы создали для их наблюдения. Дизайнеру это «предпочтение прецедента» (желание с готовностью предсказывать результат на регулярной основе) может показаться непонятным. Зачем ограничивать наше будущее творчество, ограничивая его прошлым, когда предполагается, что технологии всегда развиваются?

Это также станет более важным, поскольку ИИ становится все более и более сложным, поскольку его алгоритмы предназначены для предотвращения манипуляций. Это означает, что они должны быть устойчивы к внешним воздействиям, которые призваны повредить их функции в пользу чего-то еще. Если система ИИ не справится со своей задачей, кто возьмет на себя вину? Компания, которая это сделала? Конечные пользователи?

Бюрократия часто укрывается, создавая системы, которые настолько широко распределяют ответственность, что ни один человек не может взять на себя вину. Система искусственного интеллекта может стать даже лучшим убежищем. Просто вините во всем машину. Это легко, и он не может защитить себя.

К счастью, большинство используемых в настоящее время ИИ создают очень мало этических проблем, которые еще не присутствуют в продуктах и ​​услугах. Подход алгоритмов искусственного интеллекта к более человеческому пониманию будет иметь ожидаемые трудности, поскольку мы начнем все больше и больше применять эти алгоритмы в нашем обществе.

Проблема возникает по мере того, как платформы искусственного интеллекта становятся все более и более интеллектуальными и должны вести себя как люди. Когда это станет нормой, общие алгоритмы ИИ могут перестать работать в предсказуемых контекстах, что потребует новых видов гарантий безопасности и создания целого ряда этических соображений для систем ИИ.

Перспектива ИИ с продвинутым интеллектом и продвинутыми способностями ставит перед нами экстраординарную задачу создания алгоритма, результаты которого будут иметь продвинутый этический характер. Кому-то эти проблемы могут показаться научной фантастикой, но мы действительно столкнемся с ними в будущем.

Так как же нам решать эти моральные дилеммы? Как нам противостоять им и найти способы их преодолеть? Следуя одному простому руководству: мы, разработчики опыта, должны стремиться улучшать мир, а не дублировать его. Мы должны проявлять крайнюю осторожность. Пока наш существующий мир несовершенен и данные, формирующие новый мир, исходят от нас, мы не будем разрабатывать будущие модели, которые улучшат наше прошлое, если мы не дадим четких указаний на это.

Если вам это понравилось, нажмите ♥ ниже. Я был бы признателен за это, и это заставит меня писать больше - спасибо!