По мере роста возможностей использования возможностей искусственного интеллекта растет и необходимость учитывать сложные решения и компромиссы, на которые люди идут в отношении конфиденциальности, предвзятости, этики и безопасности.

Гвинет К. Шоу

По мере того, как искусственный интеллект перешел из области научной фантастики в повседневные приложения, волнующие возможности — и потенциальные проблемы — вызвали наибольший интерес.

Серьезные опасения уже вызывают некоторые практики с использованием ИИ, например, возможность создавать дипфейковые видео, чтобы вкладывать слова в чьи-то уста, или растущее использование технологии распознавания лиц в общественных местах. Автоматизированные результаты, которые, как оказалось, отражают расовые или гендерные предубеждения, побудили некоторых сказать, что сами программы являются расистскими.

Но проблема скорее случайна, чем злонамеренна, считает ученый-компьютерщик из Пенсильвании Аарон Рот. Алгоритм — это инструмент, как и молоток, но, хотя говорить об этическом молотке бессмысленно, можно сделать алгоритм лучше за счет более продуманного дизайна.

«Это не было бы моральным провалом молота, если бы я ударил им кого-нибудь. Этическая ошибка была бы моей собственной», — говорит он. «Но вред, который в конечном итоге наносят алгоритмы, на несколько ступеней меньше, чем у людей, инженеров, которые их разрабатывают».

Рот и другие эксперты признают, что заставить людей обучать машины делать упор на справедливость, конфиденциальность и безопасность — огромная проблема. Уже сейчас специалисты разных дисциплин, от инженерии и компьютерных наук до философии и социологии, работают над переводом расплывчатых социальных норм о честности, конфиденциальности и многом другом в практические инструкции для компьютерных программ. Это означает задавать несколько трудных вопросов, говорит Рот.

Конечно, регулирование и юридические подходы играют важную роль, но я думаю, что сами по себе они крайне недостаточны, — говорит Рот, чья книга Этический алгоритм с коллегой Пенна Майклом Кернсом будет опубликовано в ноябре.

Он добавляет, что сам размер наборов данных может затруднить прозрачность, но в то же время легче выявлять ошибки.

«Это не новые вопросы. Просто их легко игнорировать, когда люди принимают решения», — говорит он.

Продолжить чтение на Penn Today. Эта статья является частью серии Penn Today’s, посвященной искусственному интеллекту.