В последнее время стало ежедневно слышать, как люди говорят о хороших или плохих системах ИИ. Мы говорим о «них», как будто «они» имеют какую-то волю или намерение действовать определенным образом. Мы очеловечиваем системы ИИ и тем самым судим о них, как и любой другой сознательный человек. Общественные деятели, университеты, СМИ и компании настолько активно участвуют в этом явлении, что даже MIT Technology Review опубликовал статью о плохих ИИ.

Вы можете подумать, что это не имеет большого значения, что это просто вопрос слов, даже просто невинный или веселый способ рассказать об этих системах. Мы называем ChatGPT он, здороваемся или благодарим алгоритм за выполненную задачу, и даже можем кидать в него какие-то оскорбления. Но почему нас должно волновать такое поведение?

Во многих различных сферах нашей жизни мы требуем ответственности от государственных чиновников, руководителей компаний или школьных учителей. Но если алгоритм дискриминирует вас, с кем вы говорите? Важное значение слов в том, что разговоры об ИИ как об агентах с волей и намерением, в широком смысле, снимают с разработчиков, разработавших и внедривших модель ИИ, любую ответственность. Мы подразумеваем, что эти системы могут действовать независимо, основываясь на своей собственной моральной системе.

Решение проблемы

По словам исследователей из Оксфорда, первый шаг — это говорить об хорошо разработанных или плохо разработанных алгоритмах ИИ, а не о хороших или плохих системах ИИ. Такой подход к результатам решений ИИ подразумевает, что кто-то (разработчик) несет ответственность за прогнозы и, в конечном итоге, за их влияние, как положительное, так и отрицательное.

Но указывать пальцем на какого-то разработчика — это несправедливо и не является решением. Проблемы при создании системы ИИ возникают из самых разных областей: архитектура алгоритма, наборы данных, область знаний, доступные МСП, общение между командами и т. д. Эту сложность необходимо решать систематически, чтобы разработчики могли привнести в процесс проектирования потенциал воздействия системы, которую они собираются построить.

Диаграммы, политики и заявления этического ИИ сейчас являются популярной темой. У большинства технологических компаний может быть один, включая Google, Microsoft, OpenAI и многие другие. И вы можете сказать, что мы идем правильным путем, но нужно сказать правду: хотя эти заявления необходимы и являются хорошим шагом к ответственному ИИ, они действительно абстрактны, и этические манифесты ИИ стали хорошей вещью для демонстрации, но практически не влияет на сценарии реального мира.

Что нам нужно для создания хорошо разработанных алгоритмов?

По состоянию на апрель 2023 года нет четкого способа сделать это. Правительственные органы, аналитические центры, ученые и практики работают над этим, и общее основание для того, чтобы начать думать об этом, — это то, как реализовать этику ИИ. В статье, опубликованной в 2021 году, оксфордские исследователи предложили подход к ее достижению, и здесь я представляю вам 4 ключевых соображения:

Избегайте общих рекомендаций:помимо общих вещей, о которых может говорить любая этическая таблица, рассмотрите ваши конкретные варианты использования ИИ, вашу целевую аудиторию и команды, решающие проблему (те, которые разрабатывают алгоритм). .

Философия полезна, но будьте прагматичны:инструменты в вашей компании могут учитывать философские и этические вопросы, связанные с системами ИИ, которые создают ваши команды, но если их попросят получить всю теоретическую основу для обсуждения проблемы, ваши инициативы в области ИИ ни к чему не приведут. Вместо этого воплотите эти соображения в четкие и понятные инструменты. Ваш набор инструментов ИИ должен точно учитывать этические границы и пути принятия решений.

Побуждайте свою команду думать о будущих сценариях, но избегайте чрезмерных размышлений: анализ потенциальных последствий может вызвать интересные дебаты и дискуссии в вашей команде, но в какой-то момент необходимо принять решение, чтобы не остановить действия.

Поговорите об ИИ со своими заинтересованными сторонами: вовлеките их в процесс проектирования и принятия решений ваших решений ИИ. Принятие во внимание их точки зрения является ключевым шагом в определении потенциального риска и мозговом штурме мер по его снижению.

Ссылки:

Внедрение этики ИИ в эксплуатацию: барьеры, факторы и дальнейшие шаги:https://doi.org/10.1007/s00146-021-01308-8