Часть 3. Моральная свобода воли

Эмануэль Цундреа, доктор философии. Кандидат технических наук, Университет Эмануэля в Орадеа, 14 сентября 2020 г.

Предыдущий пост о конфиденциальности данных привлек внимание к возможности использования возможностей ИИ для профилирования учащихся, чтобы помочь им в их образовательном пути или помочь им в изучении сложных предметов. В этом посте поднимается вопрос о том, как ИИ-помощник должен быть наделен способностью принимать решения и как привлечь создателей к ответственности за его решения.

Эта тема представляет большой интерес во многих других областях: вынесение приговоров в судах для определения вероятности повторного совершения преступления на основании их профиля, забота о пожилых людях, разработка беспилотных транспортных средств или даже полностью автономное оружие, способное находить и уничтожать целей без вмешательства человека. ВАУ! Эти вопросы кажутся нам такими близкими в наши дни. Что, если вы попадете в неизбежную автомобильную аварию, а ваш автомобильный компьютер отдаст приоритет вашей безопасности, а не маленькому ребенку на улице? См. обсуждение темы Этика будущих беспилотных автомобилей Mercedes.

Возвращаясь к высшему образованию: должен ли репетитор говорить студенту, что интеллектуальная система может анализировать данные об его успеваемости, чтобы решить, будет ли он принят на программу или получит ли он стипендию или нет? Должна ли машина принимать окончательное решение об оценке эссе или проекта? Всякий раз, когда необходимо принять решение или даже дать рекомендацию, возникает моральная ответственность. Следовательно, вопрос заключается в том, должны ли педагоги наделять роботов моральной свободой, чтобы решения принимали не они, а машина. Основа, на которой робот-помощник принимает решения, должна быть прозрачной и четко определенной.

Если репетитор ИИ наделен способностью принимать решения, то он выходит за рамки простого помощника студента или профессора. Вместо этого он становится влиятельным лицом. Мораль, стоящая за алгоритмической предвзятостью машинного обучения, должна подчиняться этическим принципам. Любой дизайн, связанный с ИИ, должен формироваться с учетом этики.

Лаборатории Массачусетского технологического института предлагают возможный способ определения этических инструментов ИИ в рамках проекта «Моральная машина»:

«Предоставление платформы для 1) построения краудсорсинговой картины человеческого мнения о том, как машины должны принимать решения, сталкиваясь с моральными дилеммами, и 2) краудсорсингового собрания и обсуждения потенциальных сценариев моральных последствий

Такая возможная стратегия означает обращение ко всему «школьному сообществу» — всем, кто заинтересован в благополучии и успехе образования (администрации, учителям, сотрудникам, ученикам, родителям, местным бизнес-лидерам, избранным должностным лицам, …), чтобы предложить свою точку зрения. о моральных решениях, принимаемых помощниками машинного интеллекта. Это означает оказание помощи в формировании не только рекомендаций по учебному плану, но и всей помощи ИИ.

Я бы предположил, что еще более успешная стратегия подчеркивается недавним исследованием, проведенным социологическим факультетом Университета Нотр-Дам, которое показывает, что религиозные сообщества имеют более глубокую приверженность этичному служению, а также заботе об окружающей среде, участию в политике. и бороться с несправедливостью на рабочем месте (включая образование). Поэтому, поскольку сейчас мы живем в мультикультурной среде, мы хотим пригласить всех принять участие в разработке политики, которая обеспечит большие преимущества новых технологий и позволит избежать серьезных рисков, связанных с делегированием моральной свободы воли машине.

Пища для размышлений:

  • Если бы вам нужно было определить мораль и этику для репетитора с искусственным интеллектом, как бы вы это сделали? Что будет эталоном?
  • Вы регулярно ставите перед собой задачу выйти из зоны комфорта, разговаривая с людьми, у которых другие убеждения и моральные устои?
  • Готовы ли вы служить и участвовать в разработке политики, чтобы обеспечить прозрачность и этичность встроенного процесса принятия решений нашими помощниками по искусственному интеллекту?