В этой статье обсуждаются последствия искусственного интеллекта конкретно в контексте социальной и моральной этики. ИИ быстро развивался на протяжении многих лет и повлиял на многие области, автоматизировав несколько процессов. Было замечено, что в период своего развития ИИ широко доминировал в областях, уязвимых для этических и социальных проблем. В этой статье также обсуждаются области, в которых воздействие ИИ создает серьезную угрозу этическим и моральным ценностям, а также меры, которые могут быть приняты для внедрения и внедрения приложений ИИ в социально ответственной манере.

Введение

Искусственный интеллект, как следует из названия, предназначен для автоматизации и революционного изменения различных процессов, которые раньше даже близко не представлялись возможными. По мере того, как поле росло, его применение не прекращалось. Потребности различных развивающихся секторов в значительной степени дополняются технологическими отделами, которые в значительной степени поддерживаются искусственным интеллектом и автоматизированным проектированием процессов. Эти процессы вызвали растущую потребность в искусственном интеллекте, что, в свою очередь, повлияло на мир и общество как положительно, так и отрицательно. Некоторые из положительных применений искусственного интеллекта проявляются в секторах здравоохранения, финансов и сельского хозяйства, где доминирование ИИ оказалось полезным для общества. Хуже всего, когда та же концепция искусственного интеллекта используется в приложениях, которые негативно влияют на общество и представляют явную угрозу социальным и моральным ценностям любого человека и общества в целом. Настало время четко разграничить хороший ИИ и плохой ИИ и сформулировать четкое обоснование того, почему продвижение плохого ИИ опасно для человечества и общества.

Проблема

Этические трудности ИИ иногда могут стать действительно субъективными. Чтобы провести тонкую грань между этичным и неэтичным ИИ, анализ должен быть очень критическим и достаточным. Например, в случае с автономными транспортными средствами идея кажется захватывающей, но в то же время она предполагает множество мер предосторожности. ИИ, стоящий за автономными автомобилями, до настоящего времени недостаточно способен принимать сложные решения во время выполнения. Например, в случае какой-то аварии ИИ должен спасти пешехода или другого водителя автомобиля? Искусственный интеллект эффективно справился с такими сложными ситуациями. Решение в таких условиях основано на чистых эмоциях и настроениях среды выполнения, а не на выходе огромных матричных умножений глубокого обучения. Поэтому появление этого применения ИИ явно опасно и неэтично для общества.

Искусственный интеллект обычно вращается вокруг трех основных принципов: подчинение, выживание и защита. Принцип защиты — вот где вступает в действие этическая/неэтичная часть. Еще один крупный класс этически нестабильных приложений ИИ — это производство автономного оружия. Использование автономного оружия — это серьезная ситуация, когда одно неверное решение может подвергнуть жизнь невиновного серьезному риску.

Серьезная моральная и этическая проблема возникает, когда такие приложения выполняются с нарушением авторских прав. Примером таких приложений являются пиратство контента, текстовый плагиат, удаление водяных знаков и многое другое. Эти приложения крадут права собственности и распространяют пиратскую собственность среди своих пользователей.

Системы создания фальшивых удостоверений также представляют серьезную угрозу для этики общества. Из-за появления глубокого обучения и высокопроизводительных вычислений могут быть разработаны поддельные удостоверения личности (карты), которые можно использовать для кражи личных данных других лиц, чтобы заниматься преступной и аморальной деятельностью.

Субъективной этической проблемой в категории сектора возможностей является безработица, которой способствует ИИ. С появлением новых приложений на основе искусственного интеллекта наем экспертов, которые вручную управляли процедурой, оказался под угрозой. Например, считыватели вакансий могут быть заменены приложением ИИ, задача работника может быть взята на себя роботами, ответственность организатора встреч может быть переложена на программное обеспечение ИИ, которое автоматически составляет расписание для размещения встреч, и многое другое. более.

Наряду с этими этическими и моральными проблемами ИИ возникает вопрос о решении этих этических проблем и соответствующем планировании будущего ИИ. Должно быть ясно, что основные права каждого человека; конфиденциальность, согласие, личность, способности, этика, добро и демократия должны быть сохранены. Должно быть ясно, что мораль не может быть передана машинам. Неважно, что такое алгоритмическая ответственность, но решения, основанные на эмоциях и морали, могут подвергаться риску с приложениями ИИ. Что касается безработицы, верно то, что приложения ИИ действительно вмешиваются в рынок труда, но проблему можно решить путем плавного равновесного перехода рабочих мест. Если определенную работу заменяет агент ИИ, то это также создает новые возможности и основания. Создание новых навыков, которые идут рука об руку с эпохой искусственного интеллекта, помогает в создании и поддержании здоровой системы занятости. Безопасность ИИ — еще один важный модуль, когда мы говорим о решениях этического ИИ. Согласно этическому ИИ, безопасность ИИ говорит, что забота об опасных приложениях ИИ должна решаться с помощью высококачественного зрения и глубоких знаний машинного понимания. Если это так, человечество может ограничить современные машины ИИ, чтобы они работали в ограниченном объеме и не вторгались в частную жизнь общества в целом и на индивидуальном уровне. Термин «общий искусственный интеллект» в настоящее время кажется угрозой человечеству из-за его некомпетентности в области понимания эмоций. Чтобы сохранить этику, разумное человечество должно позволить ОИИ развиваться на таком уровне, где он не угрожает основным правам человечества.

Вывод

Выше упомянуты некоторые из хороших и плохих применений ИИ. Большая часть этого размышления вращается вокруг этических проблем в области ИИ. Страх перед ИИ оправдан в свете современного неэтичного использования ИИ, но осторожное ограничение его эволюции в сторону искусственного общего интеллекта может устранить риски неэтичности и безнравственности. Решение по-прежнему остается в руках человечества, насколько оно хочет ограничить и продвинуть ИИ и до какого уровня.