Этический искусственный интеллект и искусственный интеллект в области прав человека - главная забота современных технологий. Недавно Google объявляет о создании группы экспертов по этике ИИ глобального консультативного совета, который предлагает рекомендации по этическим вопросам, связанным с искусственным интеллектом, автоматизацией и смежными технологиями. Microsoft также добавляет этику ИИ в свой стандартный контрольный список для выпуска продукта. Мы обсудили здесь пять ключевых областей этичного ИИ.

Хотя искусственный интеллект способен обрабатывать информацию со скоростью и мощностью, намного превосходящими человеческие, нельзя всегда считать его справедливым и нейтральным. Пришло время заняться вопросами прав человека и этики в будущих системах искусственного интеллекта. Сейчас права человека и этические требования к ИИ более серьезны, чем биомедицинские исследования.

В настоящее время 5 основных принципов Проекта этических принципов Экспертной группы высокого уровня Европейской комиссии по ИИ и 12 принципов сострадательного ИИ Шри Амита Рэя являются фактическим стандартом современных этических и гуманитарных норм. Системы искусственного интеллекта. .

Роботы с искусственным интеллектом становятся все лучше и лучше в моделировании человеческих разговоров и взаимоотношений. Как сказал известный ученый в области искусственного интеллекта и правозащитники Шри Амит Рей в своей книге Сострадательный искусственный интеллект: Люди ограничены во внимании, доброте и сострадание, которое они могут проявить к другим, но сострадательные роботы на основе ИИ могут направить практически неограниченные ресурсы на построение глубоких сострадательных отношений в обществе .

При правильном использовании ИИ может превратиться в возможность подтолкнуть общество к более выгодному поведению. Однако попадание в чужие руки может нанести вред обществу и привести к катастрофе.

Пять основных прав человека и этических проблем для ИИ

Здесь мы обсудили пять основных этических проблем ИИ. А именно, ИИ и технологическое дополнение, ИИ и вторжение в частную жизнь, ИИ и роботы-расисты, Системы автономного оружия на основе ИИ, ИИ и злые джинны.

1. ИИ и технологическое дополнение

Современные политические новости и другие заголовки новостей созданы для того, чтобы активировать центры вознаграждения в человеческом мозгу. Достаточно взглянуть на заголовки клик-приманок и видеоигры. Эти заголовки часто оптимизируются с помощью алгоритмов машинного обучения, чтобы контент привлекал больше внимания. Этот и другие методы используются, чтобы вызвать привыкание к многочисленным видео и мобильным играм. Зависимость от технологий - это новый рубеж человеческой зависимости и неправильного использования ИИ.

2. ИИ для наблюдения и вторжения в частную жизнь

AI становится лучше анализирует эмоции, разговоры и письма, технология может открыть путь к усилению пропаганды и дезинформации, а также более глубокому вторжению в личную жизнь. Он включает в себя мониторинг рабочего места, конфиденциальность в Интернете, сбор данных и другие средства распространения частной информации.

Компании, работающие в социальных сетях, работодатели и другие лица могут иметь какую-то систему мониторинга. У них может быть программное обеспечение для мониторинга вашей онлайн-активности или какая-то другая система, предназначенная для автоматического наблюдения за происходящим.

3. Предвзятость ИИ, дискриминация и расистские роботы

Когда данные, которые мы вводим в алгоритмы машинного обучения, отражают историю нашего собственного неравноправного общества, мы, по сути, просим программу изучить наши собственные предубеждения. Когда данные, используемые для обучения модели, смещены, модель будет давать смещенный результат.

Мы уже видели проблески того, что может быть на горизонте. Программы, разработанные компаниями, находящимися на переднем крае исследований в области ИИ, привели к ряду ошибок, которые до странности выглядят как темные предрассудки человечества: программа распознавания образов Google пометила лица нескольких чернокожих людей как горилл; рекламная программа LinkedIn показывала предпочтение мужских имен при поиске, а чат-бот Microsoft по имени Tay провел день, изучая Twitter, и начал распространять антисемитские сообщения.

4. Роботы-убийцы: Необычные оружейные системы на основе искусственного интеллекта

Роботы созданы для замены солдат-людей или автономного оружия, но для систем искусственного интеллекта, которые могут нанести ущерб при злонамеренном использовании. Поскольку эти битвы будут вестись не только на поле боя, кибербезопасность станет еще более важной. В конце концов, мы имеем дело с системой, которая на порядки быстрее и способнее нас.

Система оружия, которая способна выпустить смертоносную силу без операции, решения или подтверждения со стороны человека, может превратиться в роботов-убийц. Если позволить роботам выбирать цели и атаковать их, это может привести мир к дестабилизирующей гонке роботизированных вооружений.

5. ИИ и злые джинны

Что, если бы против нас выступил сам искусственный интеллект? Это не значит, что нужно обращать «зло» так, как это может сделать человек, или как бедствия, связанные с искусственным интеллектом, изображаются в голливудских фильмах. Скорее, мы можем представить передовую систему искусственного интеллекта как «джинна в бутылке», который может исполнять желания, но с ужасными непредвиденными последствиями.

Резюме:

С одной стороны, у нас есть сострадательный ИИ с огромным потенциалом служить человечеству, а с другой - роботы-убийцы. Выбор за нами. Сам ИИ никогда не несет прямой ответственности за неправильное использование. Ответственный агент - компания, которая занимается проектированием, разработкой и развертыванием систем искусственного интеллекта.

Потенциальные преимущества исследований ИИ огромны. Он может искоренить болезни и бедность, но его злоупотребления могут иметь катастрофические последствия. Наука и технологии созданы людьми, чтобы служить человечеству, но технологии искусственного интеллекта должны иметь больше возможностей способствовать открытию человечества на благо человечества. Если этика не соблюдается, системы ИИ могут принести обществу больше вреда, чем пользы.