Что такое генеративный ИИ? Что следует делать командам Trust & Safety в случае негативных аспектов этой технологии?

С введением ChatGPT3 и ChatGPT4 генеративный ИИ переживает момент славы. Но что такое генеративный ИИ и каковы его последствия для общества?

Генеративный искусственный интеллект — это подмножество машинного обучения, которое создает алгоритмы, которые могут генерировать новые данные, используя существующие данные. Это позволяет системам создавать новый контент, используя ранее созданные материалы, такие как текст, аудио, видео, изображения и код. Одним из примеров является ChatGPT, сокращение от Generative Pre-trained Transformer. Хотя это невероятно мощная технология, которая может повысить производительность и эффективность в любой организации, генеративный ИИ ставит уникальные задачи перед группами доверия и безопасности (T&S), которые отслеживают онлайн-платформы, такие как социальные сети.

Генеративный ИИ — это следующий рубеж в области доверия и безопасности, поскольку мы до сих пор не усовершенствовали нашу способность защищать эту мощную технологию от неправомерного использования. Экспонат A: вирусная фотография Папы Римского в дутом белом халате. Кстати, я думаю, что Папа Римский выглядит потрясающе на этой фотографии… но я отвлекся.

Вот некоторые ключевые риски, с которыми столкнутся команды T&S по мере распространения генеративного ИИ на онлайн-платформах:

  1. Предвзятость: когда ИИ обучается на предвзятых данных или когда инженеры, обучающие данные, вносят свои собственные предубеждения, системы ИИ выдают предвзятые результаты, которые могут увековечить вредные убеждения и стереотипы.
  2. Модерация контента: чат-боты, такие как GPT, могут затруднить обнаружение дезинформации и вредоносного контента инструментами модерации контента, используя ключевые слова и фразы, не связанные с контентом, нарушающим правила сообщества платформы.
  3. Конфиденциальность: для работы генеративного ИИ требуются большие объемы данных, что вызывает проблемы с конфиденциальностью. Команды T&S должны обеспечить, чтобы данные собирались и использовались ответственным и прозрачным образом.

Столкнувшись с этими потенциальными наземными минами, как команды T&S могут снизить риски?

  1. Используйте разнообразные и репрезентативные наборы данных для обучения моделей машинного обучения и итеративный подход для постоянного повышения точности инструментов модерации контента.
  2. Не полагайтесь исключительно на алгоритмы модерации контента: используйте людей-рецензентов вместе с автоматизированными инструментами для просмотра контента и принятия окончательных решений. Часто вносите новшества, поскольку ключевые слова или фразы, традиционно связанные с вредоносным контентом, постоянно меняются.
  3. Внедрите надежную защиту конфиденциальности и информируйте пользователей о ваших методах работы с данными. Это укрепляет доверие пользователей, обучая их и предоставляя им право собственности на свои данные.

В целом, группы доверия и безопасности должны быть гибкими и активными в устранении рисков, связанных с генеративным ИИ, и тесно сотрудничать в своих организациях для разработки эффективных стратегий управления этими рисками.