Публикации по теме 'deepfakes'


Цифровой обман: угрозы технологии дипфейков
В последние годы развитие искусственного интеллекта (ИИ) позволило создавать невероятно реалистичные поддельные видео и изображения. Они известны как дипфейки и генерируются алгоритмами глубокого обучения, которые могут научиться манипулировать цифровыми медиа так, как раньше это было невозможно. Хотя эта технология имеет ряд положительных применений, например, в индустрии развлечений, она также сопряжена с серьезными рисками, в частности, с точки зрения политической и социальной..

Рост дипфейков: изучение этики и рисков обмана с помощью ИИ
Распространение дипфейков, гиперреалистичных видео или изображений, созданных искусственным интеллектом, вызвало обеспокоенность и опасения по поводу возможности неправомерного использования и манипуляций. Хотя технология, стоящая за дипфейками, существует уже несколько лет, последние достижения в области машинного обучения сделали их более убедительными и трудными для обнаружения. Дипфейки использовались для самых разных целей, от создания поддельного порно со знаменитостями до..

Глубокий генератор поддельных изображений и обнаружение
За последние несколько лет дипфейки начали штурмом завоевывать Интернет и реальный мир, а в 2020 году дипфейки стали мейнстримом. Мы видим дипфейки в рекламе и телешоу, но некоторые используют их для распространения ложной и дезинформации. В то время как многие видео безобидны, другие вызвали большое раздражение, когда лица политиков заставляют выглядеть так, будто они говорят и делают то, чего не говорили и не делали. • Хотя вы можете быть знакомы с дипфейковыми видео, вы можете не..

Добро пожаловать в новую эру кибермошенничества на базе Deepfakes
Что означают дипфейки для кибермошенничества и как они расширят его возможности Представьте, что вы берете интервью у своего нового администратора базы данных (назовем его Джон) через Zoom или Google Meets. Его профиль проверен, и он прошел все проверки рекомендаций. Благодаря своему положению он будет иметь доступ к очень конфиденциальным данным клиентов, но его профиль безупречен, а его опыт поразителен. Похоже, он отлично подходит для этой новой удаленной должности, за..

ПРОЧИТАЙТЕ Аватары: реалистичные аватары, управляемые эмоциями и управляемые звуком
Добавление эмоционального контроля в аудиоподделки Одним из критических ограничений существующих дипфейков на основе звука является необходимость большего контроля стилистических атрибутов. В идеале нам хотелось бы изменить эти аспекты, например, сделать сгенерированное видео веселым, а не грустным или использовать стиль речи конкретного актера. READ Avatars стремится сделать именно это, модифицируя существующие высококачественные, индивидуализированные модели для работы с прямым..

Глубокие фейки для всех: распространение клонирования голоса с помощью искусственного интеллекта
На прошлой неделе мы достигли важной вехи в области клонирования голоса с помощью ИИ. Используя новую модель 2.0 от Play.HT, любой может создать голосовой клон, используя всего 30 секунд обучающих данных. Перемотав пять месяцев назад, я поражался реализму, которого они достигли с помощью 30-минутного сэмпла. При таких темпах к концу года мы могли бы заставить ваш клонированный голос исполнить Кентерберийские рассказы , ​​обученный на одном кашле. Клонирование голоса..

Введение в создание дипфейков
Введение Близится конец 2019 года, и вот я изучаю Deepfakes. Впервые появившись в конце 2017 года на Reddit под ником deepfakes , я знаю, что опаздываю на вечеринку. Тем не менее, Deepfakes по-прежнему остается горячей темой для исследований в сообществе глубокого обучения. Всего 2 месяца назад Facebook объявил о конкурсе Deepfake Detection Challenge, при этом был выпущен первоначальный набор данных. (См. https://deepfakedetectionchallenge.ai/ ) Заинтересовавшись созданием..