Мы живем во времена, когда видео уже не обязательно говорят правду. Это результат дешевого мощного оборудования, которое может создавать чрезвычайно реалистичные видео с помощью машинного обучения. Одной из таких техник является Глубокие подделки.

Глубокие фейки, из Википедии

Deepfakes (сочетание глубокого обучения и фейка [1]) — это синтетические носители [2], в которых человек на существующем изображении или видео заменяется чужим подобием. Хотя акт подделки контента не нов, дипфейки используют мощные методы машинного обучения и искусственного интеллекта для манипулирования или создания визуального и звукового контента с высоким потенциалом обмана. [3] Основные используемые методы машинного обучения для создания дипфейков основаны на глубоком обучении и включают обучение архитектуры генеративных нейронных сетей, таких как автоэнкодеры[3]» или генеративно-состязательные сети (GAN).[4][5]

Ссылка на Википедию

Как обнаруживаются дипфейки

Все методы, которые существуют на данный момент, насколько мне известно, включают в себя изучение видео и проверку его на артефакты, внесенные в процессе «глубокого фейка». Это также можно сделать с помощью машинного обучения или с помощью алгоритма, отслеживающего болевые точки для глубоких поддельных модальных выражений, таких как движение глаз. Было замечено, что их трудно подделать, создавая больше артефактов, чем другие части лица.

Это модальное окно от Rayhane Mama & Sam Shi предсказывает, что 68 % кадров являются «настоящими».

Одна вещь, которая нужна любым глубоким подделкам, — это время для завершения. Если мы сможем доказать, что видео было записано за один раз, а затем быстро загружено, или просто доказать, что видео было загружено в режиме реального времени, мы сильно ограничим время, которое должен генерировать модальный дипфейк.

Как мы это делаем?

Мы используем блокчейн в качестве основного инструмента для проверки времени.

Важным аспектом здесь является отметка времени транзакции. Выполняем следующие шаги:

  1. Отправить транзакцию в начале видео
  2. Когда пользователь закончит с видео, хешируйте каждый кадр
  3. Создайте Дерево Меркла с каждым хешем каждого кадра и идентификатором транзакции предыдущего взаимодействия с блокчейном.
  4. Наконец, попросите пользователя произнести Корень Меркла. Мы можем использовать стиль Bip39 или исходную фразу, чтобы пользователь быстрее читал.

Чтобы кто-то мог доказать, что видео было записано в реальном времени, все, что ему нужно сделать, это найти транзакцию, хешировать каждый кадр видео и посмотреть, соответствует ли корень Merkle тому, что сказал пользователь.
Большое предостережение: живые глубинные фейки, которых очень много еще в разработке. Если мы по-прежнему сможем доказать, что каждый кадр следует за другим, даже с некоторой задержкой, традиционные модели можно будет использовать для определения процентной вероятности того, что видеоклип является глубокой подделкой.
Дальнейшие исследования еще впереди.

Дальнейшие исследования впереди, и не стесняйтесь оставлять отзывы!