Что означают дипфейки для кибермошенничества и как они расширят его возможности

Представьте, что вы берете интервью у своего нового администратора базы данных (назовем его Джон) через Zoom или Google Meets.

Его профиль проверен, и он прошел все проверки рекомендаций.

Благодаря своему положению он будет иметь доступ к очень конфиденциальным данным клиентов, но его профиль безупречен, а его опыт поразителен.

Похоже, он отлично подходит для этой новой удаленной должности, за исключением ….

Человек, с которым вы беседовали, был вовсе не Джоном, а киберпреступником, который использовал личность Джона, чтобы выдать себя за него с помощью технологии Deepfake.

Вместо того, чтобы взламывать вашу организацию и получать доступ к данным клиентов, ему просто даются ключи, чтобы войти прямо в парадную дверь!

Злоумышленное использование искусственного интеллекта (ИИ) для внедрения новых типов атак — это тема, о которой я много писал, поскольку внедрение ИИ продолжает расти во всем мире.

Киберпреступники сегодня — это изобретательная группа, которая всегда ищет новые векторы, чтобы попробовать против систем защиты компании, и, похоже, они нашли один из них с помощью Deepfakes.

Определяется как:

синтетические носители [2], в которых человек в существующем изображении или видео заменяется чужим подобием. Хотя процесс создания поддельного контента не нов, дипфейки используют мощные методы машинного обучения и искусственного интеллекта для манипулирования или создания визуального и звукового контента, который легче обмануть.

Люди много лет играли с Deepfake, накладывая лица политиков и актеров на свои собственные видео со сверхъестественными результатами (мой личный фаворит — Том Круз).

Однако Deepfake — это не просто забавное времяпрепровождение для людей, создающих вирусные видео на YouTube, но может иметь серьезные последствия для доверия в случае неправильного использования.

Люди обычно верят тому, что видят, особенно если это исходит от человека, занимающего авторитетное положение, а потенциал технологии Deepfake для распространения дезинформации может быть весьма серьезным.

Злонамеренное использование Deepfakes для удаленной работы

Удаленная/гибридная работа в настоящее время стала реальностью для большинства компаний, и собеседования на такие должности также проходят удаленно.

Как мы увидим, это не ускользнуло от внимания киберпреступников.

Центр жалоб на преступления в Интернете (IC3) ФБР выпустил предупреждение 28 июня 2022 г., предостерегая от увеличения числа дипфейков преступниками для подачи заявок на конфиденциальные удаленные должности, которые предоставят им доступ к ПИИ.

Вакансии варьируются от программирования, администрирования базы данных до других важных должностей, при этом злоумышленники используют украденные персональные данные, чтобы их заявление выглядело более убедительно, компании не мудренее.

Компании обычно обнаруживали что-то подозрительное (фишинг?), когда замечали, что губы человека не полностью синхронизируются с его речью во время интервью или другими слуховыми подсказками.

Однако скорость, с которой развивается ИИ, делает эту проблему лишь незначительной для киберпреступников. У преступников есть инструменты и знания, чтобы продолжать совершенствовать эту атаку до тех пор, пока она не станет практически невозможной для обнаружения, а соблазн получить доступ к конфиденциальным базам данных PII, корпоративным отчетам и т. д. может быть весьма мотивирующим фактором!

В прошлом году ФБР выпустило частное отраслевое уведомление (доступное здесь), в котором они предупреждали о том, что дипфейки используются для нового типа атаки, именуемой Компрометация деловой идентичности (BIC).

Согласно уведомлению

BIC будет представлять собой эволюцию технологии компрометации деловой электронной почты (BEC) за счет использования передовых методов и новых инструментов. В то время как BEC в первую очередь включает взлом корпоративных учетных записей электронной почты для проведения мошеннических финансовых операций, BIC будет включать использование инструментов создания контента и манипулирования им для разработки искусственных корпоративных персонажей или создания сложной имитации существующего сотрудника. Этот новый вектор атаки, вероятно, будет иметь очень серьезные финансовые и репутационные последствия для предприятий и организаций-жертв.

Борьба с огнем огнем (или ИИ с ИИ)

По мере развития этих типов атак лучшим способом противодействия им будет не недоверие к технологиям искусственного интеллекта, а внедрение компаниями искусственного интеллекта и машинного обучения в целях аутентификации.

Простой звонок в Zoom о конфиденциальной позиции больше не поможет, и компаниям придется инвестировать в решения для машинного обучения, которые используют автоматизацию и «обнаружение живости», чтобы обнаруживать попытки злоумышленников выдать себя за кого-то другого. То, что может быть упущено человеческим глазом по мере того, как дипфейки становятся все более и более реалистичными, может быть обнаружено системами искусственного интеллекта, основанными на машинном обучении.

Помимо инвестиций в ИИ для обеспечения кибербезопасности, компании также должны следовать приведенным ниже рекомендациям:

🛡️ Оцените риски, как проводятся собеседования на деликатные должности. Посмотрите на другие методы аутентификации, которые можно использовать для подтверждения личности заявителя.

🛡️ Добавьте осведомленность о дипфейках в свою программу кибербезопасности, чтобы обеспечить осведомленность об этих рисках на всех уровнях (особенно на уровне отдела кадров). Обучите своих сотрудников тому, как обнаруживать дипфейки с помощью веб-сайтов, таких как эти, которые выделяют явные визуальные несоответствия в видео дипфейках, такие как блики, движение губ, растительность на лице и т. д.

🛡️ Обновите свои процессы реагирования на инциденты, включив в них дипфейки, когда злоумышленники могут выдавать себя за потенциальных кандидатов или даже топ-менеджеров в видео дипфейках, и убедитесь, что ваши юридические и медийные команды включены в одно и то же

Мы действительно вторгаемся в неизведанные территории с атаками на основе ИИ, и компаниям и их командам по кибербезопасности необходимо активизировать свою игру, чтобы не отставать от атакующих.

Похоже, что дни простой социальной инженерии на основе электронной почты остались в прошлом, и командам по кибербезопасности придется адаптироваться или остаться позади из-за атак ИИ.

Удачи в вашем путешествии с ИИ!

Надеюсь, вам понравилось это читать. Если вам интересна эта тема, ознакомьтесь с моим курсом со скидкой A.I. управление и кибербезопасность, в которой рассматриваются новые типы рисков ИИ и способы их снижения.