Публикации по теме 'adversarial-attack'


Обман моделей машинного обучения с помощью враждебных входных данных
В Unknot.id Inc. в течение последних нескольких месяцев мы были заняты работой над несколькими новыми технологиями, включая создание простых CAPTCHA с использованием поведенческого зондирования пользователей, взлом моделей машинного обучения с использованием методов состязательного обучения и, очевидно, машинное обучение с сохранением конфиденциальности с использованием подходов, основанных на данных. . Недавно я консультировал трех студентов из Университета Джона Хопкинса в рамках их..

Безопасность машинного обучения с набором инструментов защиты от состязательных действий
Часть 1. Атака на модели машинного обучения Автор Тигран Аветисян. Разработка моделей машинного обучения и внедрение их в производство могут быть очень сложными. Однако успешное развертывание конвейера машинного обучения — это лишь часть дела — вам также нужно подумать о его безопасности. Модели машинного обучения используются в самых разных областях, таких как финансы, медицина или наблюдение, и могут быть точными при обнаружении мошенничества или фильтрации неисправных..

Эволюционные алгоритмы, генетическое программирование и обучение
Эволюционные алгоритмы  – это семейство поисковых алгоритмов, вдохновленных процессом (дарвиновской) эволюции в природе. Общим для всех различных членов семейства является представление о решении проблем путем развития изначально случайной популяции возможных решений посредством применения операторов, вдохновленных естественной генетикой и естественным отбором, так что в > Со временем появляются более подходящие (то есть лучшие) решения проблемы. Эта область, истоки которой можно..

Состязательные примеры для разрушения моделей глубокого обучения
Как обмануть модель с 27 миллионами параметров с помощью Python Как вы думаете, невозможно обмануть систему зрения беспилотного автомобиля Tesla? Или что модели машинного обучения, используемые в программном обеспечении для обнаружения вредоносных программ, слишком хороши, чтобы хакеры могли их обойти? Или что системы распознавания лиц в аэропортах пуленепробиваемы? Как и любой из нас, энтузиастов машинного обучения, вы можете попасть в ловушку, думая, что используемые глубинные..

Враждебные атаки на ML
TLDR Состязательные атаки на модели машинного обучения — это рассчитанные изменения вашего ввода в систему машинного обучения (поисковый запрос в Google, ваш профиль пользователя в Netflix и Instagram и т. д.), которые приводят к предполагаемым вредным результатам. Эти изменения специально изучаются и получаются с учетом модели машинного обучения и определенного ввода. Предисловие Этот блог в значительной степени основан на руководствах Адриана по состязательным изображениям и..

Универсальная состязательная тренировка — Резюме статьи
Статья : Universal Adversarial Training Ссылка : https://ojs.aaai.org/index.php/AAAI/article/view/6017/5873 Авторы : Али Шафахи, Махьяр Наджиби, Чжэн Сюй, Джон Дикерсон, Ларри С. Дэвис, Том Гольдштейн Теги : Состязательная атака, Универсальная атака , Атака белого ящика Код : - Разное. информация : принято на AAAI’20 Что? В этой статье авторы предлагают оптимизированный способ поиска универсальных состязательных примеров (впервые представленный в Moosavi-Dezfooli et al...

Атака машинного обучения на состязательных примерах
Введение: В области искусственного интеллекта (ИИ) враждебные примеры стали серьезной проблемой. Эти входные данные тщательно обрабатываются злоумышленниками, чтобы обмануть модели машинного обучения и заставить их делать неверные прогнозы. Враждебные примеры сродни оптическим иллюзиям для машин, где, казалось бы, безобидные модификации могут привести к радикальным ошибкам в классификации. В этом сообщении блога исследуется концепция состязательных примеров, их потенциальные опасности и..