Публикации по теме 'adversarial-example'


10 ловушек для искусственного интеллекта / машинного обучения!
Список 10 основных ошибок, которые делают люди, практикующие безопасность AI / ML, с объяснениями и передовыми методами, которым следует следовать, чтобы избежать или исправить. В этом посте мы рассмотрим 10 наиболее распространенных заблуждений об ИИ / машинном обучении, особенно в том, что касается практики кибербезопасности. Сэкономьте 3,5 часа онлайн-чтения: мифы об AI / ML, описанные в блогосфере, имеют тенденцию делиться на 6 кластеров (внешнее кольцо на иллюстрации выше). Я..

CNN сломаны - как их исправить
Сверточные нейронные сети (CNN) сломаны, но на недавней конференции ICLR, наконец, появились некоторые подходы к их исправлению. Недавним примером проблем CNN стала демонстрация состязательной атаки на автономное вождение¹, при которой небольшие маркеры на дороге могли заставить автономное транспортное средство свернуть на встречное движение. С тех пор, как Иэн Гудфелло привел пример ² незаметного фонового шума, заставляющего CNN неверно классифицировать изображения, количество случаев..

Последние разработки в Adversarial Example, Part I
Эта запись также появляется в нашем Блоге Trustable AI . По состоянию на середину 2017 года уже существует множество предложений обмануть DNN с помощью состязательного примера . Papernot et al (2016) предложили самую мощную на сегодняшний день такую ​​атаку против классификаторов изображений, используя переносимость. Согласно проведенным экспериментам, этот метод может обеспечить почти 90% ошибок классификации для сервисов DNN, размещенных на Amazon и Google. Этот практический..

Физические состязательные текстуры, которые обманывают отслеживание визуальных объектов
В то время как состязательные атаки доказали свою эффективность в цифровых доменах, немногие статьи показали эффективность таких подходов в физическом мире. Последние достижения, такие как противоборствующие очки ( Sharif et al., 2016 ), патч ( Brown et al., 2017 ) и черепаха ( Athalye et al., 2018 ), генерируют физически реализуемых противников, но были только показаны работать над задачей классификации изображений. В обнаружении объектов есть и другие подходы, например, работа..