Публикации по теме 'computer-security'


Разблокировка BitLocker: сможете ли вы взломать этот пароль?
BitLocker - одно из самых продвинутых и наиболее часто используемых решений для шифрования томов. BitLocker - это хорошо изученное и широко документированное решение с несколькими известными уязвимостями и ограниченным числом возможных векторов атаки. Тома BitLocker могут быть защищены одним или несколькими предохранителями, такими как TPM с аппаратной привязкой, выбираемый пользователем пароль, USB-ключ или их комбинация. Атака на пароль возможна только в одном из этих случаев, в то..

Вы хотите научиться взлому? 5 шагов к изучению тестирования на проникновение
Вы хотите научиться взлому? 5 шагов к обучению тестированию на проникновение Обязательный отказ от ответственности: только потому, что вы можете научиться это делать, не используйте это в незаконных целях; аналогично тому, как нельзя начинать избивать людей только потому, что вы посещаете уроки боевых искусств. Будьте благоразумны. Некоторые смеются над идеей написания руководств о том, как научиться взлому и тестированию на проникновение, потому что делать это другим -..

Понимание уязвимостей XXE
Эта статья объяснит вам основы уязвимостей XXE. Когда сервер анализирует XML-данные, предоставленные пользователем, существует риск уязвимостей XXE. Эти уязвимости обычно используют внешние объекты для раскрытия конфиденциальной информации, хранящейся на сервере. Это возможно благодаря функции, известной как внешние объекты XML. Это тип настраиваемой XML-сущности, которая может загружать значения вне документа, в котором они определены. Это означает, что злоумышленник может объявить..

Закон и состязательное машинное обучение
В пятницу, 7 декабря 2018 г., Саломе Вильджоен представила нашу статью Право и состязательное машинное обучение на семинаре по безопасности и машинному обучению на конференции Neural Information Processing Systems (NeurIPS). В статье, написанной в соавторстве с Саломе, Дэвидом Р. О'Брайеном, Кендрой Альберт и мной, представлен обзор некоторых существующих средств правовой защиты от атак, которые были продемонстрированы в системах машинного обучения, и предложены некоторые потенциальные..

Устойчива ли нейронная сеть к состязательным примерам?
Злоумышленник может использовать враждебные примеры, чтобы заставить беспилотные автомобили совершать нежелательные действия. С помощью состязательных примеров типичную нейронную сеть можно легко обмануть и получить нежелательный результат классификации с высокой степенью достоверности. Это может стать катастрофой, если мы будем использовать нейронные сети в реальных приложениях, таких как беспилотные автомобили. Группа ученых из Калифорнийского университета в Беркли разработала три..