Обеспечьте безопасность пользователей и хорошо обучите вашу модель с помощью федеративного обучения.

В прошлом месяце я искал какую-нибудь технику для использования в моем новом проекте, затем я нашел кое-что о получении обученных данных от людей, сохраняющих свою конфиденциальность. Я узнал, что это называется «федеративное обучение» и что это лучший способ машинного обучения, обеспечивающего конфиденциальность данных. Но как это работает? Продолжайте читать, чтобы узнать!

Федеративное обучение работает с сетью устройств, способных обучаться самостоятельно без централизованного сервера, поэтому мы можем определить федеративное обучение как децентрализованное обучение, а устройства, которые мы используем в качестве обучающих платформ, - это наши смартфоны, достаточно умные для этого. Используя этот метод, мы можем не только сохранить конфиденциальность пользователей, но и улучшить их впечатления.

Итак, как это работает? Устройства могут участвовать только в том случае, если они имеют на это право (состояние простоя), но разработчики работают над минимизацией влияния на производительность. Затем подходящее устройство получает от себя только полезные данные и помещает их в набор данных, с помощью которого оно обучает модель, и отправляет их на сервер, который получает только зашифрованные данные без ключа. Затем сервер может читать обученную модель без самих данных.

Но как сервер отличить мой недавний поиск от исключения? Возможно, у кого-то есть уникальные данные, которые бесполезны для модели, поэтому нам нужно исключить эти данные, ограничив вклад телефона в модель и добавив шума, чтобы скрыть редкие данные. Это называется дифференциальной конфиденциальностью, что очень полезно, когда на параметры общей модели слишком влияют уникальные данные.

Как протестировать модель, если устройства заняты обучением? Мы можем использовать другие устройства, с которыми тестируем нашу модель! Таким образом, мы можем протестировать модель в руках пользователей, которые будут использовать ее ежедневно. Затем у нас есть сеть, состоящая из инструкторов и тестировщиков одной и той же модели в частном порядке и без нарушения конфиденциальности!

Пример из реальной жизни - это отрасль здравоохранения, где организации не могут брать данные пациентов и использовать их для обучения модели, которая может им эффективно помочь, из-за строгих законов о защите конфиденциальности. Федеративное обучение может защитить конфиденциальность пациентов, а также использовать данные. Intel совместно с Центром биомедицинской обработки изображений и аналитики Пенсильванского университета удалось продемонстрировать, как федеративное обучение может применяться к медицинской визуализации. Чтобы узнать больше, нажмите здесь.

В конце концов, федеративное обучение - лучший способ подготовить идеальную модель, и я думаю, что через несколько лет оно будет повсюду, но это также и настоящее. Примером приложения, использующего федеративное обучение, является Gboard, где я начал писать эту статью, в этом случае клавиатура может предложить вам слово, которое вы напечатаете, анализируя все, что вы делали в сети раньше.

Если вы хотите узнать больше о федеративном обучении, я рекомендую вам посетить https://federated.withgoogle.com/.