Публикации по теме 'optimizer'


Стохастический градиентный спуск
Вы когда-нибудь задумывались о проблеме, которая включает в себя огромные данные, и вы должны повторять их один за другим и делать выводы. Это будет действительно очень лихорадочный процесс и почти невозможный. Для решения вышеперечисленных проблем у нас есть инструмент/алгоритм стохастического градиентного спуска. Чтобы понять это, самым первым шагом является детальное понимание алгоритма Gradient Descent . Лучшая статья/блог для понимания градиентного спуска:..

Передача обучения в ML с использованием DenseNet169 с набором данных cifar10 в Keras
Абстрактный В этом блоге я собираюсь рассказать, как я использовал метод трансферного обучения, чтобы получить val_acc ≥ 0,88 с набором данных Cifar10, используя в качестве основы моей модели предварительно обученную модель плотноNet169 из приложения Keras с использованием весов, полученных в ImageNet. соревнование. Введение Трансферное обучение — это метод, который используется в машинном обучении, когда вы можете использовать знания модели, обученной для конкретной задачи, для..