Вы когда-нибудь задумывались о проблеме, которая включает в себя огромные данные, и вы должны повторять их один за другим и делать выводы. Это будет действительно очень лихорадочный процесс и почти невозможный.

Для решения вышеперечисленных проблем у нас есть инструмент/алгоритм стохастического градиентного спуска. Чтобы понять это, самым первым шагом является детальное понимание алгоритма Gradient Descent. Лучшая статья/блог для понимания градиентного спуска:



После того, как вы узнали о градиентном спуске, теперь мы можем двигаться в направлении понимания стохастического градиентного спуска. Давайте продолжим.

Объяснение стохастического градиентного спуска

Учтите, что вам дали задание рассчитать вес каждого человека, живущего на этой Земле. Сможете ли вы выполнить эту задачу (очевидно, что нет!).

Итак, какое возможное решение может быть сделано, так это то, что вы можете взять средний вес, скажем, 10000 человек и сделать вывод, что рассчитанный вес является средним весом для каждого человека, живущего на этой Земле.

Тот же подход реализован в Стохастическом градиентном спуске, если имеется очень большой набор данных, тогда Стохастический градиентный спуск просто возьмет из него случайную выборку и рассчитает для них соответствующие веса, а затем эти вычисленные веса будут использованы. для остальных данных также.

Такой подход очень полезен, так как снижает потребление ресурсов машины и приводит к быстрому результату.

Этот алгоритм доступен в виде встроенного оптимизатора в библиотеке Keras Deep Learning. Его можно импортировать с помощью приведенного ниже синтаксиса для использования в глубоком обучении:

«из keras.optimizers импортировать SGD»

Это все для объяснения стохастического градиентного спуска. Я надеюсь, что этот блог объясняет алгоритм наилучшим образом.