Публикации по теме 'stochastic-gradient'


Стохастический градиентный спуск
Вы когда-нибудь задумывались о проблеме, которая включает в себя огромные данные, и вы должны повторять их один за другим и делать выводы. Это будет действительно очень лихорадочный процесс и почти невозможный. Для решения вышеперечисленных проблем у нас есть инструмент/алгоритм стохастического градиентного спуска. Чтобы понять это, самым первым шагом является детальное понимание алгоритма Gradient Descent . Лучшая статья/блог для понимания градиентного спуска:..

Минимизация с учетом резкости для эффективного улучшения обобщения
Для обучения глубокой сети выбор правильного оптимизатора стал важным выбором дизайна. Стандартные оптимизаторы (например, SGD, Adam и т. д.) ищут минимум на кривой потерь. Этот минимум ищется без учета кривизны, т. е. производной 2-й степени кривой потерь. Кривизна обозначает плоскостность кривой; низкая кривизна означает плоскую кривую, а высокая кривизна означает острую кривую. В этой статье [1] предлагается SAM, эффективный оптимизатор, который ищет широкие минимумы. SAM..

Использование стохастического градиентного спуска для обучения линейных классификаторов
Вы можете решить проблемы с помощью наборов данных, которые имеют большое количество обучающих примеров или функций. Введение Вы, наверное, знаете, что Стохастический градиентный спуск (SGD) - один из ключевых алгоритмов, используемых при обучении глубоких нейронных сетей. Однако вы, возможно, не так хорошо знакомы с его приложением, как оптимизатор для обучения линейных классификаторов , таких как Машины опорных векторов и Логистическая регрессия , или когда и как его..

Вопросы по теме 'stochastic-gradient'

регрессия с алгоритмом стохастического градиентного спуска
Я изучаю регрессию с помощью книги «Машинное обучение в действии», и я увидел источник, подобный приведенному ниже: def stocGradAscent0(dataMatrix, classLabels): m, n = np.shape(dataMatrix) alpha = 0.01 weights = np.ones(n)...
81 просмотров

Почему я получаю огромные затраты на реализацию стохастического градиентного спуска?
Я столкнулся с некоторыми проблемами при попытке реализовать стохастический градиентный спуск, и в основном происходит то, что моя стоимость растет как сумасшедшая, и я понятия не имею, почему. Реализация МСЭ: def mse(x,y,w,b): predictions =...
37 просмотров

Как пороги модели sklearn SGDClassifier связаны с оценками модели?
Я обучил модель и определил «порог», на котором я хотел бы ее развернуть, но у меня возникли проблемы с пониманием того, как порог связан с оценкой. X = labeled_data[features].reset_index(drop=True) Y =...
759 просмотров