Публикации по теме 'bagging'


XGBoost
XGBoost XGBoost — это алгоритм, который уже несколько дней доминирует в прикладном машинном обучении и соревнованиях Kaggle для табличных или структурированных данных. Алгоритм XGBoost был разработан в Вашингтонском университете Тяньки Ченом и Карлосом Гестрином в качестве исследовательского проекта. XGBoost доступен на Python, R, Julia, Java, C++ и представляет собой библиотеку машинного обучения с открытым исходным кодом. Зачем он был разработан? • XGBoost  — это..

Использование деревьев решений, случайного леса и повышения градиента для прогнозирования временных рядов
Временной ряд - это ряд точек данных, индексированных во временном порядке. Временной ряд можно разделить на три части - тренд (долгосрочное направление), сезонность (движения, связанные с календарем) и ошибку (несистематические колебания). Часто на временной ряд влияют и другие внешние особенности. Например, если мы посмотрим на продажи одежды, мы увидим всплеск их объема, если будет проводиться рекламная акция. Прогнозирование будущих значений временного ряда может быть одним из..

Методы упаковки в мешки (быстрая проверка)
Алгоритм случайного леса и извлечение признаков с помощью бэггинга Добро пожаловать снова! Сегодня мы быстро пройдемся по нескольким широко используемым методам бэггинга. Этот блог № 7 в серии пересмотров. Если вы хотите быстро пересмотреть некоторые концепции машинного обучения, вы можете просмотреть этот список . Random Forest — это популярный метод создания пакетов для задач машинного обучения. Для табличных данных он работает довольно хорошо, может хорошо работать как для..

ансамблевое обучение
ознакомьтесь с моей статьей о дереве решений перед началом этой статьи для лучшего понимания. Единственное дерево решений редко будет хорошо обобщать данные, на которых оно не обучалось. Однако мы можем комбинировать прогнозы большого количества деревьев решений, чтобы делать очень точные прогнозы. С математической точки зрения дерево решений имеет низкое смещение и высокую дисперсию. Усреднение результатов многих деревьев решений снижает дисперсию, сохраняя при этом низкую..