Я пытаюсь переоборудовать GBM с помощью H2O (я знаю, что это странно, но мне нужно это подчеркнуть). Поэтому я увеличил max_depth моих деревьев и усадку и отключил критерий остановки:
overfit <- h2o.gbm(y=response
, training_frame = tapp.hex
, ntrees = 100
, max_depth = 30
, learn_rate = 0.1
, distribution = "gaussian"
, stopping_rounds = 0
, distribution = "gaussian"
)
Переобучение отлично работает, но я заметил, что ошибка обучения не улучшается после 64-го дерева. Ты знаешь почему ? Если я достаточно хорошо понимаю концепцию повышения, ошибка обучения должна сходиться к 0 по мере увеличения количества деревьев.
Информация о моих данных: Около 1 миллиона наблюдений 10 переменных Переменная ответа является количественной.
Хорошего дня !