Random Boost — это комбинированная форма «Random-forest + Adaptive Boost». В задачах классификации алгоритм преобразует группу классификаторов случайного леса в сильный. На различных примерах взвешенного обучения классификатор следует обучать итеративно. Для каждой итерации классификатор обеспечивает плодотворный результат, сводя к минимуму ошибку обучения.

Сначала AdaBoost случайно выбирает тренировочный набор. Выбирая обучающий набор на основе точного прогноза последнего обучения, алгоритм итеративно обучает модель машинного обучения случайного леса. Для высокой вероятности классификации из следующей итерации более высокий вес придается неправильно классифицированным наблюдениям. В соответствии с точностью классификатора он присваивает вес обученному классификатору на каждой итерации, так что более точный классификатор получает больший вес. Процесс будет продолжаться до тех пор, пока все обучающие данные не будут соответствовать без какой-либо ошибки или пока не будет достигнуто указанное максимальное количество оценок. Математические параметры и формулы следующие:

Где H(x) символизирует весовой возраст входных обучающих данных, h(x) t относится к выходным данным слабого классификатора t для входных данных x, а αt обозначает вес, присвоенный классификатору. Теперь αt рассчитывается следующим образом:

Таким образом, вес классификатора рассчитывается на основе частоты ошибок E. Вначале все входные обучающие примеры имеют эквивалентный вес-возраст. После этого обучается слабый классификатор, вес каждого обучающего примера обновляется по следующей формуле:

Где Dt соответствует весу предыдущего слоя. Затем веса нормализуются путем деления каждого из них на сумму всех весов Zt. И i y - это уровень y точки обучения ( i x , i y ).

В конце весь процесс сформирует петлю для достижения наилучшего возможного результата. Где случайный лес останется слабым учеником.

надеюсь, вам всем нравится эта концепция, это мой первый блог, демонстрирующий вашу поддержку, мир.