Я пытаюсь немного больше понять vowpal и наткнулся на это утверждение в учебнике по линейной регрессии. (https://vowpalwabbit.org/tutorials/getting_started.html)
«В конце выводятся более простые итоги. Лучшая константа и лучшая постоянная потеря работают, только если вы используете квадрат потери. Квадратная потеря — это значение по умолчанию Vowpal Wabbit. Они вычисляют лучший предиктор константы и потерю лучшего постоянного предиктора. .
Если средние потери не лучше, чем лучшие постоянные потери, что-то не так. В этом случае у нас слишком мало примеров для обобщения».
Исходя из этого контекста, у меня есть 2 связанных вопроса:
- Основана ли потеря лучшей константы на потере нулевой модели в линейной регрессии?
- Является ли общее эмпирическое правило, согласно которому «средние потери» не лучше, чем «потери наилучшей константы», применимо ко всем функциям потерь (поскольку в утверждении говорится, что «наилучшая константа» работает только для функции квадрата потерь по умолчанию)?
Заранее спасибо за любые ответы!