В каких случаях лучше использовать линейную регрессию, а в каких - метод K ближайших соседей для построения прогнозов?
Зачем используется регуляризация? В каких случаях лучше использовать L1-регуляризацию, а в каких - L2-регуляризацию?
В каких ситуациях по сути оценка весов линейной регрессии не будет определена? Почему?
Какой гиперпараметр в гребневой и LASSO-регрессии отвечает за выразительную сложность (гибкость) модели? Его увеличение увеличивает или уменьшает сложность модели?
От объектов, удовлетворяющих какому свойству, будет зависеть решение регрессии опорных векторов? А от каких не будет? Почему?
Почему при линейной комбинации прогнозов различных базовых моделей, веса при моделях необходимо настраивать не на той же самой выборке, на которой настраивались базовые модели? Приведите иллюстративный пример.
Почему важно всегда включать константный признак в список признаков метода Orthogonal Matching Pursuit регрессии?
Приведите примеры задач, в которых оправдано использование ϵ-нечувствительных потерь.