В каких случаях лучше использовать линейную регрессию, а в каких - метод K ближайших соседей для построения прогнозов?
Зачем используется регуляризация? В каких случаях лучше использовать L1-регуляризацию, а в каких - L2-регуляризацию?
Какой гиперпараметр в гребневой и LASSO-регрессии отвечает за выразительную сложность (гибкость) модели? Его увеличение увеличивает или уменьшает её сложность?
От объектов, удовлетворяющих какому свойству, будет и, наоборот, не будет зависеть решение регрессии опорных векторов, и почему?
Почему, при линейной комбинации прогнозов различных базовых моделей, веса при моделях необходимо настраивать не на той же самой выборке, на которой настраивались базовые модели? Приведите иллюстративный пример.
Почему важно всегда включать константный признак в список признаков метода Orthogonal Matching Pursuit?