Перейти к основному содержимому

Вопросы для самопроверки

  • В каких случаях лучше использовать линейную регрессию, а в каких - метод K ближайших соседей для построения прогнозов?
  • Зачем используется регуляризация? В каких случаях лучше использовать L1-регуляризацию, а в каких - L2-регуляризацию?
  • В каких ситуациях по сути оценка весов линейной регрессии не будет определена? Почему?
  • Какой гиперпараметр в гребневой и LASSO-регрессии отвечает за выразительную сложность (гибкость) модели? Его увеличение увеличивает или уменьшает сложность модели?
  • От объектов, удовлетворяющих какому свойству, будет зависеть решение регрессии опорных векторов? А от каких не будет? Почему?
  • Почему при линейной комбинации прогнозов различных базовых моделей, веса при моделях необходимо настраивать не на той же самой выборке, на которой настраивались базовые модели? Приведите иллюстративный пример.
  • Почему важно всегда включать константный признак в список признаков метода Orthogonal Matching Pursuit регрессии?
  • Приведите примеры задач, в которых оправдано использование ϵ\epsilon-нечувствительных потерь.