Почему прогнозы решающего дерева CART н е будут зависеть от монотонного преобразования признаков (после повторного обучения модели на преобразованных данных)?
Может ли потенциально генерация новых признаков вида xi+xj и xi−xj улучшить прогнозы
решающего дерева?
линейной регрессии?
линейного классификатора?
метода K ближайших соседей?
В каких задачах использование решающего дерева предпочтительнее использования линейных методов прогнозирования?
Докажите, что критерий классификационной ошибки, критерий Джини и энтропийный критерий максимизируются, когда все классы узла равновероятны.
Какие гиперпараметры решающего дерева определяют его сложность (гибкость), то есть способность подстраиваться под объекты обучающей выборки? Как изменение этих гиперпараметров влияет на сложность модели?