Градиентный бустинг
Градиентный бустинг (gradient boosting [1], предложен в [2]) представляет собой приближение бустинга с использованием градиента функции потерь. В отличие от AdaBoost, он работает с произвольной дифференцируемой функцией потерь, а не только с экспоненциальной. В частности это позволяет решать не только задачу классификации, но и регрессии.
В качестве базовых моделей чаще всего используются решающие деревья небольшой глубины (gradient boosting over decision trees, GBDT).
Когда говорят о бустинге, то чаще всего имеют ввиду именно градиентный бустинг.
Идея метода
Если отвлечься от множителя при базовой функции, то в бустинге решается задача подбора оп тимальной fm+1(x) такой, что
L(fm)=N1n=1∑NL(Gm(xn)+fm(xn),yn)→fmmin
Если вектор прогнозов функции [fm(x1),fm(x2),...fm(xN)] заменить на вектор вещественных чисел u=[u1,u2,...uN], то задача переформулируется в виде классической минимизации функции по аргументам:
L(u)=L(u1,...uN)=N1n=1∑NL(Gm(xn)+un,yn)→u1,u2,...uNmin
Используя идеологию градиентного спуска, эту задачу в линейном приближении можно решить, положив
u1u2