Перейти к основному содержимому

Локально-линейная регрессия

В традиционной линейной регрессии прогноз строится как линейная комбинация признаков:

y^(x)=w0+w1x1+w2x2+...+wDxD=w0+wTx,(1)\hat{y}(\mathbf{x})=w_0+w_1 x^1+w_2 x^2+...+w_D x^D=w_0+\mathbf{w}^T \mathbf{x}, \tag{1}

где веса находятся из принципа минимизации наименьших квадратов:

n=1N(w0+wTxnyn)2minw0,w\sum_{n=1}^N (w_0+\mathbf{w}^T \mathbf{x}_n-y_n)^2\to\min_{w_0,\mathbf{w}}

В качестве усложнения локально-постоянной регрессии мы можем использовать локально-линейную регрессию (local linear regression, locally weighted scatterplot smoothing, LOWESS), в которой прогноз y^(x)\hat{y}(\mathbf{x}) также строится по формуле (1), однако параметры w0,ww_0,\mathbf{w} находятся в основном по объектам, лежащим недалеко от x\mathbf{x}, за счёт минимизации взвешенной суммы квадратов ошибок, где объекты (x1,y1),(x2,y2),...(xN,yN),(\mathbf{x}_1,y_1),(\mathbf{x}_2,y_2),...(\mathbf{x}_N,y_N), учитываются с весами α1,α2,...αN\alpha_1,\alpha_2,...\alpha_N:

n=1Nαn(x)(w0+wTxnyn)2minw0,w(2)\sum_{n=1}^N \alpha_n(\mathbf{x})(w_0+\mathbf{w}^T \mathbf{x}_n-y_n)^2\to\min_{w_0,\mathbf{w}} \tag{2}

Вес объекта (xi,yi)(\mathbf{x}_i,y_i) определяется близостью к прогнозируемому объекту x\mathbf{x}, чем он ближе, тем его вес выше. Это позволяет вычислять коэффициенты линейной регрессии адаптивно к той точке, в которой нужно построить прогноз. В другой точке xx зависимость также будет линейной, но уже с другими коэффициентами. Формально веса αi\alpha_i вычисляются точно так же, как веса в локально-постоянной регрессии.

Метод не метрический

Этот метод не является метрическим, поскольку оценки w0,ww_0,\mathbf{w} будут в явном виде зависеть от признаковых описаний объектов.

По сравнению с локально-постоянной регрессией, локально-линейная более вычислительно трудоёмкая (необходимо заново находить минимум (2) для каждого целевого объекта), однако она лучше экстраполирует зависимости в области, где обучающих примеров мало.

local-linear-vs-local-constant.png