Настройка на разных фрагментах обучающей выборки
Идеи методов
Пусть исходная обучающая выборка состоит из объектов. Для генерации разнообразных моделей из одного семейства чаще всего используется настройка моделей на разных фрагментах обучающей выборки . Чтобы настроить моделей необходимо по единообразной схеме сгенерировать M фрагментов выборки , называемых псевдовыборками. На каждой псевдовыборке настраивается одна и та же модель. Настроенные модели будут получаться разными, поскольку они настраиваются на разных псевдовыборках.
Поскольку все псевдовыборки строятся по единообразной схеме, а базовые модели берутся из одного семейства, полученные базовые алгоритмы будут однородны и равнозначны между собой. Поэтому в качестве агрегирующей функции используется равномерное усреднение:
Процесс построения ансамбля по разным псевдовыборкам показан на схеме ниже:
Для генерации псевдовыборок используются следующие подходы:
-
Кросс-валидация (cross-validation): вся выборка разбивается по объектам на случайных блоков одного размера. -я псевдовыборка включает все блоки, кроме блока , . В результате каждая модель будет настраиваться, используя примерно объектов.
-
Бэггинг (bagging): псевдовыборка генерируется такого же размера, как исходная выборка с помощью сэмплирования объектов с возвращением (with replacement). В результате некоторые объекты могут появиться в псевдовыборке несколько раз, а некоторые - ни разу. Если быть точнее, то вероятность не выбрать определённый объект равна , а вероятность не выбрать его раз равна . При она будет стремиться к (докажите!), в результате чего псевдоборка будет содержать примерно 2/3 исходных объектов, но её размер будет по-прежнему за счёт того, что некоторые объекты используются несколько раз. Псевдовыборка, полученная таким образом называется бустраповской псевдовыборкой (bootstrap sample) и широко используется в статистике для получения эмпирических распределений тестовых статистик.
-
Пэйстинг (pasting): псевдовыборка генерируется из исходной с помощью сэмплирования объектов без возвращением (without replacement). Чтобы псевдовыборка получалось отличной от исходной, необходимо, чтобы размер псевдовыборки был строго меньше .
-
Метод случайных подпространств (random subspaces): в этом методе берутся все объект ы исходной выборки, а сэмплируются признаки без возвращения. Модель, обученная на такой выборке будет использовать лишь часть от всех располагаемых признаков.
-
Метод случайных фрагментов (random patches): комбинируется сэмплирование объектов и признаков без возвращения. Вариация метода - сэмплировать объекты с возвращением, как в бэггинге.
Ниже показано сравнение регрессионных прогнозов для одного решающего дерева и для бэггинга над решающими деревьями:
Видно, что одно решающее дерево даёт кусочно-постоянное решение с более резкими перепадами прогнозов по сравнению с ансамблем над многими деревьями.
Во всех представленных методах можно варьировать число псевдовыборок . Поскольку на каждой псевдовыборке настраивается одна и та же модель, то все базовые алгоритмы будут равнозначны, поэтому усредняться должны с равными весами.
При увеличении числа базовых алгоритмов качество может только увеличиваться. Вначале оно резко падает (поскольку малое число псевдовыборок охватывают далеко не все данные), а потом выходит на стабильную асимптоту, как показано на рисунке ниже:
Поэтому по гиперпараметру нельзя переобучиться: качество может только вырасти или остаться прежним, если взять слишком большим.
Однако сложность настройки модели и построения прогнозов ансамблем растёт линейно с ростом числа базовых моделей. Поэтому на практике подбирают оптимальные значения других гиперпараметров (например, функцию неопределённости, минимальное число объектов в листах при настройке ансамбля над решающими деревьями) при не невысоком , а в финальной версии модели уже увеличивают при настроенных гиперпараметрах.
Поскольку все базовые модели равнозначны между собой, можно рассчитывать не только среднее от их прогнозов , но и стандартное отклонение, которое будет показывать неопределённость прогноза. Это повышает прозрачность использования модели, поскольку даёт возможность дифференцировать ситуации, когда модель уверена в своём прогнозе, и когда нет. В последнем случае можно подать объект на обработку другой, более продвинутой модели.
Оценка Out-of-Bag
Честная оценка качества модели требует выделения отдельной валидационной выборки или процедуры кросс-валидации, что сокращает объём данных для обучения модели. Метод оценивания out-of-bag (OOB estimate) позволяет использовать ту же обучающую выборку для оценивания качества ансамбля, что использовалась для его настройки и применим к методам, в которых базовые модели обучаются на подмножествах объектов: кросс-валидация, бэггинг, пэйстинг и метод случайных фрагментов.
Поскольку каждая базовая модель использует не все, а лишь подмножество объектов обучающей выборки, то для каждого объекта можно составить множество тех псевдовыборок (и соответствующих базовых моделей), куда этот объект не попал. Далее мы можем честный прогноз для , усредняя не по всем базовым моделям, а только по подмножеству тех моделей, обучающие псевдовыборки которых не содержали этот объект:
Для моделей, проиндексированных , объект будет новым, и в результате мы построим честный вневыборочный прогноз, не прибегая к отдельной валидационной выборке. Out-of-Bag-оценка (OOB-оценка) строится указанным способом, усредняя out-of-bag прогнозы по всем объектам обучающей выборки.
Как в среднем связана OOB-оценка со средними потерями на тестовой выборке?
OOB-оценка несмещённо оценивает качество ансамбля, использующего лишь подмножество базовых моделей (которые не использовали прогнозируемые объекты в своей настройке). Итоговая же модель использует все базовые модели. Чем количество базовых моделей больше, тем прогноз получается в среднем точнее, поэтому реальное качество на тестовой выборке будет в среднем даже немного выше, чем оценка out-of-bag.
Пример запуска на Python
from sklearn.ensemble import BaggingClassifier
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score
from sklearn.metrics import brier_score_loss
X_train, X_test, Y_train, Y_test = get_demo_classification_data()
# инициализация модели:
model = BaggingClassifier(DecisionTreeClassifier(), # базовая модель
max_samples=0.8, # доля случайных объектов для обучения
max_features=1.0, # доля случайных признаков для обучения
n_jobs=-1) # использовать все ядра процессора
model.fit(X_train, Y_train) # обучение модели
Y_hat = model.predict(X_test) # построение прогнозов
print(f'Точность прогнозов: {100*accuracy_score(Y_test, Y_hat):.1f}%')
P_hat = model.predict_proba(X_test) # можно предсказывать вероятности классов
loss = brier_score_loss(Y_test, P_hat[:,1]) # мера Бриера на вероятности положительного класса
print(f'Мера Бриера ошибки прогноза вероятностей: {loss:.2f}')
from sklearn.ensemble import BaggingRegressor
from sklearn.tree import DecisionTreeRegressor
from sklearn.metrics import mean_absolute_error
X_train, X_test, Y_train, Y_test = get_demo_classification_data()
# инициализация модели:
model = BaggingRegressor(DecisionTreeRegressor(), # базовая модель
max_samples=0.8, # доля случайных объектов для обучения
max_features=1.0, # доля случайных признаков для обучения
n_jobs=-1) # использовать все ядра процессора
model.fit(X_train, Y_train) # обучение модели
Y_hat = model.predict(X_test) # построение прогнозов
print(f'Средний модуль ошибки (MAE): {mean_absolute_error(Y_test, Y_hat):.2f}')