stringtranslate.com

Ошибка «вне сумки»

Ошибка вне мешка ( OOB ) , также называемая оценкой вне мешка , — это метод измерения ошибки прогнозирования случайных лесов , усиленных деревьев решений и других моделей машинного обучения , использующих бутстреп-агрегацию (бэггинг). Бэггинг использует подвыборку с заменой для создания обучающих выборок, на которых будет обучаться модель. Ошибка вне мешка — это средняя ошибка прогнозирования для каждой обучающей выборки x i , использующая только деревья, в которых не было x i в их бутстреп-выборке. [1]

Агрегирование методом Bootstrap позволяет определить приблизительную оценку улучшения эффективности прогнозирования путем оценки прогнозов на основе тех наблюдений, которые не использовались при построении следующего базового обучающегося алгоритма.

Набор данных из сумки

При выполнении агрегации bootstrap создаются два независимых набора. Один набор, bootstrap-выборка, представляет собой данные, выбранные для "in-the-bag" путем выборки с заменой. Набор out-of-bag представляет собой все данные, не выбранные в процессе выборки.

Когда этот процесс повторяется, например, при построении случайного леса , создается много выборок bootstrap и наборов OOB. Наборы OOB можно объединить в один набор данных, но каждый образец считается out-of-bag только для деревьев, которые не включают его в свою выборку bootstrap. На рисунке ниже показано, что для каждого выбранного пакета данные разделяются на две группы.

Визуализация процесса бэггинга. Выборка 4 пациентов из исходного набора с заменой и показ наборов вне пакета. Только пациенты из выборки бутстрапа будут использоваться для обучения модели для этого пакета.

Этот пример показывает, как можно использовать бэггинг в контексте диагностики заболеваний. Набор пациентов является исходным набором данных, но каждая модель обучается только пациентами в своем наборе. Пациенты в каждом наборе вне набора могут использоваться для тестирования соответствующих моделей. Тест будет рассматривать, может ли модель точно определить, есть ли у пациента заболевание.

Расчет ошибки «вне сумки»

Поскольку каждый набор out-of-bag не используется для обучения модели, это хороший тест для производительности модели. Конкретный расчет ошибки OOB зависит от реализации модели, но общий расчет выглядит следующим образом.

  1. Найти все модели (или деревья, в случае случайного леса ), которые не обучены экземпляром OOB.
  2. Возьмите большинство результатов этих моделей для экземпляра OOB и сравните их с истинным значением экземпляра OOB.
  3. Скомпилируйте ошибку OOB для всех экземпляров в наборе данных OOB.
Иллюстрация ошибки OOB

Процесс бэггинга можно настроить в соответствии с потребностями модели. Чтобы обеспечить точность модели, размер обучающей выборки bootstrap должен быть близок к размеру исходного набора. [2] Также следует учитывать количество итераций (деревьев) модели (леса), чтобы найти истинную ошибку OOB. Ошибка OOB стабилизируется в течение многих итераций, поэтому начинать с большого количества итераций — хорошая идея. [3]

Как показано в примере справа, ошибку OOB можно обнаружить с помощью описанного выше метода после настройки леса.

Сравнение с перекрестной проверкой

Ошибка «вне сумки» и перекрестная проверка (CV) — это разные методы измерения оценки ошибки модели машинного обучения . После многих итераций эти два метода должны давать очень похожую оценку ошибки. То есть, как только ошибка OOB стабилизируется, она будет сходиться к ошибке перекрестной проверки (в частности, к ошибке «исключить по одному»). [3] Преимущество метода OOB заключается в том, что он требует меньше вычислений и позволяет тестировать модель по мере ее обучения.

Точность и последовательность

Ошибка «вне мешка» часто используется для оценки ошибок в случайных лесах , но, как показало исследование, проведенное Силке Яница и Романом Хорнунгом, ошибка «вне мешка» переоценивается в условиях, которые включают одинаковое количество наблюдений из всех классов ответов (сбалансированные выборки), небольшие размеры выборки, большое количество переменных-предикторов, небольшую корреляцию между предикторами и слабые эффекты. [4]

Смотрите также

Ссылки

  1. ^ Джеймс, Гарет; Виттен, Даниэла; Хасти, Тревор; Тибширани, Роберт (2013). Введение в статистическое обучение. Springer. С. 316–321.
  2. ^ Онг, Десмонд (2014). Учебник по бутстреппингу; и обзор doBootstrap (PDF) . стр. 2–4.
  3. ^ ab Hastie, Trevor; Tibshirani, Robert; Friedman, Jerome (2008). Элементы статистического обучения (PDF) . Springer . стр. 592–593.
  4. ^ Яница, Силке; Хорнунг, Роман (2018-08-06). «О переоценке ошибки случайного леса вне сумки». PLOS ONE . 13 (8): e0201904. Bibcode : 2018PLoSO..1301904J. doi : 10.1371/journal.pone.0201904 . ISSN  1932-6203. PMC 6078316. PMID 30080866  .