stringtranslate.com

Алгоритм обратной подгонки

В статистике алгоритм обратной подгонки представляет собой простую итерационную процедуру, используемую для подгонки обобщенной аддитивной модели . Она была представлена ​​в 1985 году Лео Брейманом и Джеромом Фридманом вместе с обобщенными аддитивными моделями. В большинстве случаев алгоритм обратного подгонки эквивалентен методу Гаусса–Зейделя — алгоритму, используемому для решения определенной линейной системы уравнений .

Алгоритм

Аддитивные модели представляют собой класс непараметрических регрессионных моделей вида:

где каждый — переменная в нашем -мерном предикторе и наша результирующая переменная. представляет нашу внутреннюю ошибку, которая, как предполагается, имеет нулевое среднее значение. Представляют собой неуказанные гладкие функции одного . Учитывая гибкость , у нас обычно нет уникального решения: оно остается неидентифицируемым, поскольку можно добавить любые константы к любому из и вычесть это значение из . Обычно это можно исправить, ограничив

для всех

уход

обязательно.

Тогда алгоритм переоснащения следующий:

 Инициализировать , выполнять до тех пор, пока не сойдутся: для каждого предиктора j : (a) (шаг обратной подгонки) (b) (среднее центрирование оценочной функции)   

где наш оператор сглаживания. Обычно это сглаживание кубического сплайна, но это может быть любая другая подходящая операция подгонки, например:

Теоретически шаг (b) в алгоритме не требуется, поскольку суммы оценок функции ограничены нулевой суммой. Однако из-за численных проблем это может стать проблемой на практике. [1]

Мотивация

Если рассмотреть задачу минимизации ожидаемой квадратичной ошибки:

Согласно теории проекций существует единственное решение, определяемое формулой:

для я  = 1, 2, ...,  п .

Это дает матричную интерпретацию:

где . В этом контексте мы можем представить себе более гладкую матрицу , которая аппроксимирует нашу и дает оценку ,

или в сокращенной форме

Точное решение этой задачи невозможно вычислить при больших np , поэтому используется итеративный метод обратной подгонки. Мы берем первоначальные предположения и обновляем каждое из них по очереди, чтобы обеспечить сглаженное соответствие остаткам всех остальных:

Глядя на сокращенную форму, легко увидеть, что алгоритм обратного подгонки эквивалентен методу Гаусса–Зейделя для линейных операторов сглаживания S .

Явный вывод для двух измерений

Следуя [2] , мы можем сформулировать алгоритм обратного подгонки явно для двумерного случая. У нас есть:

Если мы обозначим как оценку на i- м шаге обновления, шаги обратной подгонки будут следующими:

По индукции получаем

и

Если мы установим , то получим

Где мы решили проблему, напрямую отключившись от .

Мы имеем сходимость, если . В этом случае позволяем :

Мы можем проверить, что это решение задачи, т. е. что и сходятся к и соответственно, подставив эти выражения в исходные уравнения.

Проблемы

Выбор момента остановки алгоритма произволен, и априори трудно предсказать, сколько времени займет достижение определенного порога сходимости. Кроме того, окончательная модель зависит от порядка, в котором подходят переменные-предикторы.

Кроме того, решение, найденное с помощью процедуры обратной подгонки, не является единственным. Если вектор такой, что сверху, то если является решением, то также является решением для любого . Модификация алгоритма обратной подгонки, включающая проекции на собственное пространство S, может решить эту проблему.

Модифицированный алгоритм

Мы можем изменить алгоритм обратной подгонки, чтобы упростить поиск уникального решения. Позвольте быть пространством, охватываемым всеми собственными векторами Si , которые соответствуют собственному значению 1. Тогда любой b , удовлетворяющий условиям, имеет и Теперь , если мы возьмем матрицу, которая проектируется ортогонально на , мы получим следующий модифицированный алгоритм обратного подгонки:

 Инициализировать , , Делать до тех пор, пока не сойдутся:  Регрессия в пространство , установка Для каждого предиктора j :  Примените обновление обратной подгонки к использованию оператора сглаживания , получив новые оценки для

Рекомендации

  1. ^ Хасти, Тревор , Роберт Тибширани и Джером Фридман (2001). Элементы статистического обучения: интеллектуальный анализ данных, логический вывод и прогнозирование . Спрингер, ISBN  0-387-95284-5 .
  2. ^ Хердле, Вольфганг; и другие. (9 июня 2004 г.). «Обратное оснащение». Архивировано из оригинала 10 мая 2015 г. Проверено 19 августа 2015 г.

Внешние ссылки