stringtranslate.com

Взвешенные наименьшие квадраты

Взвешенный метод наименьших квадратов ( WLS ), также известный как взвешенная линейная регрессия , [1] [2] представляет собой обобщение обычного метода наименьших квадратов и линейной регрессии , в котором в регрессию включено знание о неравной дисперсии наблюдений ( гетероскедастичности ). WLS также является специализацией метода обобщенных наименьших квадратов , когда все недиагональные элементы ковариационной матрицы ошибок равны нулю.

Формулировка

Соответствие модели точке данных измеряется ее остатком , определяемым как разница между измеренным значением зависимой переменной и значением, предсказанным моделью :

Если ошибки некоррелированы и имеют одинаковую дисперсию, то функция

Теорема Гаусса -Маркова показывает, что в этом случае это лучший линейный несмещенный оценщик ( СИНИЙ ). Однако если измерения некоррелированы, но имеют разные неопределенности, можно применить модифицированный подход. Эйткен показал, что, когда взвешенная сумма квадратов остатков минимизирована, она становится СИНЕЙ , если каждый вес равен обратной величине дисперсии измерения.

Уравнения градиента для этой суммы квадратов:

которые в линейной системе наименьших квадратов дают модифицированные нормальные уравнения:

Когда ошибки наблюдения некоррелированы, а весовая матрица W = Ω −1 диагональна, их можно записать как

Если ошибки коррелированы, результирующая оценка имеет СИНИЙ цвет , если весовая матрица равна обратной матрице дисперсии-ковариации наблюдений.

Когда ошибки некоррелированы, удобно упростить вычисления, факторизовав матрицу весов как . Тогда нормальные уравнения можно записать в той же форме, что и обычные уравнения наименьших квадратов:

где мы определяем следующую масштабированную матрицу и вектор:

Это разновидность отбеливающей трансформации ; последнее выражение предполагает поэлементное деление .

Для нелинейных систем наименьших квадратов аналогичный аргумент показывает, что нормальные уравнения следует изменить следующим образом.

Обратите внимание, что для эмпирических тестов соответствующая W неизвестна наверняка и ее необходимо оценить. Для этого можно использовать методы обобщенных наименьших квадратов (FGLS); в этом случае он специализирован для диагональной ковариационной матрицы, что дает допустимое взвешенное решение методом наименьших квадратов.

Если неопределенность наблюдений неизвестна из внешних источников, то веса можно оценить на основе данных наблюдений. Это может быть полезно, например, для выявления выбросов. После удаления выбросов из набора данных веса следует сбросить до единицы. [3]

Мотивация

В некоторых случаях наблюдения могут быть взвешенными — например, они могут быть не одинаково надежными. В этом случае можно минимизировать взвешенную сумму квадратов:

w iгоWдиагональная матрица

В идеале веса должны быть равны обратной величине дисперсии измерения . (Это означает, что наблюдения некоррелированы. Если наблюдения коррелируют , выражение применяется. В этом случае матрица весов в идеале должна быть равна обратной матрице дисперсии-ковариации наблюдений). [3] Тогда нормальные уравнения таковы:

Этот метод используется в методе наименьших квадратов с итеративным перевзвешиванием .

Решение

Ошибки параметров и корреляция

Оценочные значения параметров представляют собой линейные комбинации наблюдаемых значений.

Следовательно, выражение для предполагаемой дисперсионно-ковариационной матрицы оценок параметров можно получить путем распространения ошибок из ошибок наблюдений. Пусть матрица дисперсии-ковариации для наблюдений обозначается M , а матрица оцененных параметров - M β . Затем

Когда W = M −1 , это упрощается до

Когда используются единичные веса ( W = I , единичная матрица ), подразумевается, что экспериментальные ошибки некоррелированы и все равны: M = σ 2 I , где σ 2априорная дисперсия наблюдения. В любом случае σ2 аппроксимируется приведенным хи-квадратом :

где S – минимальное значение взвешенной целевой функции:

Знаменатель — число степеней свободы ; см. эффективные степени свободы для обобщений на случай коррелированных наблюдений.

Во всех случаях дисперсия оценки параметра определяется выражением , а ковариация между оценками параметра и определяется выражением . Стандартное отклонение представляет собой квадратный корень из дисперсии, а коэффициент корреляции определяется выражением . Эти оценки ошибок отражают только случайные ошибки измерений. Истинная неопределенность параметров больше из-за наличия систематических ошибок , которые по определению не поддаются количественной оценке. Обратите внимание, что хотя наблюдения могут быть некоррелированными, параметры обычно коррелируют .

Доверительные пределы параметров

Из-за отсутствия каких-либо конкретных доказательств, но часто ссылаясь на центральную предельную теорему (см. Нормальное распределение#Возникновение и приложения ), часто предполагается , что ошибка каждого наблюдения принадлежит нормальному распределению со средним значением, равным нулю, и стандартным отклонением . При этом предположении следующие вероятности могут быть получены для оценки одного скалярного параметра с точки зрения его расчетной стандартной ошибки (приведенной здесь ):

Предположение не является необоснованным, если n  >>  m . Если экспериментальные ошибки распределены нормально, параметры будут принадлежать t-распределению Стьюдента с n  -  m степенями свободы . Когда n  ≫  m t-распределение Стьюдента приближается к нормальному распределению. Однако обратите внимание, что эти доверительные пределы не могут учитывать систематическую ошибку. Кроме того, ошибки параметров следует указывать только с одной значащей цифрой, поскольку они подвержены ошибке выборки . [4]

Когда количество наблюдений относительно невелико, неравенство Чебычева можно использовать для верхней границы вероятностей, независимо от каких-либо предположений о распределении экспериментальных ошибок: максимальные вероятности того, что параметр будет превышать 1, 2 или 3 стандартных отклонения. от его ожидаемого значения составляют 100%, 25% и 11% соответственно.

Остаточная стоимость и корреляция

Остатки связаны с наблюдениями соотношением

где Hидемпотентная матрица, известная как матрица шляпы :

и Iединичная матрица . Матрица дисперсии-ковариации остатков M r определяется выражением

Таким образом, остатки коррелируют, даже если наблюдения — нет.

Когда ,

Сумма взвешенных остаточных значений равна нулю, если модельная функция содержит постоянный член. Умножьте выражение для остатков на X T W T :

Скажем, например, что первый член модели является константой, так что для всех i . В таком случае следует, что

Таким образом, в мотивационном примере, приведенном выше, тот факт, что сумма остаточных значений равна нулю, не случаен, а является следствием присутствия постоянного члена α в модели.

Если ошибка эксперимента подчиняется нормальному распределению , то из-за линейной зависимости между остатками и наблюдениями то же самое должно быть и с остатками, [5] , но поскольку наблюдения представляют собой лишь выборку из совокупности всех возможных наблюдений, остатки должны принадлежать распределению Стьюдента . t-распределение . Стьюдентизированные остатки полезны при проведении статистической проверки выброса , когда конкретный остаток кажется чрезмерно большим.

Смотрите также

Рекомендации

  1. ^ «Взвешенная регрессия».
  2. ^ «Визуализируйте взвешенную регрессию» .
  3. ^ Аб Струц, Т. (2016). «3». Подбор данных и неопределенность (Практическое введение в метод взвешенных наименьших квадратов и не только) . Спрингер Вьюег. ISBN 978-3-658-11455-8.
  4. ^ Мандель, Джон (1964). Статистический анализ экспериментальных данных . Нью-Йорк: Межнаучный.
  5. ^ Мардия, КВ; Кент, Джей Ти; Бибби, Дж. М. (1979). Многомерный анализ . Нью-Йорк: Академическая пресса. ISBN 0-12-471250-9.