stringtranslate.com

Взвешенные наименьшие квадраты

Метод наименьших квадратов с весами ( WLS ), также известный как взвешенная линейная регрессия , [1] [2] является обобщением обычных наименьших квадратов и линейной регрессии , в котором знание неравной дисперсии наблюдений ( гетероскедастичность ) включено в регрессию. WLS также является специализацией обобщенных наименьших квадратов , когда все недиагональные элементы ковариационной матрицы ошибок равны нулю.

Формулировка

Соответствие модели точке данных измеряется ее остатком , определяемым как разница между измеренным значением зависимой переменной и значением, предсказанным моделью :

Если ошибки некоррелированы и имеют одинаковую дисперсию, то функция минимизируется при , так что .

Теорема Гаусса –Маркова показывает, что когда это так, является наилучшей линейной несмещенной оценкой ( СИНИЙ ). Если, однако, измерения не коррелируют, но имеют разные неопределенности, можно принять модифицированный подход. Эйткен показал, что когда взвешенная сумма квадратов остатков минимизируется, является СИНИМ , если каждый вес равен обратной величине дисперсии измерения

Уравнения градиента для этой суммы квадратов следующие:

которые в линейной системе наименьших квадратов дают модифицированные нормальные уравнения. Матрица выше определена в соответствующем обсуждении линейного метода наименьших квадратов .

Когда ошибки наблюдений некоррелированы и весовая матрица W = Ω −1 является диагональной, их можно записать как

Если ошибки коррелируют, то результирующая оценка будет СИНЕЙ , если весовая матрица равна обратной величине дисперсионно-ковариационной матрицы наблюдений.

Когда ошибки некоррелированы, удобно упростить вычисления, чтобы разложить весовую матрицу на множители . Тогда нормальные уравнения можно записать в той же форме, что и обычные наименьшие квадраты:

где мы определяем следующую масштабированную матрицу и вектор:

Это тип отбеливающего преобразования ; последнее выражение подразумевает деление по входу .

Для нелинейных систем наименьших квадратов аналогичное рассуждение показывает, что нормальные уравнения следует модифицировать следующим образом.

Обратите внимание, что для эмпирических тестов соответствующее значение W точно не известно и должно быть оценено. Для этого могут быть использованы методы допустимых обобщенных наименьших квадратов (FGLS); в этом случае он специализирован для диагональной ковариационной матрицы, что дает допустимое решение взвешенных наименьших квадратов.

Если неопределенность наблюдений неизвестна из внешних источников, то веса можно оценить из данных наблюдений. Это может быть полезно, например, для выявления выбросов. После удаления выбросов из набора данных веса следует сбросить до единицы. [3]

Мотивация

В некоторых случаях наблюдения могут быть взвешенными, например, они могут быть не одинаково надежными. В этом случае можно минимизировать взвешенную сумму квадратов: где w i > 0 — вес i- го наблюдения, а Wдиагональная матрица таких весов.

Веса должны, в идеале, быть равны обратной величине дисперсии измерения . (Это подразумевает, что наблюдения некоррелированы. Если наблюдения коррелированы , выражение применимо. В этом случае матрица весов должна быть в идеале равна обратной величине дисперсионно -ковариационной матрицы наблюдений). [3] Тогда нормальные уравнения будут такими:

Этот метод используется в методе наименьших квадратов с итеративным перевзвешиванием .

Решение

Ошибки параметров и корреляция

Оценочные значения параметров представляют собой линейные комбинации наблюдаемых значений.

Следовательно, выражение для оцененной матрицы дисперсии-ковариации оценок параметров может быть получено путем распространения ошибок из ошибок в наблюдениях. Пусть матрица дисперсии-ковариации для наблюдений будет обозначена как M , а матрица дисперсии-ковариации для оцененных параметров как M β . Тогда

Когда W = M −1 , это упрощается до

При использовании единичных весов ( W = I , единичная матрица ) подразумевается, что экспериментальные ошибки некоррелированы и все равны: M = σ 2 I , где σ 2априорная дисперсия наблюдения. В любом случае σ 2 аппроксимируется приведенным хи-квадрат :

где S — минимальное значение взвешенной целевой функции:

Знаменатель, , представляет собой число степеней свободы ; см. эффективные степени свободы для обобщений в случае коррелированных наблюдений.

Во всех случаях дисперсия оценки параметра задается как , а ковариация между оценками параметра и задается как . Среднеквадратическое отклонение является квадратным корнем дисперсии, , а коэффициент корреляции задается как . Эти оценки ошибок отражают только случайные ошибки в измерениях. Истинная неопределенность параметров больше из-за наличия систематических ошибок , которые по определению не могут быть количественно оценены. Обратите внимание, что даже если наблюдения могут быть некоррелированными, параметры обычно коррелируют .

Пределы достоверности параметров

Часто предполагается , из-за отсутствия каких-либо конкретных доказательств, но часто с обращением к центральной предельной теореме — см. Нормальное распределение#Встречаемость и приложения — что ошибка в каждом наблюдении принадлежит нормальному распределению со средним значением, равным нулю, и стандартным отклонением . При этом предположении следующие вероятности могут быть выведены для оценки одного скалярного параметра в терминах его оценочной стандартной ошибки (приведенной здесь ):

Предположение не является необоснованным, когда n  >>  m . Если экспериментальные ошибки распределены нормально, параметры будут принадлежать распределению Стьюдента с n  −  m степенями свободы . Когда n  ≫  m, распределение Стьюдента приближается к нормальному распределению. Обратите внимание, однако, что эти доверительные интервалы не могут учитывать систематическую ошибку. Кроме того, ошибки параметров должны быть указаны только с точностью до одной значащей цифры, поскольку они подвержены ошибке выборки . [4]

Когда число наблюдений относительно невелико, неравенство Чебышева можно использовать для верхней границы вероятностей, независимо от каких-либо предположений о распределении экспериментальных ошибок: максимальные вероятности того, что параметр будет отличаться от своего ожидаемого значения более чем на 1, 2 или 3 стандартных отклонения, составляют 100%, 25% и 11% соответственно.

Остаточные значения и корреляция

Остатки связаны с наблюдениями

где Hидемпотентная матрица, известная как матрица шляпы :

и Iединичная матрица . Дисперсионно-ковариационная матрица остатков, M r, задается как

Таким образом, остатки коррелируют, даже если наблюдения не коррелируют.

Когда ,

Сумма взвешенных остаточных значений равна нулю, когда модельная функция содержит постоянный член. Умножаем выражение для остатков слева на X T W T :

Скажем, например, что первый член модели является константой, так что для всех i . В этом случае следует, что

Таким образом, в приведенном выше мотивационном примере тот факт, что сумма остаточных значений равна нулю, не является случайностью, а является следствием наличия в модели постоянного члена α.

Если экспериментальная ошибка подчиняется нормальному распределению , то из-за линейной связи между остатками и наблюдениями остатки должны подчиняться нормальному распределению, [5] но поскольку наблюдения являются лишь выборкой из совокупности всех возможных наблюдений, остатки должны принадлежать к распределению Стьюдента . Стьюдентизированные остатки полезны при проведении статистического теста на выброс, когда конкретный остаток кажется чрезмерно большим.

Смотрите также

Ссылки

  1. ^ «Взвешенная регрессия».
  2. ^ «Визуализация взвешенной регрессии».
  3. ^ ab Strutz, T. (2016). "3". Подгонка данных и неопределенность (практическое введение в метод взвешенных наименьших квадратов и далее) . Springer Vieweg. ISBN 978-3-658-11455-8.
  4. ^ Мэндел, Джон (1964). Статистический анализ экспериментальных данных . Нью-Йорк: Interscience.
  5. ^ Мардиа, К. В.; Кент, Дж. Т.; Бибби, Дж. М. (1979). Многомерный анализ . Нью-Йорк: Academic Press. ISBN 0-12-471250-9.