stringtranslate.com

Теорема Гаусса–Маркова

В статистике теорема Гаусса -Маркова (или просто теорема Гаусса для некоторых авторов) [1] утверждает, что обычная оценка наименьших квадратов (OLS) имеет наименьшую дисперсию выборки в классе линейных несмещенных оценок , если ошибки в линейной регрессии модели некоррелированы , имеют равные дисперсии и нулевое математическое ожидание. [2] Для применения теоремы ошибки не обязательно должны быть нормальными , а также независимыми и одинаково распределенными (только некоррелированными со средним нулевым значением и гомоскедастическими с конечной дисперсией).

Требование несмещенности нельзя отбрасывать, поскольку существуют смещенные оценки с меньшей дисперсией и среднеквадратической ошибкой. Например, оценщик Джеймса – Стейна (который также снижает линейность) и гребневая регрессия обычно превосходят обычные методы наименьших квадратов. Фактически, обычный метод наименьших квадратов редко даже является допустимой оценкой , как показывает феномен Штейна - при оценке более чем двух неизвестных переменных обычный метод наименьших квадратов всегда будет работать хуже (по среднеквадратической ошибке), чем оценщик Штейна.

Более того, теорема Гаусса-Маркова не применяется при рассмотрении более принципиальных функций потерь, таких как назначенное правдоподобие или расхождение Кульбака-Лейблера , за исключением ограниченного случая нормально распределенных ошибок.

В результате этих открытий статистики обычно мотивируют обычные методы наименьших квадратов вместо этого принципом максимального правдоподобия или рассматривая его как своего рода приблизительный байесовский вывод .

Теорема названа в честь Карла Фридриха Гаусса и Андрея Маркова . Гаусс дал оригинальное доказательство [3] , которое позднее было существенно обобщено Марковым. [4]

Скалярный оператор случая

Предположим, нам даны два вектора случайных величин, .

Предположим, вы хотите найти лучшую линейную оценку Y с учетом X, такую, что

будет оценщиком,

и параметры такие, чтобы это была лучшая линейная оценка X.

Такая оценка будет иметь те же линейные свойства Y, .

Следовательно, если вектор X имеет свойства , лучшей линейной оценкой будет

поскольку он имеет то же среднее значение и дисперсию, что и Y.

Заявление

Предположим, что мы имеем в матричной записи линейную зависимость

расширяется до,

где – неслучайные, но ненаблюдаемые параметры, неслучайные и наблюдаемые (называемые «объясняющими переменными»), случайные и, следовательно, случайные. Случайные величины называются «возмущением», «шумом» или просто «ошибкой» (будет противопоставлено «остатку» далее в статье; см. ошибки и остатки в статистике ). Обратите внимание: чтобы включить константу в приведенную выше модель, можно ввести константу как переменную, при этом вновь введенный последний столбец X будет равен единице, т. е. для всех . Обратите внимание, что, хотя в качестве выборочных ответов можно наблюдать, следующие утверждения и аргументы, включая предположения, доказательства и другие, предполагают при единственном условии знания , но не

Предположения Гаусса – Маркова касаются набора случайных величин ошибок :

Линейная оценка представляет собой линейную комбинацию

в котором коэффициентам не разрешено зависеть от базовых коэффициентов , поскольку они не наблюдаемы, но разрешено зависеть от значений , поскольку эти данные наблюдаемы. (Зависимость коэффициентов от каждого из них обычно нелинейна; оценка линейна в каждом и, следовательно, в каждом случайном случае, поэтому это «линейная» регрессия .) Оценка считается несмещенной тогда и только тогда, когда

независимо от значений . Теперь пусть это некоторая линейная комбинация коэффициентов. Тогда среднеквадратическая ошибка соответствующей оценки равна

другими словами, это ожидание квадрата взвешенной суммы (по параметрам) различий между оценщиками и соответствующими оцениваемыми параметрами. (Поскольку мы рассматриваем случай, когда все оценки параметров несмещены, эта среднеквадратическая ошибка равна дисперсии линейной комбинации.) Наилучшей линейной несмещенной оценкой (СИНИЙ) вектора параметров является оценка с наименьшим среднеквадратическая ошибка для каждого вектора параметров линейной комбинации. Это эквивалентно условию, что

является положительной полуопределенной матрицей для любой другой линейной несмещенной оценки .

Обычная оценка методом наименьших квадратов (OLS) — это функция

из и (где обозначает транспонирование ) , что минимизирует сумму квадратов остатков (суммы неправильного прогнозирования):

Теорема теперь утверждает, что оценка OLS является лучшей линейной несмещенной оценкой (СИНИЙ).

Основная идея доказательства состоит в том, что оценка методом наименьших квадратов не коррелирует с любой линейной несмещенной оценкой нуля, т. е. с каждой линейной комбинацией, коэффициенты которой не зависят от ненаблюдаемой, но чье математическое ожидание всегда равно нулю.

Примечание

Доказательство того, что МНК действительно минимизирует сумму квадратов остатков, можно провести следующим образом: вычислить матрицу Гессе и показать, что она положительно определена.

Функция MSE, которую мы хотим минимизировать, равна

p

Матрица Гессе вторых производных равна

Предполагая, что столбцы линейно независимы и обратимы, пусть , тогда

Теперь пусть будет собственным вектором .

С точки зрения векторного умножения это означает

Наконец, поскольку собственный вектор был произвольным, это означает, что все собственные значения положительны и, следовательно, положительно определены. Таким образом,

Или просто посмотрите это для всех векторов . Таким образом, гессиан является положительно определенным, если имеет полный ранг.

Доказательство

Пусть – еще одна линейная оценка с, где – ненулевая матрица. Поскольку мы ограничиваемся несмещенными оценками, минимальная среднеквадратическая ошибка подразумевает минимальную дисперсию. Поэтому цель состоит в том, чтобы показать, что такая оценка имеет дисперсию не меньшую, чем дисперсия оценки OLS. Мы рассчитываем:

Следовательно, поскольку оно ненаблюдаемо , оно является несмещенным тогда и только тогда, когда . Затем:

Так как – положительно полуопределенная матрица, то превосходит на положительно полуопределенную матрицу.

Замечания по доказательству

Как было сказано ранее, условие положительной полуопределенной матрицы эквивалентно свойству лучшей линейной несмещенной оценки ( лучшей в том смысле, что она имеет минимальную дисперсию). Чтобы убедиться в этом, рассмотрим другую линейную несмещенную оценку .

Более того, равенство имеет место тогда и только тогда, когда . Мы рассчитываем

Это доказывает, что равенство выполняется тогда и только тогда, когда это дает уникальность оценки МНК как СИНЕГО.

Обобщенная оценка методом наименьших квадратов

Метод обобщенных наименьших квадратов (GLS), разработанный Эйткеном [5] , расширяет теорему Гаусса–Маркова на случай, когда вектор ошибок имеет нескалярную ковариационную матрицу. [6] Оценщик Эйткена также имеет СИНИЙ цвет.

Теорема Гаусса – Маркова, сформулированная в эконометрике

В большинстве методов МНК предполагается, что регрессоры (интересующие параметры) в матрице плана фиксированы в повторяющихся выборках. Это предположение считается неприемлемым для такой преимущественно неэкспериментальной науки, как эконометрика . [7] Вместо этого предположения теоремы Гаусса–Маркова формулируются при условии .

Линейность

Предполагается, что зависимая переменная является линейной функцией переменных, указанных в модели. Спецификация должна быть линейной по своим параметрам. Это не означает, что между независимыми и зависимыми переменными должна существовать линейная связь. Независимые переменные могут принимать нелинейные формы, если параметры линейны. Уравнение квалифицируется как линейное, хотя его можно преобразовать в линейное, заменив другим параметром, скажем . Уравнение с параметром, зависящим от независимой переменной, не считается линейным, например , где – функция от .

Преобразования данных часто используются для преобразования уравнения в линейную форму. Например, функция Кобба-Дугласа , часто используемая в экономике, является нелинейной:

Но его можно выразить в линейной форме, взяв натуральный логарифм обеих частей: [8]

Это предположение также охватывает вопросы спецификации: предполагается, что выбрана правильная функциональная форма и нет пропущенных переменных .

Однако следует помнить, что параметры, минимизирующие остатки преобразованного уравнения, не обязательно минимизируют остатки исходного уравнения.

Строгая экзогенность

Для всех наблюдений математическое ожидание (при условии регрессоров) ошибки равно нулю: [9]

где — вектор данных регрессоров для i- го наблюдения и, следовательно, — матрица данных или матрица плана.

Геометрически это предположение подразумевает, что и ортогональны друг другу , так что их внутренний продукт (т. е. их перекрестный момент) равен нулю.

Это предположение нарушается, если объясняющие переменные измеряются с ошибкой или являются эндогенными . [10] Эндогенность может быть результатом одновременности, когда причинно-следственная связь течет вперед и назад между зависимой и независимой переменной. Для решения этой проблемы обычно используются методы инструментальных переменных .

Полный ранг

Матрица выборочных данных должна иметь полный ранг столбца .

В противном случае это необратимо, и оценщик OLS не может быть вычислен.

Нарушением этого предположения является совершенная мультиколлинеарность , т.е. некоторые объясняющие переменные линейно зависимы. Один из сценариев, в котором это произойдет, называется «ловушкой фиктивной переменной», когда базовая фиктивная переменная не опускается, что приводит к идеальной корреляции между фиктивными переменными и постоянным членом. [11]

Мультиколлинеарность (пока она не «идеальна») может присутствовать, что приводит к менее эффективной, но все же несмещенной оценке. Оценки будут менее точными и очень чувствительными к конкретным наборам данных. [12] Мультиколлинеарность можно обнаружить, помимо других тестов, по числу условий или коэффициенту инфляции дисперсии .

Сферические ошибки

Внешний продукт вектора ошибок должен быть сферическим.

Это означает, что термин ошибки имеет равномерную дисперсию ( гомоскедастичность ) и не имеет серийной корреляции . [13] Если это предположение нарушается, МНК все равно будет объективным, но неэффективным . Термин «сферические ошибки» будет описывать многомерное нормальное распределение : если это многомерная нормальная плотность, то уравнение представляет собой формулу для шара с центром в точке μ и радиусом σ в n-мерном пространстве. [14]

Гетероскедастичность возникает, когда величина ошибки коррелирует с независимой переменной. Например, в регрессии расходов на питание и доходов ошибка коррелирует с доходом. Люди с низким доходом обычно тратят на еду одинаковую сумму, в то время как люди с высоким доходом могут тратить очень большую сумму или столько же, сколько тратят люди с низким доходом. Гетероскедастичность также может быть вызвана изменениями в практике измерений. Например, по мере того, как статистические управления улучшают свои данные, ошибка измерения уменьшается, поэтому величина ошибки со временем уменьшается.

Это предположение нарушается при наличии автокорреляции . Автокорреляцию можно визуализировать на графике данных, когда данное наблюдение с большей вероятностью будет лежать выше подобранной линии, если соседние наблюдения также лежат выше подобранной линии регрессии. Автокорреляция часто встречается в данных временных рядов, где ряд данных может испытывать «инерцию». Если зависимой переменной требуется некоторое время, чтобы полностью поглотить шок. Также может возникнуть пространственная автокорреляция. Географические области могут иметь аналогичные ошибки. Автокорреляция может быть результатом неправильной спецификации, например, выбора неправильной функциональной формы. В этих случаях исправление спецификации является одним из возможных способов борьбы с автокорреляцией.

Когда предположение о сферических ошибках может быть нарушено, можно показать, что обобщенная оценка наименьших квадратов имеет СИНИЙ цвет. [6]

Смотрите также

Другая объективная статистика

Рекомендации

  1. ^ См. главу 7 Джонсона, РА; Вичерн, Д.В. (2002). Прикладной многомерный статистический анализ . Том. 5. Прентис-холл.
  2. ^ Тейл, Анри (1971). «Лучшая линейная несмещенная оценка и прогноз». Принципы эконометрики . Нью-Йорк: Джон Уайли и сыновья. стр. 119–124. ISBN 0-471-85845-5.
  3. ^ Плакетт, Р.Л. (1949). «Историческая справка о методе наименьших квадратов». Биометрика . 36 (3/4): 458–460. дои : 10.2307/2332682.
  4. ^ Дэвид, ФН; Нейман, Дж. (1938). «Распространение теоремы Маркова о наименьших квадратах». Статистические исследования Мемуары . 2 : 105–116. ОСЛК  4025782.
  5. ^ Эйткен, AC (1935). «О наименьших квадратах и ​​линейных комбинациях наблюдений». Труды Королевского общества Эдинбурга . 55 : 42–48. дои : 10.1017/S0370164600014346.
  6. ^ Аб Хуанг, Дэвид С. (1970). Регрессия и эконометрические методы . Нью-Йорк: Джон Уайли и сыновья. стр. 127–147. ISBN 0-471-41754-8.
  7. ^ Хаяси, Фумио (2000). Эконометрика. Издательство Принстонского университета. п. 13. ISBN 0-691-01018-8.
  8. ^ Уолтерс, А.А. (1970). Введение в эконометрику . Нью-Йорк: WW Нортон. п. 275. ИСБН 0-393-09931-8.
  9. ^ Хаяси, Фумио (2000). Эконометрика. Издательство Принстонского университета. п. 7. ISBN 0-691-01018-8.
  10. ^ Джонстон, Джон (1972). Эконометрические методы (Второе изд.). Нью-Йорк: МакГроу-Хилл. стр. 267–291. ISBN 0-07-032679-7.
  11. ^ Вулдридж, Джеффри (2012). Вводная эконометрика (Пятое международное изд.). Юго-Западный. п. 220. ИСБН 978-1-111-53439-4.
  12. ^ Джонстон, Джон (1972). Эконометрические методы (Второе изд.). Нью-Йорк: МакГроу-Хилл. стр. 159–168. ISBN 0-07-032679-7.
  13. ^ Хаяси, Фумио (2000). Эконометрика. Издательство Принстонского университета. п. 10. ISBN 0-691-01018-8.
  14. ^ Раманатан, Раму (1993). «Несферические возмущения». Статистические методы в эконометрике . Академическая пресса. стр. 330–351. ISBN 0-12-576830-3.

дальнейшее чтение

Внешние ссылки