stringtranslate.com

Матрица проекции

В статистике матрица проекции , [ 1] иногда также называемая матрицей влияния [2] или матрицей шляпы , отображает вектор значений ответа (значений зависимой переменной) в вектор подогнанных значений (или прогнозируемых значений). Он описывает влияние каждого значения ответа на каждое подобранное значение. [3] [4] Диагональные элементы матрицы проекции — это рычаги , которые описывают влияние каждого значения ответа на подобранное значение для того же наблюдения.

Определение

Если вектор значений ответа обозначается , а вектор подобранных значений — ,

Как обычно произносится «y-hat», матрицу проекции также называют шляпной матрицей, поскольку она «надевает шляпу » .

Заявление на остаток

Формулу вектора невязок также можно компактно выразить с помощью матрицы проекции:

где единичная матрица . Матрицу иногда называют матрицей производителя остатков или матрицей аннигилятора .

Ковариационная матрица остатков по распространению ошибок равна

,

где – ковариационная матрица вектора ошибки (и, соответственно, вектора ответа). Для случая линейных моделей с независимыми и одинаково распределенными ошибками , в которых это сводится к: [3]

.

Интуиция

В матрице пространство столбцов обозначено зеленой линией. Проекция некоторого вектора на пространство столбцов - это вектор

Из рисунка ясно, что ближайшей точкой от вектора к пространству столбцов , является , и это та точка, где мы можем провести линию, ортогональную пространству столбцов . Вектор, ортогональный пространству столбцов матрицы, находится в пустом пространстве транспонирования матрицы, поэтому

.

Оттуда происходит перестановка, так что

.

Следовательно, поскольку находится в пространстве столбцов , матрица проекции, которая отображается, равна просто , или .

Линейная модель

Предположим, что мы хотим оценить линейную модель, используя линейный метод наименьших квадратов. Модель можно записать как

где – матрица объясняющих переменных ( матрица плана ), β – вектор неизвестных параметров, подлежащих оценке, а ε – вектор ошибки.

Многие типы моделей и методов подпадают под эту формулировку. Несколько примеров: линейный метод наименьших квадратов , сглаживающие сплайны , сплайны регрессии , локальная регрессия , ядерная регрессия и линейная фильтрация .

Обычные наименьшие квадраты

Когда веса для каждого наблюдения идентичны и ошибки некоррелированы, оцениваемые параметры равны

поэтому подобранные значения

Следовательно, матрица проекции (и матрица шляпы) определяется выражением

Взвешенные и обобщенные методы наименьших квадратов

Вышеизложенное можно обобщить на случаи, когда веса не идентичны и/или ошибки коррелируют. Предположим, что ковариационная матрица ошибок равна Σ . Тогда с тех пор

.

матрица шляпы, таким образом,

и снова можно увидеть, что , хотя теперь оно уже не симметрично.

Характеристики

Матрица проекции обладает рядом полезных алгебраических свойств. [5] [6] На языке линейной алгебры матрица проекции — это ортогональная проекция на пространство столбцов матрицы конструкции . [4] (Обратите внимание, что это псевдообратное значение X .) Некоторые факты о матрице проекции в этом случае суммируются следующим образом: [4]

Матрица проекции , соответствующая линейной модели , симметрична и идемпотентна , то есть . Тем не менее, это не всегда так; Например, при локально взвешенном сглаживании диаграмм рассеяния (LOESS) матрица шляпки, как правило, не является ни симметричной, ни идемпотентной.

Для линейных моделей след матрицы проекции равен рангу , который представляет собой количество независимых параметров линейной модели. [8] Для других моделей, таких как LOESS, которые все еще являются линейными в наблюдениях , матрица проекции может использоваться для определения эффективных степеней свободы модели.

Практическое применение матрицы проекции в регрессионном анализе включает рычаг и расстояние Кука , которые связаны с выявлением влиятельных наблюдений , то есть наблюдений, которые оказывают большое влияние на результаты регрессии.

Блочная формула

Предположим, что матрица проекта может быть разложена по столбцам как . Определите оператор шляпы или проекции как . Аналогично определите оператор невязки как . Тогда матрицу проекции можно разложить следующим образом: [9]

где, например, и . Существует ряд приложений такого разложения. В классическом приложении есть столбец всех единиц, который позволяет анализировать эффекты добавления члена-члена в регрессию. Другое использование — в модели с фиксированными эффектами , где — большая разреженная матрица фиктивных переменных для условий с фиксированным эффектом. Можно использовать этот раздел для вычисления шляпной матрицы без явного формирования матрицы , которая может быть слишком большой, чтобы поместиться в компьютерную память.

История

Матрица шляпы была представлена ​​Джоном Уайлдером в 1972 году. В статье Хоглина, округ Колумбия, и Уэлша, Р.Э. (1978) приводятся свойства матрицы, а также множество примеров ее применения.

Смотрите также

Рекомендации

  1. ^ Базилевский, Александр (2005). Прикладная матричная алгебра в статистических науках. Дувр. стр. 160–176. ISBN 0-486-44538-0.
  2. ^ «Ассимиляция данных: диагностика влияния наблюдения на систему ассимиляции данных» (PDF) . Архивировано из оригинала (PDF) 3 сентября 2014 г.
  3. ^ Аб Хоглин, Дэвид К.; Уэлш, Рой Э. (февраль 1978 г.). «Матрица шляпы в регрессии и дисперсионном анализе» (PDF) . Американский статистик . 32 (1): 17–22. дои : 10.2307/2683469. hdl : 1721.1/1920 . JSTOR  2683469.
  4. ^ abc Дэвид А. Фридман (2009). Статистические модели: теория и практика . Издательство Кембриджского университета .
  5. ^ Ганс, П. (1992). Подгонка данных в химических науках . Уайли. ISBN 0-471-93412-7.
  6. ^ Дрейпер, Северная Каролина; Смит, Х. (1998). Прикладной регрессионный анализ . Уайли. ISBN 0-471-17082-8.
  7. ^ Амемия, Такеши (1985). Продвинутая эконометрика . Кембридж: Издательство Гарвардского университета. стр. 460–461. ISBN 0-674-00560-0.
  8. ^ «Доказательство того, что след матрицы «шляпы» в линейной регрессии имеет ранг X» . Обмен стеками . 13 апреля 2017 г.
  9. ^ Рао, К. Радхакришна; Тутенбург, Хельге; Шалабх; Хойманн, Кристиан (2008). Линейные модели и обобщения (3-е изд.). Берлин: Шпрингер. п. 323. ИСБН 978-3-540-74226-5.