stringtranslate.com

Степени свободы (статистика)

В статистике число степеней свободы — это число значений в конечном расчете статистики , которые могут свободно изменяться. [1]

Оценки статистических параметров могут основываться на различных объемах информации или данных. Количество независимых фрагментов информации, которые входят в оценку параметра, называется степенями свободы. В общем случае степени свободы оценки параметра равны количеству независимых оценок , которые входят в оценку, за вычетом количества параметров, используемых в качестве промежуточных шагов в оценке самого параметра. Например, если дисперсия должна быть оценена из случайной выборки независимых оценок, то степени свободы равны количеству независимых оценок ( N ) за вычетом количества параметров, оцененных в качестве промежуточных шагов (одного, а именно выборочного среднего) и, следовательно, равны . [2]

Математически степени свободы — это число измерений области определения случайного вектора или, по сути, число «свободных» компонентов (сколько компонентов необходимо знать, чтобы вектор был полностью определен).

Термин чаще всего используется в контексте линейных моделей ( линейная регрессия , дисперсионный анализ ), где определенные случайные векторы ограничены тем, что лежат в линейных подпространствах , а число степеней свободы является размерностью подпространства . Степени свободы также обычно связаны с квадратами длин (или «суммой квадратов» координат) таких векторов и параметрами хи-квадрат и других распределений, которые возникают в связанных задачах статистического тестирования.

Хотя вводные учебники могут вводить степени свободы в качестве параметров распределения или посредством проверки гипотез, именно базовая геометрия определяет степени свободы и имеет решающее значение для правильного понимания концепции.

История

Хотя основная концепция степеней свободы была признана еще в 1821 году в работе немецкого астронома и математика Карла Фридриха Гаусса , [3] ее современное определение и использование впервые были разработаны английским статистиком Уильямом Сили Госсетом в его статье в журнале Biometrika 1908 года «Вероятная ошибка среднего», опубликованной под псевдонимом «Стьюдент». [4] Хотя Госсет фактически не использовал термин «степени свободы», он объяснил эту концепцию в ходе разработки того, что стало известно как распределение Стьюдента . Сам термин был популяризирован английским статистиком и биологом Рональдом Фишером , начиная с его работы 1922 года о хи-квадратах. [5]

Обозначение

В уравнениях типичным символом для степеней свободы является ν (строчная греческая буква nu ). В тексте и таблицах обычно используется сокращение «df». RA Fisher использовал n для обозначения степеней свободы, но современное использование обычно оставляет n для размера выборки. При представлении результатов статистических тестов степени свободы обычно указываются рядом со статистикой теста либо в виде нижнего индекса, либо в скобках. [6]

Случайных векторов

Геометрически степени свободы можно интерпретировать как размерность определенных векторных подпространств. В качестве отправной точки предположим, что у нас есть выборка независимых нормально распределенных наблюдений,

Это можно представить как n -мерный случайный вектор :

Поскольку этот случайный вектор может лежать в любой точке n -мерного пространства, он имеет n степеней свободы.

Теперь пусть будет выборочным средним . Случайный вектор можно разложить как сумму выборочного среднего плюс вектор остатков:

Первый вектор в правой части ограничен кратностью вектора единиц, и единственной свободной величиной является . Следовательно, он имеет 1 степень свободы.

Второй вектор ограничен отношением . Первые n  − 1 компоненты этого вектора могут быть любыми. Однако, как только вы узнаете первые n  − 1 компоненты, ограничение скажет вам значение n -го компонента. Следовательно, этот вектор имеет n  − 1 степеней свободы.

Математически первый вектор — это косая проекция вектора данных на подпространство , охватываемое вектором единиц. Степень свободы 1 — это размерность этого подпространства. Второй остаточный вектор — это проекция наименьших квадратов на ( n  − 1)-мерное ортогональное дополнение этого подпространства, и имеет n  − 1 степеней свободы.

В статистических тестовых приложениях часто интересуются не компонентными векторами, а их квадратными длинами. В приведенном выше примере остаточная сумма квадратов равна

Если точки данных распределены нормально со средним значением 0 и дисперсией , то остаточная сумма квадратов имеет масштабированное распределение хи-квадрат (масштабированное с помощью фактора ) с n  − 1 степенями свободы. Степени свободы, в данном случае параметр распределения, все еще могут быть интерпретированы как размерность базового векторного подпространства.

Аналогично, статистика одновыборочного t -теста ,

следует распределению Стьюдента с n  − 1 степенями свободы, когда предполагаемое среднее значение верно. Опять же, степени свободы возникают из остаточного вектора в знаменателе.

В моделях структурных уравнений

Когда представляются результаты моделей структурных уравнений (SEM), они обычно включают один или несколько индексов общего соответствия модели, наиболее распространенным из которых является статистика χ 2. Это формирует основу для других индексов, которые обычно сообщаются. Хотя именно эти другие статистики интерпретируются чаще всего, степени свободы χ 2 имеют важное значение для понимания соответствия модели, а также природы самой модели .

Степени свободы в SEM вычисляются как разница между числом уникальных фрагментов информации, которые используются в качестве входных данных для анализа, иногда называемых известными, и числом параметров, которые оцениваются уникальным образом, иногда называемых неизвестными. Например, в однофакторном конфирмативном факторном анализе с 4 элементами имеется 10 известных (шесть уникальных ковариаций среди четырех элементов и четыре дисперсии элементов) и 8 неизвестных (4 факторные нагрузки и 4 дисперсии ошибок) для 2 степеней свободы. Степени свободы важны для понимания соответствия модели хотя бы по той причине, что при прочих равных условиях, чем меньше степеней свободы, тем лучше будут индексы , такие как χ2 .

Было показано, что степени свободы могут использоваться читателями статей, содержащих SEM, чтобы определить, сообщают ли авторы этих статей правильную статистику соответствия модели. Например, в организационных науках почти половина статей, опубликованных в ведущих журналах, сообщает о степенях свободы, которые не соответствуют моделям, описанным в этих статьях, заставляя читателя гадать, какие модели были на самом деле протестированы. [7]

Из остатков

Распространенный способ думать о степенях свободы — это количество независимых частей информации, доступных для оценки другой части информации. Более конкретно, количество степеней свободы — это количество независимых наблюдений в выборке данных, которые доступны для оценки параметра совокупности, из которой взята эта выборка. Например, если у нас есть два наблюдения, при вычислении среднего значения у нас есть два независимых наблюдения; однако при вычислении дисперсии у нас есть только одно независимое наблюдение, поскольку два наблюдения одинаково удалены от среднего значения выборки.

При подгонке статистических моделей к данным векторы остатков ограничены пространством меньшей размерности, чем число компонентов в векторе. Эта меньшая размерность — это число степеней свободы для ошибки , также называемое остаточными степенями свободы .

Пример

Пожалуй, самый простой пример — это:

являются случайными величинами, каждая из которых имеет ожидаемое значение μ , и пусть

быть «выборочным средним». Тогда величины

являются остатками, которые можно считать оценками ошибок X i  −  μ . Сумма остатков (в отличие от суммы ошибок) обязательно равна 0. Если известны значения любых n  − 1 остатков, можно найти последний. Это означает, что они ограничены пространством размерности n  1. Говорят, что существует n  − 1 степеней свободы для ошибок.

Пример, который лишь немного менее прост, — это оценка наименьших квадратов a и b в модели.

где x i задано, но e i и, следовательно, Y i случайны. Пусть и будут оценками наименьших квадратов a и b . Тогда остатки

ограничены пространством, определяемым двумя уравнениями

Один из них говорит, что существует n  − 2 степеней свободы для ошибки.

В нотации заглавная буква Y используется при указании модели, а строчная буква y — при определении остатков; это объясняется тем, что первые представляют собой предполагаемые случайные величины, а вторые — фактические данные.

Мы можем обобщить это до множественной регрессии, включающей p параметров и ковариатов (например, p  − 1 предикторов и одно среднее значение (=отсекаемое в регрессии)), в этом случае стоимость в степенях свободы подгонки составляет p , оставляя n - p степеней свободы для ошибок.

В линейных моделях

Демонстрация t- и хи-квадрат распределений для задач с одной выборкой выше является простейшим примером, где возникают степени свободы. Однако, подобная геометрия и векторные разложения лежат в основе большей части теории линейных моделей , включая линейную регрессию и дисперсионный анализ . Явный пример, основанный на сравнении трех средних, представлен здесь; геометрия линейных моделей обсуждается более подробно Кристенсеном (2002). [8]

Предположим, что независимые наблюдения проводятся для трех популяций, и . Ограничение тремя группами и равными размерами выборок упрощает обозначения, но идеи легко обобщаются.

Наблюдения можно разложить следующим образом:

где — средние значения отдельных выборок, а — среднее значение всех 3 n наблюдений. В векторной записи это разложение можно записать как

Вектор наблюдения, с левой стороны, имеет 3 n степеней свободы. С правой стороны, первый вектор имеет одну степень свободы (или измерение) для общего среднего. Второй вектор зависит от трех случайных величин, и . Однако они должны быть в сумме равны 0 и, таким образом, ограничены; вектор, следовательно, должен лежать в 2-мерном подпространстве и иметь 2 степени свободы. Оставшиеся 3 n  − 3 степени свободы находятся в остаточном векторе (состоящем из n  − 1 степеней свободы в каждой из популяций).

В дисперсионном анализе (ANOVA)

В задачах статистического тестирования обычно интересуют не сами компоненты векторов, а их квадраты длин, или сумма квадратов. Степени свободы, связанные с суммой квадратов, являются степенями свободы соответствующих компонентов векторов.

Пример с тремя популяциями выше является примером одностороннего дисперсионного анализа . Модель, или обработка, сумма квадратов представляет собой квадрат длины второго вектора,

с 2 степенями свободы. Остаточная, или погрешная, сумма квадратов равна

с 3( n −1) степенями свободы. Конечно, вводные книги по ANOVA обычно излагают формулы без указания векторов, но именно эта базовая геометрия порождает формулы SS и показывает, как однозначно определить степени свободы в любой заданной ситуации.

При нулевой гипотезе об отсутствии разницы между средними значениями популяции (и при условии, что выполняются стандартные предположения о регулярности ANOVA) суммы квадратов имеют масштабированные распределения хи-квадрат с соответствующими степенями свободы. Статистика F-теста представляет собой отношение после масштабирования по степеням свободы. Если нет разницы между средними значениями популяции, это отношение следует F -распределению с 2 и 3 n  − 3 степенями свободы.

В некоторых сложных условиях, таких как несбалансированные планы с разделением участков , суммы квадратов больше не имеют масштабированных распределений хи-квадрат. Сравнение сумм квадратов со степенями свободы больше не имеет смысла, и программное обеспечение может сообщать об определенных дробных «степенях свободы» в этих случаях. Такие числа не имеют подлинной интерпретации степеней свободы, а просто предоставляют приблизительное распределение хи-квадрат для соответствующей суммы квадратов. Подробности таких приближений выходят за рамки этой страницы.

В вероятностных распределениях

Несколько часто встречающихся статистических распределений ( t Стьюдента , хи-квадрат , F ) имеют параметры, которые обычно называют степенями свободы . Эта терминология просто отражает то, что во многих приложениях, где встречаются эти распределения, параметр соответствует степеням свободы базового случайного вектора, как в предыдущем примере ANOVA. Другой простой пример: если являются независимыми нормальными случайными величинами, то статистика

следует распределению хи-квадрат с n  − 1 степенями свободы. Здесь степени свободы возникают из остаточной суммы квадратов в числителе, и в свою очередь n  − 1 степеней свободы базового остаточного вектора .

При применении этих распределений к линейным моделям параметры степеней свободы могут принимать только целые значения. Базовые семейства распределений допускают дробные значения для параметров степеней свободы, которые могут возникать при более сложных применениях. Одним из примеров являются задачи, в которых используются приближения хи-квадрат, основанные на эффективных степенях свободы. В других приложениях, таких как моделирование данных с тяжелыми хвостами , в качестве эмпирической модели может использоваться распределение при или F. В этих случаях нет особой интерпретации степеней свободы для параметров распределения, хотя терминология может продолжать использоваться.

В нестандартной регрессии

Многие нестандартные методы регрессии, включая регуляризованные наименьшие квадраты (например, гребневая регрессия ), линейные сглаживатели , сглаживающие сплайны и полупараметрическая регрессия , основаны не на обычных проекциях наименьших квадратов, а на регуляризованных ( обобщенных и/или штрафных) наименьших квадратах, и поэтому степени свободы, определенные в терминах размерности, как правило, не полезны для этих процедур. Однако эти процедуры по-прежнему линейны в наблюдениях, и подобранные значения регрессии могут быть выражены в виде

где — вектор подобранных значений для каждого из исходных значений ковариатов из подобранной модели, y — исходный вектор ответов, а Hматрица шляпы или, в более общем смысле, более сглаженная матрица.

Для статистического вывода суммы квадратов все еще могут быть сформированы: модельная сумма квадратов равна ; остаточная сумма квадратов равна . Однако, поскольку H не соответствует обычному методу наименьших квадратов (т.е. не является ортогональной проекцией), эти суммы квадратов больше не имеют (масштабированных, нецентральных) распределений хи-квадрат, а размерно определенные степени свободы бесполезны.

Эффективные степени свободы подгонки могут быть определены различными способами для реализации тестов на соответствие , перекрестной проверки и других процедур статистического вывода . Здесь можно провести различие между эффективными степенями свободы регрессии и остаточными эффективными степенями свободы .

Эффективные степени свободы регрессии

Для эффективных степеней свободы регрессии соответствующие определения могут включать след матрицы шляпы, [9] tr( H ), след квадратичной формы матрицы шляпы, tr( H'H ), форму tr(2 HH H' ), или приближение Саттертуэйта , tr( H'H ) 2 /tr( H'HH'H ) . [10] В случае линейной регрессии матрица шляпы H равна X ( X  ' X ) −1 X ' , и все эти определения сводятся к обычным степеням свободы. Обратите внимание, что

регрессионные (не остаточные) степени свободы в линейных моделях представляют собой «сумму чувствительностей подобранных значений по отношению к наблюдаемым значениям отклика» [11] , т.е. сумму оценок рычага .

Один из способов помочь концептуализировать это — рассмотреть простую матрицу сглаживания, например, гауссовское размытие , используемую для смягчения шума данных. В отличие от простой линейной или полиномиальной подгонки, вычисление эффективных степеней свободы функции сглаживания не является простым. В этих случаях важно оценить Степени свободы, допускаемые матрицей, чтобы остаточные степени свободы затем можно было использовать для оценки статистических тестов, таких как .

Остаточные эффективные степени свободы

Существуют соответствующие определения остаточных эффективных степеней свободы (redf), в которых H заменено на I  −  H. Например, если цель состоит в оценке дисперсии ошибки, redf будет определена как tr(( I  −  H )'( I  −  H )), а несмещенная оценка будет (с ),

или: [12] [13] [14] [15]

Последнее приближение выше [13] снижает вычислительные затраты с O ( n 2 ) до всего лишь O ( n ). В общем случае числитель будет целевой функцией, которая минимизируется; например, если матрица шляпы включает матрицу ковариации наблюдений, Σ, то становится .

Общий

Обратите внимание, что в отличие от исходного случая, допускаются нецелые степени свободы, хотя значение обычно все равно должно быть ограничено диапазоном от 0 до n . [16]

Рассмотрим в качестве примера сглаживатель k - ближайшего соседа , который является средним из k ближайших измеренных значений к заданной точке. Тогда в каждой из n измеренных точек вес исходного значения в линейной комбинации, составляющей прогнозируемое значение, равен всего лишь 1/ k . Таким образом, след матрицы шляпы равен n/k . Таким образом, сглаживание стоит n/k эффективных степеней свободы.

В качестве другого примера рассмотрим существование почти дублированных наблюдений. Наивное применение классической формулы np привело бы к переоценке степени свободы остатков, как если бы каждое наблюдение было независимым. Однако более реалистично, что матрица H = X ( X '  Σ −1 X ) −1 X ' Σ −1 включала бы матрицу ковариации наблюдений Σ, указывающую на ненулевую корреляцию между наблюдениями.

Более общая формулировка эффективной степени свободы приведет к более реалистичной оценке, например, дисперсии ошибки σ2 , которая, в свою очередь, масштабирует апостериорное стандартное отклонение неизвестных параметров ; степень свободы также повлияет на коэффициент расширения, необходимый для получения эллипса ошибки для заданного уровня достоверности .

Другие формулировки

Аналогичными концепциями являются эквивалентные степени свободы в непараметрической регрессии , [17] степень свободы сигнала в атмосферных исследованиях, [18] [19] и нецелочисленная степень свободы в геодезии. [20] [21]

Остаточная сумма квадратов имеет обобщенное распределение хи-квадрат , и теория, связанная с этим распределением [22], предоставляет альтернативный путь к ответам, приведенным выше. [ необходимо дополнительное объяснение ]

Смотрите также

Ссылки

  1. ^ "Степени свободы". Глоссарий статистических терминов . Анимированное программное обеспечение . Получено 21.08.2008 .
  2. ^ Лейн, Дэвид М. «Степени свободы». HyperStat Online . Решения для статистики . Получено 21 августа 2008 г.
  3. ^ Уокер, Х. М. (апрель 1940 г.). «Степени свободы» (PDF) . Журнал педагогической психологии . 31 (4): 253–269. doi :10.1037/h0054588.
  4. Student (март 1908 г.). «Вероятная ошибка среднего». Biometrika . 6 (1): 1–25. doi :10.2307/2331554. JSTOR  2331554.
  5. ^ Фишер, РА (январь 1922 г.). «Об интерпретации χ2 из таблиц сопряженности и расчете P». Журнал Королевского статистического общества . 85 (1): 87–94. doi :10.2307/2340521. JSTOR  2340521.
  6. ^ Cichoń, Mariusz (2020-06-01). «Сообщение статистических методов и результатов статистического анализа в исследовательских статьях». Pharmacological Reports . 72 (3): 481–485. doi :10.1007/s43440-020-00110-5. ISSN  2299-5684.
  7. ^ Кортина, Дж. М., Грин, Дж. П., Килер, К. Р. и Ванденберг, Р. Дж. (2017). Степени свободы в SEM: тестируем ли мы модели, которые, как мы заявляем, тестируем?. Методы организационных исследований, 20(3), 350-378.
  8. ^ Кристенсен, Рональд (2002). Плоские ответы на сложные вопросы: Теория линейных моделей (третье изд.). Нью-Йорк: Springer. ISBN 0-387-95361-2.
  9. ^ Тревор Хасти , Роберт Тибширани , Джером Х. Фридман (2009), Элементы статистического обучения: добыча данных, вывод и прогнозирование , 2-е изд., 746 стр. ISBN 978-0-387-84857-0 , doi :10.1007/978-0-387-84858-7, [1] (уравнение (5.16)) 
  10. ^ Фокс, Дж. (2000). Непараметрическая простая регрессия: сглаживание диаграмм рассеяния. Количественные приложения в социальных науках. Т. 130. SAGE Publications. стр. 58. ISBN 978-0-7619-1585-0. Получено 28.08.2020 .
  11. ^ Ye, J. (1998), «Об измерении и исправлении эффектов интеллектуального анализа данных и выбора модели», Журнал Американской статистической ассоциации , 93 (441), 120–131. JSTOR  2669609 (eq.(7))
  12. ^ Клайв Лоадер (1999), Локальная регрессия и правдоподобие, ISBN 978-0-387-98775-0 , doi :10.1007/b98858, (eq.(2.18), стр. 30) 
  13. ^ ab Тревор Хасти, Роберт Тибширани (1990), Обобщенные аддитивные модели, CRC Press, (стр. 54) и (eq.(B.1), стр. 305))
  14. ^ Саймон Н. Вуд (2006), Обобщенные аддитивные модели: введение в R, CRC Press, (eq.(4,14), стр. 172)
  15. ^ Дэвид Рупперт, MP Wand, RJ Carroll (2003), Полупараметрическая регрессия , Cambridge University Press (уравнение (3.28), стр. 82)
  16. ^ Джеймс С. Ходжес (2014), Богато параметризованные линейные модели , CRC Press. [2]
  17. ^ Питер Дж. Грин, Б. В. Сильверман (1994), Непараметрическая регрессия и обобщенные линейные модели: подход с учетом штрафа за грубость, CRC Press (уравнение (3.15), стр. 37)
  18. ^ Клайв Д. Роджерс (2000), Обратные методы зондирования атмосферы: теория и практика , World Scientific (уравнение (2.56), стр. 31)
  19. ^ Адриан Дойку, Томас Траутманн, Франц Шрайер (2010), Численная регуляризация для обратных задач атмосферы , Спрингер (уравнение (4.26), стр. 114)
  20. ^ D. Dong, TA Herring и RW King (1997), Оценка региональной деформации с использованием комбинации космических и наземных геодезических данных, J. Geodesy , 72 (4), 200–214, doi :10.1007/s001900050161 (eq.(27), стр. 205)
  21. ^ H. Theil (1963), «Об использовании неполной априорной информации в регрессионном анализе», Журнал Американской статистической ассоциации , 58 (302), 401–414 JSTOR  2283275 (уравнение (5.19)–(5.20))
  22. ^ Джонс, ДА (1983) «Статистический анализ эмпирических моделей, подобранных с помощью оптимизации», Биометрика , 70 (1), 67–88

Дальнейшее чтение

Внешние ссылки