В статистике теорема Кокрана , разработанная Уильямом Г. Кокраном , [1] представляет собой теорему , используемую для обоснования результатов, касающихся вероятностных распределений статистики, которые используются в дисперсионном анализе . [2]
Заявление
Пусть U 1 , ..., UN — стандартные нормально распределенные случайные величины и . Пусть – симметричные матрицы . Определите r i как ранг . _ Определим , так что Q i являются квадратичными формами . Дальше предположим . ![{\displaystyle U=[U_{1},...,U_{N}]^{T}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle B^{(1)},B^{(2)},\ldots,B^{(k)}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle B^{(i)}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q_{i}=U^{T}B^{(i)}U}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sum _{i}Q_{i}=U^{T}U}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Теорема Кокрана утверждает, что следующие утверждения эквивалентны:
Часто это указывается как , где идемпотент, и заменяется на . Но после ортогонального преобразования , и так мы сводимся к приведенной выше теореме.![{\displaystyle \sum _{i}A_{i}=A}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle А}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sum _{i}r_{i}=N}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sum _{i}r_{i} = ранг (A)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A=diag(I_{M},0)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Доказательство
Утверждение : Пусть будет стандартным гауссианом в , тогда для любых симметричных матриц , если и имеют одинаковое распределение, то имеют одинаковые собственные значения (с точностью до кратности).![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathbb {R} ^{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q,Q'}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X^{T}QX}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X^{T}Q'X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q,Q'}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
ДоказательствоПусть собственные значения будут , затем вычислите характеристическую функцию . Оказывается, ![{\displaystyle Q}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \lambda _{1},...,\lambda _{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X^{T}QX}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \phi (t)=\left(\prod _{j}(1-2i\lambda _{j}t)\right)^{-1/2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
(Чтобы его вычислить, сначала диагонализуйте , перейдите в эту систему отсчета, а затем используйте тот факт, что характеристическая функция суммы независимых переменных является произведением их характеристических функций.)![{\displaystyle Q}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Для того чтобы и были равны, их характеристические функции должны быть равны, а значит, иметь одинаковые собственные значения (с точностью до кратности).![{\displaystyle X^{T}QX}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X^{T}Q'X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q,Q'}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Требовать : .![{\displaystyle I=\sum _{i}B_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Лемма : Если все симметричны и имеют собственные значения 0, 1, то они одновременно диагонализуемы.![{\displaystyle \sum _{i}M_{i}=I}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle M_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Теперь докажем исходную теорему. Мы докажем, что эти три случая эквивалентны, доказав, что каждый случай влечет за собой следующий в цикле ( ).![{\displaystyle 1\к 2\к 3\к 1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
ДоказательствоСлучай : Все независимы![{\displaystyle Q_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Исправьте некоторые , определите и диагонализируйте с помощью ортогонального преобразования . Тогда считайте . Он также диагонализирован.![{\displaystyle я}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle C_{i}=IB_{i}=\sum _{j\neq i}B_{j}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle B_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle О}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle OC_{i}O^{T}=I-OB_{i}O^{T}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Пусть , тогда оно также является стандартным гауссовским. Тогда у нас есть ![{\displaystyle W=OU}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q_{i}=W^{T}(OB_{i}O^{T})W;\quad \sum _{j\neq i}Q_{j}=W^{T}(I- OB_{i}O^{T})W}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Проверьте их диагональные элементы и убедитесь, что это означает, что их ненулевые диагональные элементы не пересекаются.![{\displaystyle Q_{i}\perp \sum _{j\neq i}Q_{j}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Таким образом, все собственные значения равны 0, 1, как и расстояние со степенями свободы.![{\displaystyle B_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \чи ^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle r_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Случай : Каждый является распределением.![{\displaystyle Q_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \chi ^{2}(r_{i})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Исправьте любой , диагонализуйте его ортогональным преобразованием и переиндексируйте так, чтобы . Тогда для некоторых сферическое вращение .![{\displaystyle я}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle О}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle OB_{i}O^{T}=diag(\lambda _{1},...,\lambda _{r_{i}},0,...,0)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q_{i}=\sum _{j}\lambda _{j}{U'}_{j}^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle U'_{j}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle U_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Так как мы получаем все . Так что все и имеют собственные значения .![{\displaystyle Q_{i}\sim \chi ^{2}(r_{i})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \lambda _{j}=1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle B_{i}\succeq 0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle 0,1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Так что диагонали их одновременно, сложите их, чтобы найти .![{\displaystyle \sum _{i}r_{i}=N}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Случай : .![{\displaystyle r_{1}+\cdots +r_{k}=N}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Сначала мы покажем, что матрицы B ( i ) могут быть одновременно диагонализированы ортогональной матрицей и что все их ненулевые собственные значения равны +1. Как только это будет показано, примените это ортогональное преобразование к этому одновременному собственному базису , в котором случайный вектор становится , но все еще независимы и стандартны по Гауссу. Затем следует результат.![{\displaystyle [U_{1},...,U_{N}]^{T}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle [U'_{1},...,U'_{N}]^{T}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle U_{i}'}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Каждая из матриц B ( i ) имеет ранг r i и, следовательно, r i ненулевые собственные значения . Для каждого i сумма имеет не более ранга . Поскольку , отсюда следует, что C ( i ) имеет ровно ранг N − r i .![{\displaystyle C^{(i)}\equiv \sum _{j\neq i}B^{(j)}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sum _ {j\neq i}r_ {j} = N-r_ {i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle B^{(i)}+C^{(i)}=I_{N\times N}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Следовательно, B ( i ) и C ( i ) могут быть одновременно диагонализированы . Это можно показать, сначала диагонализуя B ( i ) по спектральной теореме . В этом базисе он имеет вид:
![{\displaystyle {\begin{bmatrix}\lambda _{1}&0&0&\cdots &\cdots &&0\\0&\lambda _{2}&0&\cdots &\cdots &&0\\0&0&\ddots &&&&\vdots \\\vdots &\vdots &&\lambda _{r_{i}}&&\\\vdots &\vdots &&&0&\\0&\vdots &&&&\ddots \\0&0&\ldots &&&&0\end{bmatrix}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Таким образом, нижние строки равны нулю. Так как , то из этого следует, что эти строки в C ( i ) в этом базисе содержат правый блок, который является единичной матрицей, с нулями в остальных этих строках. Но поскольку C ( i ) имеет ранг N − r i , в другом месте он должен быть равен нулю. Следовательно, и в этом базисе он диагональен. Отсюда следует, что все ненулевые собственные значения как B ( i ), так и C ( i ) равны +1. Этот аргумент применим для всех i , поэтому все B ( i ) положительно полуопределены.![{\displaystyle (Nr_{i})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle C^{(i)}=IB^{(i)}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle (N-r_{i})\times (N-r_{i})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Более того, приведенный выше анализ можно повторить в диагональном базисе для . В этом базисе находится тождество векторного пространства, поэтому следует, что оба B (2) и одновременно диагонализуемы в этом векторном пространстве (а значит, и вместе с B (1) ). Путем итерации следует, что все B -s одновременно диагонализуемы.![{\displaystyle C^{(1)}=B^{(2)}+\sum _{j>2}B^{(j)}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle C^{(1)}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle (Nr_{1})\times (Nr_{1})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sum _{j>2}B^{(j)}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Таким образом, существует ортогональная матрица такая, что для всех , является диагональной, где любой элемент с индексами , , равен 1, а любой элемент с другими индексами равен 0.![{\displaystyle S}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle я}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle S^{\mathrm {T} }B^{(i)}S\equiv B^{(i)\prime }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle B_{x,y}^{(i)\prime }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x=y}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sum _{j=1}^{i-1}r_{j}<x=y\leq \sum _{j=1}^{i}r_{j}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Примеры
Выборочное среднее и выборочная дисперсия
Если X 1 , ..., X n — независимые нормально распределенные случайные величины со средним значением µ и стандартным отклонением σ , то
![{\displaystyle U_{i}={\frac {X_{i}-\mu }{\sigma }}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
является стандартным нормальным для каждого i . Обратите внимание, что общее количество Q равно сумме квадратов U , как показано здесь:
![{\displaystyle \sum _{i}Q_{i}=\sum _{jik}U_{j}B_{jk}^{(i)}U_{k}=\sum _{jk}U_{j}U_ {k}\sum _{i}B_{jk}^{(i)}=\sum _{jk}U_{j}U_{k}\delta _{jk}=\sum _{j}U_{j }^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
что вытекает из исходного предположения, что . Поэтому вместо этого мы рассчитаем эту величину, а затем разделим ее на Q i . Можно написать![{\displaystyle B_{1}+B_{2}\ldots =I}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sum _{i=1}^{n}U_{i}^{2}=\sum _{i=1}^{n}\left({\frac {X_{i}-{\ overline {X}}}{\sigma }}\right)^{2}+n\left({\frac {{\overline {X}}-\mu }{\sigma }}\right)^{2} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
(вот выборочное среднее значение ). Чтобы увидеть это тождество, умножьте все на и обратите внимание, что![{\displaystyle {\overline {X}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma ^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sum (X_{i}-\mu)^{2}=\sum (X_{i}-{\overline {X}}+{\overline {X}}-\mu)^{2} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
и расширить, чтобы дать
![{\displaystyle \sum (X_{i}-\mu)^{2}=\sum (X_{i}-{\overline {X}})^{2}+\sum ({\overline {X}} -\mu )^{2}+2\sum (X_{i}-{\overline {X}})({\overline {X}}-\mu ).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Третий член равен нулю, поскольку он равен константе, умноженной на
![{\displaystyle \sum ({\overline {X}}-X_{i})=0,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
а второй член состоит из n одинаковых членов, сложенных вместе. Таким образом
![{\displaystyle \sum (X_{i}-\mu)^{2}=\sum (X_{i}-{\overline {X}})^{2}+n({\overline {X}}- \му )^{2},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
и поэтому
![{\displaystyle \sum \left({\frac {X_{i}-\mu }{\sigma }}\right)^{2} =\sum \left({\frac {X_{i}-{\overline {X}}}{\sigma }}\right)^{2}+n\left({\frac {{\overline {X}}-\mu }{\sigma }}\right)^{2}= \overbrace {\sum _{i}\left(U_{i}-{\frac {1}{n}}\sum _{j}{U_{j}}\right)^{2}} ^{Q_ {1}}+\overbrace {{\frac {1}{n}}\left(\sum _{j}{U_{j}}\right)^{2}} ^{Q_{2}}=Q_ {1}+Q_{2}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Теперь с матрицей единиц ранга 1. В свою очередь, учитывая, что . Это выражение также можно получить, разложив его в матричной записи. Можно показать, что ранг функции равен нулю, поскольку сумма всех ее строк равна нулю. Таким образом, условия теоремы Кокрена выполнены.![{\displaystyle B^{(2)}={\frac {J_ {n}}{n}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle J_{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle B^{(1)}=I_{n}-{\frac {J_{n}}{n}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle I_{n}=B^{(1)}+B^{(2)}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q_{1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle B^{(1)}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle n-1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Теорема Кокрена тогда утверждает, что Q 1 и Q 2 независимы, с распределениями хи-квадрат с n - 1 и 1 степенью свободы соответственно. Это показывает, что выборочное среднее и выборочная дисперсия независимы. Это также можно показать с помощью теоремы Басу , и фактически это свойство характеризует нормальное распределение – поскольку никакое другое распределение не является независимым от выборочного среднего и выборочной дисперсии. [4]
Распределения
Результат для распределений символически записывается как
![{\displaystyle \sum \left(X_{i}-{\overline {X}}\right)^{2}\sim \sigma ^{2}\chi _{n-1}^{2}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle n({\overline {X}}-\mu )^{2}\sim \sigma ^{2}\chi _{1}^{2},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Обе эти случайные величины пропорциональны истинной, но неизвестной дисперсии σ 2 . При этом их соотношение не зависит от σ 2 а, поскольку они статистически независимы. Распределение их отношения определяется выражением
![{\displaystyle {\frac {n\left({\overline {X}}-\mu \right)^{2}}{{\frac {1}{n-1}}\sum \left(X_{i }-{\overline {X}}\right)^{2}}}\sim {\frac {\chi _{1}^{2}}{{\frac {1}{n-1}}\chi _{n-1}^{2}}}\sim F_{1,n-1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
где F 1, n − 1 — F-распределение с 1 и n − 1 степенями свободы (см. также t-распределение Стьюдента ). Последним шагом здесь является определение случайной величины, имеющей F-распределение.
Оценка дисперсии
Для оценки дисперсии σ2 иногда используется оценка максимального правдоподобия дисперсии нормального распределения .
![{\displaystyle {\widehat {\sigma }}^{2}={\frac {1}{n}}\sum \left(X_{i}-{\overline {X}}\right)^{2} .}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Теорема Кокрена показывает, что
![{\displaystyle {\frac {n{\widehat {\sigma }}^{2}}{\sigma ^{2}}}\sim \chi _{n-1}^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
а свойства распределения хи-квадрат показывают, что
![{\displaystyle {\begin{aligned}E\left({\frac {n{\widehat {\sigma }}^{2}}{\sigma ^{2}}}\right)&=E\left(\ chi _ {n-1}^{2}\right)\\{\frac {n}{\sigma ^{2}}}E\left({\widehat {\sigma }}^{2}\right) &=(n-1)\\E\left({\widehat {\sigma }}^{2}\right)&={\frac {\sigma ^{2}(n-1)}{n}} \end{выровнено}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Альтернативная формулировка
Следующая версия часто встречается при рассмотрении линейной регрессии. [5] Предположим, что это стандартный многомерный нормальный случайный вектор (здесь обозначает n -n единичную матрицу ), и if - все n -n симметричные матрицы с . Тогда при определении любое из следующих условий влечет за собой два других:
![{\displaystyle \sum _{i=1}^{k}A_{i}=I_{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle r_{i}=\operatorname {Rank} (A_{i})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sum _{i=1}^{k}r_{i}=n,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
(таким образом, они положительно полуопределенны )![{\displaystyle A_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
не зависит от![{\displaystyle Y^{T}A_{j}Y}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle я\neq j.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Смотрите также
Рекомендации
- ^ аб Кокран, WG (апрель 1934 г.). «Распределение квадратичных форм в нормальной системе с приложениями к ковариационному анализу». Математические труды Кембриджского философского общества . 30 (2): 178–191. дои : 10.1017/S0305004100016595.
- ^ Бапат, РБ (2000). Линейная алгебра и линейные модели (второе изд.). Спрингер. ISBN 978-0-387-98871-9.
- ^ «Теорема Кокрана», Статистический словарь , Oxford University Press, 01 января 2008 г., doi : 10.1093/acref/9780199541454.001.0001/acref-9780199541454-e-294, ISBN 978-0-19-954145-4, получено 18 мая 2022 г.
- ^ Гири, RC (1936). «Распределение коэффициента «Студента» для ненормальных выборок». Приложение к журналу Королевского статистического общества . 3 (2): 178–184. дои : 10.2307/2983669. ЖФМ 63.1090.03. JSTOR 2983669.
- ^ «Теорема Кокрана (Краткое руководство)» (PDF) .