stringtranslate.com

Дисперсия

Пример выборок из двух совокупностей с одинаковым средним значением, но разными дисперсиями. Красная совокупность имеет среднее значение 100 и дисперсию 100 (SD=10), а синяя совокупность имеет среднее значение 100 и дисперсию 2500 (SD=50), где SD означает стандартное отклонение.

В теории вероятностей и статистике дисперсия это ожидаемое значение квадрата отклонения от среднего значения случайной величины . Среднеквадратическое отклонение (SD) получается как квадратный корень дисперсии. Дисперсия — это мера дисперсии , то есть мера того, насколько далеко набор чисел разбросан от своего среднего значения. Это второй центральный момент распределения и ковариация случайной величины с самой собой, и она часто обозначается как , , , , или . [1]

Преимущество дисперсии как меры рассеивания заключается в том, что она более поддается алгебраическим манипуляциям, чем другие меры рассеивания, такие как ожидаемое абсолютное отклонение ; например, дисперсия суммы некоррелированных случайных величин равна сумме их дисперсий. Недостатком дисперсии для практических приложений является то, что, в отличие от стандартного отклонения, ее единицы отличаются от случайной величины, поэтому стандартное отклонение чаще сообщается как мера рассеивания после завершения расчета. Другим недостатком является то, что дисперсия не является конечной для многих распределений.

Существует два различных понятия, которые оба называются «дисперсией». Одно, как обсуждалось выше, является частью теоретического распределения вероятностей и определяется уравнением. Другое — дисперсия — это характеристика набора наблюдений. Когда дисперсия вычисляется из наблюдений, эти наблюдения обычно измеряются из реальной системы. Если присутствуют все возможные наблюдения системы, то вычисленная дисперсия называется дисперсией совокупности. Обычно, однако, доступно только подмножество, и дисперсия, вычисленная из него, называется дисперсией выборки. Дисперсия, вычисленная из выборки, считается оценкой полной дисперсии совокупности. Существует несколько способов расчета оценки дисперсии совокупности, как обсуждается в разделе ниже.

Два вида дисперсии тесно связаны. Чтобы увидеть, как это происходит, рассмотрим, что теоретическое распределение вероятностей может использоваться в качестве генератора гипотетических наблюдений. Если бесконечное число наблюдений генерируется с использованием распределения, то дисперсия выборки, вычисленная из этого бесконечного набора, будет соответствовать значению, вычисленному с использованием уравнения распределения для дисперсии. Дисперсия играет центральную роль в статистике, где некоторые идеи, которые ее используют, включают описательную статистику , статистический вывод , проверку гипотез , качество соответствия и выборку Монте-Карло .

Геометрическая визуализация дисперсии произвольного распределения (2, 4, 4, 4, 5, 5, 7, 9):
  1. Строится частотное распределение.
  2. Центроид распределения дает его среднее значение.
  3. Для каждого значения формируется квадрат со стороной, равной разнице каждого значения от среднего.
  4. Если расположить квадраты в прямоугольник, одна сторона которого равна числу значений n , то другая сторона будет дисперсией распределения σ 2 .

Определение

Дисперсия случайной величины — это ожидаемое значение квадрата отклонения от среднего значения :

Это определение охватывает случайные величины, которые генерируются дискретными , непрерывными , ни тем , ни другим или смешанными процессами. Дисперсию также можно рассматривать как ковариацию случайной величины с самой собой:

Дисперсия также эквивалентна второму кумулянту распределения вероятностей, которое генерирует . Дисперсия обычно обозначается как , или иногда как или , или символически как или просто (произносится как « сигма в квадрате»). Выражение для дисперсии можно разложить следующим образом:

Другими словами, дисперсия X равна среднему квадрату X минус квадрат среднего X. Это уравнение не следует использовать для вычислений с использованием арифметики с плавающей точкой , поскольку оно страдает от катастрофического сокращения , если два компонента уравнения близки по величине. Для других численно устойчивых альтернатив см. алгоритмы для вычисления дисперсии .

Дискретная случайная величина

Если генератор случайной величины дискретен с функцией массы вероятности , то

где — ожидаемое значение. То есть,

(Когда такая дискретная взвешенная дисперсия задана весами, сумма которых не равна 1, то делится на сумму весов.)

Дисперсию набора равновероятных значений можно записать как

где - среднее значение. То есть,

Дисперсию набора равновероятных значений можно эквивалентно выразить, не ссылаясь напрямую на среднее значение, через квадраты отклонений всех попарных квадратов расстояний точек друг от друга: [2]

Абсолютно непрерывная случайная величина

Если случайная величина имеет функцию плотности вероятности , а является соответствующей кумулятивной функцией распределения , то

или эквивалентно,

где — ожидаемое значение, заданное

В этих формулах интегралы по и являются интегралами Лебега и Лебега–Стилтьеса соответственно.

Если функция интегрируема по Риману на каждом конечном интервале , то

где интеграл является несобственным интегралом Римана .

Примеры

Экспоненциальное распределение

Экспоненциальное распределение с параметром λ представляет собой непрерывное распределение, плотность вероятности которого определяется выражением

на интервале [0, ∞) . Можно показать, что его среднее значение равно

Используя интегрирование по частям и используя уже рассчитанное ожидаемое значение, имеем:

Таким образом, дисперсия X определяется как

Честная игра

Честная шестигранная игральная кость может быть смоделирована как дискретная случайная величина X с результатами от 1 до 6, каждый с равной вероятностью 1/6. Ожидаемое значение X равно Следовательно, дисперсия X равна

Общая формула для дисперсии результата X n -гранной кости имеет вид

Распространенные распределения вероятностей

В следующей таблице приведена дисперсия некоторых часто используемых распределений вероятностей.

Характеристики

Основные свойства

Дисперсия неотрицательна, поскольку квадраты положительны или равны нулю:

Дисперсия константы равна нулю.

И наоборот, если дисперсия случайной величины равна 0, то она почти наверняка является константой. То есть она всегда имеет одно и то же значение:

Вопросы конечности

Если распределение не имеет конечного ожидаемого значения, как в случае распределения Коши , то дисперсия также не может быть конечной. Однако некоторые распределения могут не иметь конечной дисперсии, несмотря на то, что их ожидаемое значение конечно. Примером является распределение Парето , индекс которого удовлетворяет

Разложение

Общая формула для разложения дисперсии или закон полной дисперсии таков: если и — две случайные величины, и дисперсия существует, то

Условное ожидание заданного и условная дисперсия могут быть поняты следующим образом. При любом конкретном значении y случайной величины  Y существует условное ожидание заданного события  Y  =  y . Эта величина зависит от конкретного значения  y ; это функция . Та же функция , вычисленная при случайной величине Y, является условным ожиданием

В частности, если — дискретная случайная величина, принимающая возможные значения с соответствующими вероятностями , то в формуле для полной дисперсии первый член в правой части становится

где . Аналогично, второй член в правой части становится

где и . Таким образом, общая дисперсия определяется как

Аналогичная формула применяется в дисперсионном анализе , где соответствующая формула имеет вид

здесь относится к среднему квадрату. В линейном регрессионном анализе соответствующая формула

Это также можно вывести из аддитивности дисперсий, поскольку общая (наблюдаемая) оценка представляет собой сумму прогнозируемой оценки и оценки ошибки, где последние две величины не коррелируют.

Аналогичные разложения возможны для суммы квадратов отклонений (суммы квадратов, ):

Расчет по CDF

Дисперсию совокупности для неотрицательной случайной величины можно выразить через кумулятивную функцию распределения F, используя

Это выражение можно использовать для вычисления дисперсии в ситуациях, когда можно удобно выразить CDF, но не плотность .

Характерное свойство

Второй момент случайной величины достигает минимального значения, если взять около первого момента (т.е. среднего) случайной величины, т.е. . Наоборот, если непрерывная функция удовлетворяет для всех случайных величин X , то она обязательно имеет вид , где a > 0 . Это также справедливо в многомерном случае. [3]

Единицы измерения

В отличие от ожидаемого абсолютного отклонения , дисперсия переменной имеет единицы, которые являются квадратами единиц самой переменной. Например, переменная, измеренная в метрах, будет иметь дисперсию, измеренную в метрах в квадрате. По этой причине описание наборов данных через их стандартное отклонение или среднеквадратичное отклонение часто предпочтительнее, чем использование дисперсии. В примере с игральными костями стандартное отклонение составляет 2,9 ≈ 1,7 , что немного больше ожидаемого абсолютного отклонения 1,5.

Стандартное отклонение и ожидаемое абсолютное отклонение могут использоваться как индикатор «разброса» распределения. Стандартное отклонение более поддается алгебраическим манипуляциям, чем ожидаемое абсолютное отклонение, и вместе с дисперсией и ее обобщением ковариацией часто используется в теоретической статистике; однако ожидаемое абсолютное отклонение имеет тенденцию быть более надежным, поскольку оно менее чувствительно к выбросам, возникающим из-за аномалий измерений или чрезмерно тяжелого распределения .

Распространение

Сложение и умножение на константу

Дисперсия инвариантна относительно изменений параметра местоположения . То есть, если константа добавляется ко всем значениям переменной, дисперсия не меняется:

Если все значения масштабируются константой, то дисперсия масштабируется квадратом этой константы:

Дисперсия суммы двух случайных величин определяется выражением

где ковариация . ​

Линейные комбинации

В общем случае для суммы случайных величин дисперсия становится:

см. также тождество генерала Бьенеме .

Эти результаты приводят к дисперсии линейной комбинации :

Если случайные величины таковы, что

то они называются некоррелированными . Из приведенного ранее выражения немедленно следует, что если случайные величины некоррелированы, то дисперсия их суммы равна сумме их дисперсий, или, выражаясь символически:

Поскольку независимые случайные величины всегда некоррелированы (см. Ковариация § Некоррелированность и независимость ), приведенное выше уравнение справедливо, в частности, когда случайные величины независимы. Таким образом, независимость достаточна, но не необходима для того, чтобы дисперсия суммы равнялась сумме дисперсий.

Матричная запись дисперсии линейной комбинации

Определим как вектор-столбец случайных величин , а как вектор-столбец скаляров . Следовательно, является линейной комбинацией этих случайных величин, где обозначает транспонирование . Также пусть будет ковариационной матрицей . Дисперсия тогда определяется как: [4]

Это означает, что дисперсию среднего можно записать как (с вектором-столбцом из единиц)

Сумма переменных

Сумма некоррелированных переменных

Одной из причин предпочтительного использования дисперсии по сравнению с другими мерами дисперсии является то, что дисперсия суммы (или разности) некоррелированных случайных величин представляет собой сумму их дисперсий:

Это утверждение называется формулой Бьенеме [5] и было открыто в 1853 году. [6] [7] Часто оно делается с более сильным условием, что переменные независимы , но достаточно, чтобы они были некоррелированными. Так что если все переменные имеют одинаковую дисперсию σ 2 , то, поскольку деление на n является линейным преобразованием, эта формула немедленно подразумевает, что дисперсия их среднего равна

То есть дисперсия среднего уменьшается при увеличении n . Эта формула для дисперсии среднего используется в определении стандартной ошибки выборочного среднего, которая используется в центральной предельной теореме .

Для доказательства первоначального утверждения достаточно показать, что

Общий результат следует затем по индукции. Начиная с определения,

Используя линейность оператора ожидания и предположение о независимости (или некоррелированности) X и Y , это еще больше упрощается следующим образом:

Сумма коррелированных переменных

Сумма коррелированных переменных при фиксированном размере выборки

В общем случае дисперсия суммы n переменных равна сумме их ковариаций :

(Примечание: второе равенство вытекает из того факта, что Cov( X i , X i ) = Var( X i ) .)

Здесь — ковариация , которая равна нулю для независимых случайных величин (если она существует). Формула утверждает, что дисперсия суммы равна сумме всех элементов в ковариационной матрице компонентов. Следующее выражение эквивалентно утверждает, что дисперсия суммы равна сумме диагонали ковариационной матрицы плюс удвоенная сумма ее верхних треугольных элементов (или ее нижних треугольных элементов); это подчеркивает, что ковариационная матрица симметрична. Эта формула используется в теории альфа Кронбаха в классической теории тестов .

Итак, если переменные имеют одинаковую дисперсию σ2 , а средняя корреляция различных переменных равна ρ , то дисперсия их среднего значения равна

Это подразумевает, что дисперсия среднего увеличивается со средним значением корреляций. Другими словами, дополнительные коррелированные наблюдения не так эффективны, как дополнительные независимые наблюдения, для снижения неопределенности среднего . Более того, если переменные имеют единичную дисперсию, например, если они стандартизированы, то это упрощается до

Эта формула используется в формуле предсказания Спирмена-Брауна классической теории тестов. Она сходится к ρ , если n стремится к бесконечности, при условии, что средняя корреляция остается постоянной или тоже сходится. Таким образом, для дисперсии среднего значения стандартизированных переменных с равными корреляциями или сходящейся средней корреляцией мы имеем

Таким образом, дисперсия среднего значения большого числа стандартизированных переменных приблизительно равна их средней корреляции. Это ясно показывает, что выборочное среднее значение коррелированных переменных обычно не сходится к среднему значению совокупности, хотя закон больших чисел гласит, что выборочное среднее значение будет сходиться для независимых переменных.

Сумма некоррелированных переменных со случайным размером выборки

Бывают случаи, когда выборка берется без знания заранее, сколько наблюдений будет приемлемо согласно какому-либо критерию. В таких случаях размер выборки N является случайной величиной, вариация которой добавляется к вариации X , так что,

[8]

что следует из закона полной дисперсии .

Если N имеет распределение Пуассона , то с оценкой n = N. Таким образом, оценка становится , давая (см. стандартную ошибку выборочного среднего ).

Взвешенная сумма переменных

Свойство масштабирования и формула Бьенеме вместе со свойством ковариации Cov( aXbY ) = ab Cov( XY ) совместно подразумевают, что

Это подразумевает, что во взвешенной сумме переменных переменная с наибольшим весом будет иметь непропорционально большой вес в дисперсии итога. Например, если X и Y не коррелируют , а вес X в два раза больше веса Y , то вес дисперсии X будет в четыре раза больше веса дисперсии Y.

Выражение выше можно расширить до взвешенной суммы нескольких переменных:

Произведение переменных

Произведение независимых переменных

Если две переменные X и Y независимы , то дисперсия их произведения определяется выражением [9]

Эквивалентно, используя основные свойства ожидания, оно задается выражением

Произведение статистически зависимых переменных

В общем случае, если две переменные статистически зависимы, то дисперсия их произведения определяется по формуле:

Произвольные функции

Метод дельта использует разложения Тейлора второго порядка для аппроксимации дисперсии функции одной или нескольких случайных величин: см. разложения Тейлора для моментов функций случайных величин . Например, аппроксимированная дисперсия функции одной переменной определяется как

при условии, что f дважды дифференцируема и что среднее значение и дисперсия X конечны.

Дисперсия популяции и дисперсия выборки

Реальные наблюдения, такие как измерения вчерашнего дождя в течение дня, обычно не могут быть полными наборами всех возможных наблюдений, которые могли бы быть сделаны. Таким образом, дисперсия, вычисленная из конечного набора, в общем случае не будет соответствовать дисперсии, которая была бы вычислена из полной совокупности возможных наблюдений. Это означает, что мы оцениваем среднее значение и дисперсию из ограниченного набора наблюдений с помощью уравнения оценки . Оценка является функцией выборки из n наблюдений , взятых без смещения наблюдений из всей совокупности потенциальных наблюдений. В этом примере выборка будет набором фактических измерений вчерашних осадков с доступных дождемеров в пределах интересующей географии.

Простейшие оценщики для среднего значения и дисперсии совокупности — это просто среднее значение и дисперсия выборки, среднее значение выборки и (нескорректированная) дисперсия выборки — это состоятельные оценщики (они сходятся к значению всей совокупности по мере увеличения числа выборок), но их можно улучшить. Проще говоря, дисперсия выборки вычисляется как сумма квадратов отклонений относительно среднего значения (выборки), деленная на n как число выборок . Однако использование значений, отличных от n, улучшает оценщик различными способами. Четыре общих значения для знаменателя — это n, n  − 1, n  + 1 и n  − 1,5: n — простейшее (дисперсия выборки), n  − 1 устраняет смещение, n  + 1 минимизирует среднеквадратичную ошибку для нормального распределения, а n  − 1,5 в основном устраняет смещение при несмещенной оценке стандартного отклонения для нормального распределения.

Во-первых, если истинное среднее значение совокупности неизвестно, то выборочная дисперсия (которая использует выборочное среднее значение вместо истинного среднего) является смещенной оценкой : она занижает дисперсию на коэффициент ( n  − 1) / n ; исправление этого коэффициента, приводящее к сумме квадратов отклонений относительно выборочного среднего, деленной на n -1 вместо n , называется поправкой Бесселя . Полученная оценка является несмещенной и называется (скорректированной) выборочной дисперсией или несмещенной выборочной дисперсией . Если среднее значение определяется каким-либо иным способом, нежели из тех же самых выборок, которые использовались для оценки дисперсии, то это смещение не возникает, и дисперсию можно безопасно оценить как дисперсию выборок относительно (независимо известного) среднего.

Во-вторых, дисперсия выборки обычно не минимизирует среднеквадратичную ошибку между дисперсией выборки и дисперсией совокупности. Исправление смещения часто ухудшает ситуацию: всегда можно выбрать масштабный коэффициент, который работает лучше, чем скорректированная дисперсия выборки, хотя оптимальный масштабный коэффициент зависит от избыточного эксцесса совокупности (см. средняя квадратичная ошибка: дисперсия ) и вносит смещение. Это всегда состоит из уменьшения масштаба несмещенной оценки (деления на число, большее, чем n  − 1) и является простым примером оценки сжатия : несмещенная оценка «сжимается» до нуля. Для нормального распределения деление на n  + 1 (вместо n  − 1 или n ) минимизирует среднеквадратичную ошибку. Однако полученная оценка смещена и известна как смещенная вариация выборки .

Дисперсия населения

В общем случае дисперсия популяции конечного размера N со значениями x i определяется выражением, где среднее значение популяции равно и , где — оператор ожидаемого значения .

Дисперсию популяции также можно вычислить с помощью [10]

(В правой части суммы есть повторяющиеся члены, тогда как в средней части есть только уникальные члены для суммирования.) Это верно, потому что дисперсия популяции совпадает с дисперсией генерирующего распределения вероятностей. В этом смысле концепция популяции может быть расширена до непрерывных случайных величин с бесконечной популяцией.

Дисперсия выборки

Смещенная выборочная дисперсия

Во многих практических ситуациях истинная дисперсия популяции не известна априори и должна быть каким-то образом вычислена. При работе с чрезвычайно большими популяциями невозможно подсчитать каждый объект в популяции, поэтому вычисление должно выполняться на выборке популяции. [11] Это обычно называют выборочной дисперсией или эмпирической дисперсией . Выборочная дисперсия также может применяться для оценки дисперсии непрерывного распределения по выборке этого распределения.

Мы берем выборку с заменой n значений Y 1 , ...,  Y n из совокупности размером , где n  <  N , и оцениваем дисперсию на основе этой выборки. [12] Прямое взятие дисперсии данных выборки дает среднее квадратичных отклонений :

[13]

(См. раздел Дисперсия популяции для вывода этой формулы.) Здесь обозначает выборочное среднее :

Поскольку Y i выбираются случайным образом, то и и являются случайными величинами . Их ожидаемые значения можно оценить путем усреднения по ансамблю всех возможных выборок { Y i } размера n из генеральной совокупности. Для этого получаем:

Здесь используются полученные в разделе Дисперсия популяции и ввиду независимости и .

Следовательно, дает оценку дисперсии популяции, которая смещена на фактор, поскольку ожидаемое значение меньше дисперсии популяции (истинной дисперсии) на этот фактор. По этой причине называется смещенной выборочной дисперсией .

Несмещенная выборочная дисперсия

Исправление этого смещения дает несмещенную выборочную дисперсию , обозначаемую :

Любой оценщик может быть просто назван дисперсией выборки , когда версия может быть определена контекстом. То же доказательство применимо и для выборок, взятых из непрерывного распределения вероятностей.

Использование термина n  − 1 называется поправкой Бесселя , и он также используется в выборочной ковариации и выборочном стандартном отклонении (квадратный корень дисперсии). Квадратный корень является вогнутой функцией и, таким образом, вносит отрицательное смещение (по неравенству Йенсена ), которое зависит от распределения, и, таким образом, скорректированное выборочное стандартное отклонение (с использованием поправки Бесселя) является смещенным. Несмещенная оценка стандартного отклонения является технически сложной проблемой, хотя для нормального распределения использование термина n  − 1,5 дает почти несмещенную оценку.

Несмещенная выборочная дисперсия представляет собой U-статистику для функции ƒ ( y 1y 2 ) = ( y 1  −  y 2 ) 2 /2, что означает, что она получается путем усреднения 2-выборочной статистики по 2-элементным подмножествам совокупности.

Пример

Для набора чисел {10, 15, 30, 45, 57, 52 63, 72, 81, 93, 102, 105}, если этот набор является всей совокупностью данных для некоторого измерения, то дисперсия — это дисперсия совокупности 932,743 как сумма квадратов отклонений относительно среднего значения этого набора, деленная на 12 как число членов набора. Если набор является выборкой из всей совокупности, то несмещенная дисперсия выборки может быть рассчитана как 1017,538, что является суммой квадратов отклонений относительно среднего значения выборки, деленной на 11 вместо 12. Функция VAR.S в Microsoft Excel дает несмещенную дисперсию выборки, в то время как VAR.P — для дисперсии совокупности.

Распределение выборочной дисперсии

Будучи функцией случайных величин , дисперсия выборки сама по себе является случайной величиной, и естественно изучать ее распределение. В случае, когда Y i являются независимыми наблюдениями из нормального распределения , теорема Кохрана показывает, что несмещенная дисперсия выборки S 2 следует масштабированному распределению хи-квадрат (см. также: асимптотические свойства и элементарное доказательство ): [14]

где σ 2 — дисперсия популяции. Как прямое следствие, следует, что

и [15]

Если Y i независимы и одинаково распределены, но не обязательно нормально, то [16]

где κэксцесс распределения, а μ 4 — четвертый центральный момент .

Если условия закона больших чисел выполняются для квадратов наблюдений, S 2 является состоятельной оценкой σ  2 . Действительно, можно видеть, что дисперсия оценки асимптотически стремится к нулю. Асимптотически эквивалентная формула была дана в работах Кенни и Кипинга (1951:164), Роуза и Смита (2002:264) и Вайсштейна (б.д.). [17] [18] [19]

Неравенство Самуэльсона

Неравенство Самуэльсона — это результат, который устанавливает границы значений, которые могут принимать отдельные наблюдения в выборке, при условии, что были рассчитаны выборочное среднее и (смещенная) дисперсия. [20] Значения должны находиться в пределах

Соотношения со средними гармоническими и арифметическими

Было показано [21] , что для выборки { y i } положительных действительных чисел,

где y max — максимум выборки, A — среднее арифметическое, Hсреднее гармоническое выборки и — (смещенная) дисперсия выборки.

Эта граница была улучшена, и известно, что дисперсия ограничена

где y min – минимум выборки. [22]

Тесты на равенство дисперсий

F -тест равенства дисперсий и тесты хи-квадрат являются адекватными, когда выборка распределена нормально. Ненормальность затрудняет проверку равенства двух или более дисперсий.

Было предложено несколько непараметрических тестов: они включают тест Бартона–Дэвида–Ансари–Фройнда–Зигеля–Тьюки, тест Кейпона, тест Муда , тест Клотца и тест Сукхатме. Тест Сукхатме применяется к двум дисперсиям и требует, чтобы обе медианы были известны и равны нулю. Тесты Муда, Клотца, Кейпона и Бартона–Дэвида–Ансари–Фройнда–Зигеля–Тьюки также применяются к двум дисперсиям. Они допускают, чтобы медиана была неизвестна, но требуют, чтобы две медианы были равны.

Тест Лемана — параметрический тест двух дисперсий. Известно несколько вариантов этого теста. Другие тесты равенства дисперсий включают тест Бокса, тест Бокса–Андерсона и тест Мозеса.

Методы повторной выборки, включающие бутстрап и складной нож , могут использоваться для проверки равенства дисперсий.

Момент инерции

Дисперсия распределения вероятностей аналогична моменту инерции в классической механике соответствующего распределения масс вдоль линии относительно вращения вокруг ее центра масс. [23] Именно из-за этой аналогии такие вещи, как дисперсия, называются моментами распределения вероятностей . [23] Ковариационная матрица связана с тензором момента инерции для многомерных распределений. Момент инерции облака из n точек с ковариационной матрицей определяется как [ необходима цитата ]

Эта разница между моментом инерции в физике и статистике очевидна для точек, собранных вдоль линии. Предположим, что множество точек находятся близко к оси x и распределены вдоль нее. Ковариационная матрица может выглядеть как

То есть, наибольшее отклонение наблюдается в направлении x . Физики посчитали бы, что это имеет низкий момент относительно оси x , поэтому тензор момента инерции равен

Полувариантность

Полудисперсия вычисляется таким же образом, как и дисперсия, но в расчет включаются только те наблюдения, которые ниже среднего: Она также описывается как специфическая мера в различных областях применения. Для асимметричных распределений полудисперсия может предоставить дополнительную информацию, которую не дает дисперсия. [24]

О неравенствах, связанных с полувариантностью, см. неравенство Чебышева § Полувариантности .

Этимология

Термин «дисперсия» впервые был введен Рональдом Фишером в его статье 1918 года «Корреляция между родственниками при предположении о менделевском наследовании» : [25]

Огромное количество доступных статистических данных показывает нам, что отклонения человеческого измерения от его среднего значения очень близко следуют нормальному закону ошибок , и, следовательно, что изменчивость может быть единообразно измерена стандартным отклонением, соответствующим квадратному корню из средней квадратической ошибки . Когда есть две независимые причины изменчивости, способные производить в в остальном однородной популяции распределения со стандартными отклонениями и , обнаруживается, что распределение, когда обе причины действуют вместе, имеет стандартное отклонение . Поэтому желательно при анализе причин изменчивости иметь дело с квадратом стандартного отклонения как с мерой изменчивости. Мы будем называть эту величину Дисперсией...

Обобщения

Для комплексных переменных

Если — скалярная комплексная случайная величина со значениями в диапазоне , то ее дисперсия равна , где — комплексно сопряженная величина Эта дисперсия является действительным скаляром.

Для векторных случайных величин

Как матрица

Если — векторная случайная величина со значениями в и рассматривается как вектор-столбец, то естественным обобщением дисперсии является , где и — транспонирование и, следовательно, — вектор-строка. Результатом является положительная полуопределенная квадратная матрица , обычно называемая матрицей дисперсии-ковариации (или просто матрицей ковариации ).

Если — векторная и комплекснозначная случайная величина со значениями в , то ковариационная матрица имеет вид , где — сопряженная транспонированная матрица [ необходима ссылка ] Эта матрица также является положительно полуопределенной и квадратной.

Как скаляр

Другое обобщение дисперсии для векторнозначных случайных величин , которое приводит к скалярному значению, а не к матрице, — это обобщенная дисперсия , определитель ковариационной матрицы. Можно показать, что обобщенная дисперсия связана с многомерным разбросом точек вокруг их среднего значения. [26]

Другое обобщение получается, если рассмотреть уравнение для скалярной дисперсии , и переинтерпретировать его как квадрат евклидова расстояния между случайной величиной и ее средним значением, или просто как скалярное произведение вектора на самого себя. Это приводит к тому, что является следом ковариационной матрицы.

Смотрите также

Типы дисперсии

Ссылки

  1. ^ Вассерман, Ларри (2005). Вся статистика: краткий курс по статистическому выводу . Тексты Springer по статистике. стр. 51. ISBN 978-1-4419-2322-6.
  2. ^ Юли Чжан; Хуайюй У; Лэй Чэн (июнь 2012 г.). Некоторые новые формулы деформации дисперсии и ковариации . Труды 4-й Международной конференции по моделированию, идентификации и управлению (ICMIC2012). С. 987–992.
  3. ^ Каган, А.; Шепп, Л. А. (1998). «Почему дисперсия?». Statistics & Probability Letters . 38 (4): 329–333. doi :10.1016/S0167-7152(98)00041-8.
  4. ^ Джонсон, Ричард; Вихерн, Дин (2001). Прикладной многомерный статистический анализ . Prentice Hall. стр. 76. ISBN 0-13-187715-1.
  5. ^ Loève, M. (1977) «Теория вероятностей», Graduate Texts in Mathematics , том 45, 4-е издание, Springer-Verlag, стр. 12.
  6. ^ Бьенеме, И.-Ж. (1853) «Соображения о приближении Лапласа к закону вероятности в методе моих мыслей», Comptes rendus de l'Académie des Sciences Paris , 37, стр. 309–317; доступна цифровая копия [1]
  7. ^ Бьенеме, И.-Ж. (1867) «Соображения о приложении Лапласа к закону вероятности в методе моих мыслей», Journal de Mathématiques Pures et Appliquées, Série 2 , Tome 12, p. 158–167; доступна цифровая копия [2][3]
  8. ^ Корнелл, Дж. Р. и Бенджамин, К. А., Вероятность, статистика и решения для инженеров-строителей, McGraw-Hill, Нью-Йорк, 1970, стр. 178-9.
  9. ^ Гудман, Лео А. (декабрь 1960 г.). «О точной дисперсии продуктов». Журнал Американской статистической ассоциации . 55 (292): 708–713. doi :10.2307/2281592. JSTOR  2281592.
  10. ^ Юли Чжан; Хуайюй У; Лэй Чэн (июнь 2012 г.). Некоторые новые формулы деформации дисперсии и ковариации . Труды 4-й Международной конференции по моделированию, идентификации и управлению (ICMIC2012). С. 987–992.
  11. ^ Навиди, Уильям (2006) Статистика для инженеров и ученых , McGraw-Hill, стр. 14.
  12. ^ Монтгомери, Д.К. и Рангер, Г.К. (1994) Прикладная статистика и вероятность для инженеров , стр. 201. John Wiley & Sons New York
  13. ^ Юли Чжан; Хуайюй У; Лэй Чэн (июнь 2012 г.). Некоторые новые формулы деформации дисперсии и ковариации . Труды 4-й Международной конференции по моделированию, идентификации и управлению (ICMIC2012). С. 987–992.
  14. ^ Найт К. (2000), Математическая статистика , Чапман и Холл, Нью-Йорк. (предложение 2.11)
  15. ^ Casella и Berger (2002) Статистический вывод , пример 7.3.3, стр. 331 [ необходима полная цитата ]
  16. ^ Mood, AM, Graybill, FA, и Boes, DC (1974) Введение в теорию статистики , 3-е издание, McGraw-Hill, Нью-Йорк, стр. 229
  17. ^ Kenney, John F.; Keeping, ES (1951). Mathematics of Statistics. Часть вторая (PDF) (2-е изд.). Princeton, New Jersey: D. Van Nostrand Company, Inc. Архивировано из оригинала (PDF) 17 ноября 2018 г. – через KrishiKosh.
  18. ^ Роуз, Колин; Смит, Мюррей Д. (2002). «Математическая статистика с Mathematica». Springer-Verlag, Нью-Йорк.
  19. ^ Вайсштейн, Эрик В. «Выборочное распределение дисперсии». MathWorld Wolfram.
  20. ^ Самуэльсон, Пол (1968). «Насколько девиантным вы можете быть?». Журнал Американской статистической ассоциации . 63 (324): 1522–1525. doi :10.1080/01621459.1968.10480944. JSTOR  2285901.
  21. ^ Мерсер, А. МакД. (2000). «Границы для A–G, A–H, G–H и семейства неравенств типа Ки Фана с использованием общего метода». J. Math. Anal. Appl . 243 (1): 163–173. doi : 10.1006/jmaa.1999.6688 .
  22. ^ Шарма, Р. (2008). «Еще несколько неравенств для среднего арифметического, среднего гармонического и дисперсии». Журнал математических неравенств . 2 (1): 109–114. CiteSeerX 10.1.1.551.9397 . doi :10.7153/jmi-02-11. 
  23. ^ ab Magnello, M. Eileen. «Карл Пирсон и истоки современной статистики: Эластичный становится статистиком». The Rutherford Journal .
  24. ^ Фама, Эжен Ф.; Френч, Кеннет Р. (2010-04-21). «Вопросы и ответы: полудисперсия: лучшая мера риска?». Форум Fama/French .
  25. ^ Рональд Фишер (1918) Корреляция между родственниками на основе предположения о менделевском наследовании
  26. ^ Кочерлакота, С.; Кочерлакота, К. (2004). "Обобщенная дисперсия". Энциклопедия статистических наук . Онлайн-библиотека Wiley. doi :10.1002/0471667196.ess0869. ISBN 0-471-66719-6.