stringtranslate.com

Нормальное распределение

В статистике нормальное распределение или распределение Гаусса — это тип непрерывного распределения вероятностей для вещественной случайной величины . Общий вид его функции плотности вероятности :

Параметр — это среднее или ожидание распределения (а также его медиана и мода ), а параметр — его стандартное отклонение . Дисперсия распределения равна . Случайная величина с распределением Гаусса называется нормально распределенной и называется нормальным отклонением .

Нормальные распределения важны в статистике и часто используются в естественных и социальных науках для представления действительных случайных величин , распределение которых неизвестно. [2] [3] Их важность частично обусловлена ​​центральной предельной теоремой . Он утверждает, что при некоторых условиях среднее значение многих выборок (наблюдений) случайной величины с конечным средним значением и дисперсией само по себе является случайной величиной, распределение которой сходится к нормальному распределению по мере увеличения количества выборок. Следовательно, физические величины, которые, как ожидается, будут суммой многих независимых процессов, таких как ошибки измерения , часто имеют распределение, близкое к нормальному. [4]

Более того, гауссовы распределения обладают некоторыми уникальными свойствами, которые ценны в аналитических исследованиях. Например, любая линейная комбинация фиксированного набора независимых нормальных отклонений является нормальным отклонением. Многие результаты и методы, такие как распространение неопределенности и подбор параметров методом наименьших квадратов [5] , могут быть получены аналитически в явной форме, когда соответствующие переменные имеют нормальное распределение.

Нормальное распределение иногда неофициально называют колоколообразной кривой . [6] Однако многие другие распределения имеют колоколообразную форму (например , распределение Коши , распределение Стьюдента и логистическое распределение). Другие имена см. в разделе «Именование» .

Одномерное распределение вероятностей обобщено для векторов многомерного нормального распределения и для матриц матричного нормального распределения .

Определения

Стандартное нормальное распределение

Простейший случай нормального распределения известен как стандартное нормальное распределение или единичное нормальное распределение . Это частный случай, когда и , и он описывается этой функцией плотности вероятности (или плотностью):

Переменная имеет среднее значение 0, а дисперсию и стандартное отклонение 1. Плотность имеет пик и точки перегиба при и .

Хотя приведенная выше плотность чаще всего известна как стандартное нормальное распределение, некоторые авторы использовали этот термин для описания других версий нормального распределения. Карл Фридрих Гаусс , например, однажды определил стандартную норму как

который имеет дисперсию 1/2, а Стивен Стиглер [7] однажды определил стандартную норму как

который имеет простую функциональную форму и дисперсию

Общее нормальное распределение

Каждое нормальное распределение является версией стандартного нормального распределения, область определения которого была растянута на коэффициент (стандартное отклонение), а затем преобразована на (среднее значение):

Плотность вероятности должна быть масштабирована так , чтобы интеграл по-прежнему был равен 1.

Если это стандартное нормальное отклонение , то оно будет иметь нормальное распределение с ожидаемым значением и стандартным отклонением . Это эквивалентно утверждению, что стандартное нормальное распределение можно масштабировать/растягивать в раз и сдвигать, чтобы получить другое нормальное распределение, называемое . И наоборот, если это нормальное отклонение с параметрами и , то это распределение можно масштабировать и сдвигать с помощью формулы , чтобы преобразовать его в стандартное нормальное распределение. Эту вариацию также называют стандартизированной формой .

Обозначения

Плотность вероятности стандартного распределения Гаусса (стандартное нормальное распределение с нулевым средним и единичной дисперсией) часто обозначается греческой буквой ( фи ). [8] Альтернативная форма греческой буквы «фи» также используется довольно часто.

Нормальное распределение часто называют или . [9] Таким образом, когда случайная величина нормально распределяется со средним и стандартным отклонением , можно написать

Альтернативные параметризации

Некоторые авторы выступают за использование точности в качестве параметра, определяющего ширину распределения, вместо отклонения или дисперсии . Точность обычно определяется как величина, обратная дисперсии . [10] Тогда формула распределения принимает вид

Утверждается, что этот выбор имеет преимущества в числовых вычислениях, когда значение очень близко к нулю, и упрощает формулы в некоторых контекстах, например, при байесовском выводе переменных с многомерным нормальным распределением .

Альтернативно, обратная величина стандартного отклонения может быть определена как точность , и в этом случае выражение нормального распределения принимает вид

По мнению Стиглера, эта формулировка выгодна тем, что она гораздо проще и легче запоминается, а также имеет простые приближенные формулы для квантилей распределения .

Нормальные распределения образуют экспоненциальное семейство с натуральными параметрами и и естественной статистикой x и x 2 . Параметрами двойного ожидания для нормального распределения являются η 1 = µ и η 2 = µ 2 + σ 2 .

Кумулятивная функция распределения

Кумулятивная функция распределения (CDF) стандартного нормального распределения, обычно обозначаемая заглавной греческой буквой ( фи ), представляет собой интеграл

Функция ошибки

Соответствующая функция ошибок дает вероятность случайной величины с нормальным распределением среднего значения 0 и дисперсией 1/2, попадающими в диапазон . То есть:

Эти интегралы не могут быть выражены через элементарные функции, и их часто называют специальными функциями . Однако известно множество численных приближений; подробнее см. ниже.

Эти две функции тесно связаны, а именно

Для общего нормального распределения с плотностью , средним значением и отклонением кумулятивная функция распределения равна

Дополнение стандартной нормальной функции кумулятивного распределения часто называют Q-функцией , особенно в инженерных текстах. [11] [12] Он дает вероятность того, что значение стандартной нормальной случайной величины превысит : . Другие определения -функции , все из которых являются простыми преобразованиями , также иногда используются. [13]

График стандартной нормальной кумулятивной функции распределения имеет 2-кратную вращательную симметрию вокруг точки (0,1/2); то есть, . Его первообразную (неопределенный интеграл) можно выразить следующим образом:

Кумулятивную функцию распределения стандартного нормального распределения можно расширить путем интегрирования по частям в ряд:

где обозначает двойной факториал .

Асимптотическое разложение кумулятивной функции распределения при больших x также можно получить с помощью интегрирования по частям. Дополнительную информацию см. в разделе Функция ошибки#Асимптотическое расширение . [14]

Быстрое приближение к кумулятивной функции распределения стандартного нормального распределения можно найти с помощью аппроксимации рядом Тейлора:

Рекурсивные вычисления с разложением в ряд Тейлора

Рекурсивная природа семейства производных может использоваться для легкого построения быстро сходящегося разложения в ряд Тейлора с использованием рекурсивных записей о любой точке известного значения распределения :

где:

Использование ряда Тейлора и метода Ньютона для обратной функции

Применение вышеприведенного разложения в ряд Тейлора состоит в использовании метода Ньютона для обратного вычисления. То есть, если у нас есть значение кумулятивной функции распределения , , но мы не знаем x, необходимый для получения , мы можем использовать метод Ньютона, чтобы найти x, и использовать приведенное выше разложение в ряд Тейлора, чтобы минимизировать количество вычислений. Метод Ньютона идеально подходит для решения этой проблемы, поскольку первая производная от , которая является интегралом нормального стандартного распределения, является нормальным стандартным распределением и легко доступна для использования в решении метода Ньютона.

Для решения выберите известное приближенное решение, , к искомому . может быть значением из таблицы распределения или интеллектуальной оценкой, за которой следует вычисление с использованием любых желаемых средств вычисления. Используйте это значение и приведенное выше разложение в ряд Тейлора, чтобы минимизировать вычисления.

Повторяйте следующий процесс до тех пор, пока разница между вычисленным и желаемым значением , которую мы назовем , не станет ниже выбранной приемлемо небольшой ошибки, такой как 10 -5 , 10 -15 и т. д.:

где

является решением ряда Тейлора с использованием и

Когда повторные вычисления сходятся к ошибке ниже выбранного приемлемо малого значения, x будет значением, необходимым для получения желаемого значения .

Стандартное отклонение и охват

Для нормального распределения значения, отличающиеся от среднего более чем на одно стандартное отклонение, составляют 68,27% набора; при этом два стандартных отклонения от среднего составляют 95,45%; и три стандартных отклонения составляют 99,73%.

Около 68% значений, полученных из нормального распределения, находятся в пределах одного стандартного отклонения σ от среднего значения; около 95% значений лежат в пределах двух стандартных отклонений; и около 99,7% находятся в пределах трех стандартных отклонений. [6] Этот факт известен как правило 68-95-99,7 (эмпирическое) или правило 3-х сигм .

Точнее, вероятность того, что нормальное отклонение находится в диапазоне между и определяется выражением

До 12 значащих цифр значения :

Для больших можно использовать приближение .

Квантильная функция

Квантильная функция распределения является обратной кумулятивной функции распределения. Квантильная функция стандартного нормального распределения называется пробит-функцией и может быть выражена через обратную функцию ошибок :

Для нормальной случайной величины со средним значением и дисперсией функция квантиля равна

Квантиль стандартного нормального распределения обычно обозначается как . Эти значения используются при проверке гипотез , построении доверительных интервалов и графиков Q–Q . Обычная случайная величина с вероятностью превысит интервал и с вероятностью окажется вне интервала . В частности, квантиль равен 1,96 ; поэтому нормальная случайная величина будет лежать вне интервала только в 5% случаев.

В следующей таблице приведены квантиль , который будет лежать в диапазоне с указанной вероятностью . Эти значения полезны для определения интервала допуска для выборочных средних и других статистических оценок с нормальным (или асимптотически нормальным) распределением. [15] В следующей таблице показаны значения, отличные от указанных выше.

Для малых функция квантиля имеет полезное асимптотическое разложение .

Характеристики

Нормальное распределение — единственное распределение, кумулянты которого помимо первых двух (т. е. кроме среднего и дисперсии ) равны нулю. Это также непрерывное распределение с максимальной энтропией для заданного среднего значения и дисперсии. [16] [17] Гири показал, предполагая, что среднее значение и дисперсия конечны, что нормальное распределение является единственным распределением, в котором среднее значение и дисперсия, рассчитанные на основе набора независимых розыгрышей, независимы друг от друга. [18] [19]

Нормальное распределение является подклассом эллиптических распределений . Нормальное распределение симметрично относительно своего среднего значения и не равно нулю на всей реальной линии. По существу, она может оказаться не подходящей моделью для переменных, которые по своей сути являются положительными или сильно искаженными, например, вес человека или цена акции . Такие переменные могут быть лучше описаны другими распределениями, такими как логарифмически нормальное распределение или распределение Парето .

Значение нормального распределения практически равно нулю, если оно находится более чем на несколько стандартных отклонений от среднего значения (например, разброс в три стандартных отклонения покрывает все, кроме 0,27% общего распределения). Следовательно, это может быть неподходящая модель, когда ожидается значительная доля выбросов (значений, которые отклоняются на много стандартных отклонений от среднего значения), а методы наименьших квадратов и другие методы статистического вывода , которые оптимальны для нормально распределенных переменных, часто становятся крайне ненадежными при их применении. к таким данным. В таких случаях следует предположить более тяжелое распределение и применить соответствующие надежные статистические методы вывода.

Распределение Гаусса принадлежит к семейству стабильных распределений , которые являются аттракторами сумм независимых, одинаково распределенных распределений, независимо от того, конечны ли среднее значение или дисперсия. За исключением гауссова распределения, которое является предельным случаем, все стабильные распределения имеют тяжелые хвосты и бесконечную дисперсию. Это одно из немногих распределений, которые стабильны и имеют функции плотности вероятности, которые могут быть выражены аналитически (остальные распределения — это распределение Коши и распределение Леви ).

Симметрии и производные

Нормальное распределение с плотностью (среднее и стандартное отклонение ) имеет следующие свойства:

Кроме того, плотность стандартного нормального распределения (т.е. и ) также обладает следующими свойствами:

Моменты

Простой и абсолютный моменты переменной — это ожидаемые значения и соответственно. Если ожидаемое значение равно нулю, эти параметры называются центральными моментами; в противном случае эти параметры называются нецентральными моментами. Обычно нас интересуют только моменты целого порядка .

Если распределение нормальное, нецентральные моменты существуют и конечны для любого , чья действительная часть больше -1. Для любого неотрицательного целого числа простыми центральными моментами являются: [23]

Здесь обозначается двойной факториал , то есть произведение всех чисел от до 1, имеющих ту же четность, что и

Центральные абсолютные моменты совпадают с простыми моментами для всех четных порядков, но отличны от нуля для нечетных порядков. Для любого неотрицательного целого числа

Последняя формула справедлива также для любых нецелых чисел. Когда среднее значение простого и абсолютного моментов может быть выражено через вырожденные гипергеометрические функции и [24]

Эти выражения остаются действительными, даже если число не является целым числом. См. также обобщенные полиномы Эрмита .

Ожидание обусловленного событием, находящимся в интервале, определяется выражением

где и соответственно – плотность и кумулятивная функция распределения . Это известно как обратное соотношение Миллса . Обратите внимание, что выше плотность используется вместо стандартной нормальной плотности, как в обратном соотношении Миллса, поэтому здесь вместо .

Преобразование Фурье и характеристическая функция

Преобразование Фурье нормальной плотности со средним и стандартным отклонением имеет вид [25]

где мнимая единица . Если среднее значение первый коэффициент равен 1, а преобразование Фурье, помимо постоянного коэффициента, представляет собой нормальную плотность в частотной области со средним значением 0 и стандартным отклонением . В частности, стандартное нормальное распределение является собственной функцией преобразования Фурье.

В теории вероятностей преобразование Фурье распределения вероятностей вещественной случайной величины тесно связано с характеристической функцией этой переменной, которая определяется как ожидаемое значение , как функция действительной переменной ( частотный параметр преобразование Фурье). Это определение можно аналитически распространить на переменную с комплексным значением . [26] Связь между ними такова:

Функции, генерирующие момент и кумулянт

Момент производящей функцией реальной случайной величины является ожидаемое значение как функция реального параметра . Для нормального распределения с плотностью , средним значением и отклонением производящая функция момента существует и равна

Кумулянтная производящая функция представляет собой логарифм производящей функции момента, а именно

Поскольку это квадратичный полином от , только первые два кумулянта ненулевые, а именно среднее значение  и дисперсия  .

Некоторые авторы предпочитают вместо этого работать с E[ e itX ] = e iμtσ 2 t 2 /2 и ln E[ e itX ] = iμt1/2σ 2 т 2 .

Оператор и класс Штейна

В рамках метода Штейна оператором Штейна и классом случайной величины являются класс всех абсолютно непрерывных функций .

Предел нулевой дисперсии

В пределе , когда стремится к нулю, плотность вероятности со временем стремится к нулю при любом , но неограниченно растет, если , а ее интеграл остается равным 1. Поэтому нормальное распределение не может быть определено как обычная функция при .

Однако можно определить нормальное распределение с нулевой дисперсией как обобщенную функцию ; в частности, как дельта-функция Дирака, переведенная средним значением , то есть ее кумулятивная функция распределения тогда представляет собой ступенчатую функцию Хевисайда, переведенную средним значением , а именно

Максимальная энтропия

Из всех вероятностных распределений по действительным числам с заданным конечным средним значением и конечной дисперсией  нормальное распределение имеет максимальную энтропию . [27] Чтобы убедиться в этом, пусть – непрерывная случайная величина с плотностью вероятности . Энтропия определяется как [28] [29] [30]

где понимается как ноль всякий раз, когда . Этот функционал можно максимизировать при условии, что распределение правильно нормализовано и имеет заданное среднее значение и дисперсию, с помощью вариационного исчисления . Определена функция с тремя множителями Лагранжа :

При максимальной энтропии небольшое изменение около приведет к изменению , равному 0:

Поскольку это должно выполняться для любого малого , коэффициент умножения должен быть равен нулю, а решение дает выход:

Ограничения Лагранжа, которые правильно нормализованы и имеют заданное среднее значение и дисперсию, удовлетворяются тогда и только тогда, когда , и выбраны так, что

Энтропия нормального распределения равна

который не зависит от среднего .

Другие объекты недвижимости

  1. Если характеристическая функция некоторой случайной величины имеет вид , где – многочлен , то теорема Марцинкевича (названная в честь Юзефа Марцинкевича ) утверждает, что она может быть не более чем квадратичным многочленом и, следовательно, является нормальной случайной величиной. [31] Следствием этого результата является то, что нормальное распределение является единственным распределением с конечным числом (двумя) ненулевых кумулянтов .
  2. Если и совместно нормальны и некоррелированы , то они независимы . Требование о том, что и должно быть в целом нормальным, имеет важное значение; без этого имущество не сохраняется. [32] [33] [доказательство] Для ненормальных случайных величин некоррелированность не означает независимости.
  3. Отличие Кульбака – Лейблера одного нормального распределения от другого определяется формулой: [34]
    Расстояние Хеллингера между одинаковыми распределениями равно
  4. Информационная матрица Фишера для нормального распределения относительно и является диагональной и принимает вид
  5. Сопряженное априорное значение нормального распределения является еще одним нормальным распределением. [35] В частности, если iid и априорное значение равно , то апостериорное распределение для средства оценки будет равно
  6. Семейство нормальных распределений не только образует экспоненциальное семейство (EF), но фактически образует естественное экспоненциальное семейство (NEF) с квадратичной функцией дисперсии ( NEF-QVF ). Многие свойства нормальных распределений обобщаются на свойства распределений NEF-QVF, распределений NEF или распределений EF в целом. Распределения NEF-QVF включают 6 семейств, включая распределения Пуассона, гамма, биномиальные и отрицательные биномиальные, в то время как многие из распространенных семейств, изучаемых в области вероятности и статистики, представляют собой NEF или EF.
  7. В информационной геометрии семейство нормальных распределений образует статистическое многообразие постоянной кривизны . Это же семейство плоско относительно (±1)-связностей и . [36]

Связанные дистрибутивы

Центральная предельная теорема

По мере увеличения количества дискретных событий функция начинает напоминать нормальное распределение.
Сравнение функций плотности вероятности суммы справедливых шестигранных игральных костей с целью показать их сходимость к нормальному распределению с увеличением в соответствии с центральной предельной теоремой. На правом нижнем графике сглаженные профили предыдущих графиков масштабируются, накладываются и сравниваются с нормальным распределением (черная кривая).

Центральная предельная теорема утверждает, что при определенных (довольно распространенных) условиях сумма многих случайных величин будет иметь приблизительно нормальное распределение. Более конкретно, где находятся независимые и одинаково распределенные случайные величины с одинаковым произвольным распределением, нулевым средним значением и дисперсией , и является ли их среднее масштабированием по формуле

Затем по мере увеличения распределение вероятностей будет стремиться к нормальному распределению с нулевым средним и дисперсией .

Теорему можно распространить на переменные , которые не являются независимыми и/или неодинаково распределенными, если наложены определенные ограничения на степень зависимости и моменты распределений.

Многие тестовые статистики , баллы и оценки, встречающиеся на практике, содержат в себе суммы определенных случайных величин, и еще больше оценок можно представить в виде сумм случайных величин за счет использования функций влияния . Центральная предельная теорема подразумевает, что эти статистические параметры будут иметь асимптотически нормальное распределение.

Центральная предельная теорема также подразумевает, что некоторые распределения могут быть аппроксимированы нормальным распределением, например:

Достаточно ли точны эти приближения, зависит от цели, для которой они необходимы, и скорости сходимости к нормальному распределению. Обычно такие аппроксимации менее точны в хвостах распределения.

Общая верхняя оценка погрешности аппроксимации в центральной предельной теореме дается теоремой Берри–Эссеена , улучшения аппроксимации даются разложениями Эджворта .

Эту теорему можно также использовать для обоснования моделирования суммы многих источников однородного шума как гауссова шума . См. AWGN .

Операции и функции обычных переменных

a: Плотность вероятности функции нормальной переменной с и . b: Плотность вероятности функции двух нормальных переменных и , где , , , и . c: Тепловая карта совместной плотности вероятности двух функций двух коррелирующих нормальных переменных и , где , , , и . d: Плотность вероятности функции 4 стандартных нормальных переменных iid. Они рассчитываются численным методом трассировки лучей. [38]

Плотность вероятности , кумулятивное распределение и обратное кумулятивное распределение любой функции одной или нескольких независимых или коррелированных нормальных переменных можно вычислить с помощью численного метода трассировки лучей [38] (код Matlab). В следующих разделах мы рассмотрим некоторые особые случаи.

Операции с одной нормальной переменной

Если распределяется нормально со средним значением и дисперсией , то

Операции над двумя независимыми нормальными переменными
Операции над двумя независимыми стандартными нормальными переменными

Если и являются двумя независимыми стандартными нормальными случайными величинами со средним значением 0 и дисперсией 1, то

Операции с несколькими независимыми нормальными переменными

Операции с несколькими коррелирующими нормальными переменными

Действия над функцией плотности

Расщепленное нормальное распределение наиболее четко определяется с точки зрения объединения масштабированных участков функций плотности различных нормальных распределений и изменения масштаба плотности для интегрирования в одну. Усеченное нормальное распределение получается в результате изменения масштаба части одной функции плотности.

Бесконечная делимость и теорема Крамера

Для любого положительного целого числа любое нормальное распределение со средним значением и дисперсией представляет собой распределение суммы независимых нормальных отклонений, каждое из которых имеет среднее значение и дисперсию . Это свойство называется бесконечной делимостью . [44]

И наоборот, если и являются независимыми случайными величинами и их сумма имеет нормальное распределение, то обе и должны быть нормальными отклонениями. [45]

Этот результат известен как теорема Крамера о разложении и эквивалентен утверждению, что свертка двух распределений является нормальной тогда и только тогда, когда оба распределения нормальны. Теорема Крамера подразумевает, что линейная комбинация независимых негауссовских переменных никогда не будет иметь точно нормальное распределение, хотя она может приближаться к нему сколь угодно близко. [31]

Теорема Бернштейна

Теорема Бернштейна утверждает, что если и независимы и и также независимы, то и X , и Y обязательно должны иметь нормальное распределение. [46] [47]

В более общем смысле, если являются независимыми случайными величинами, то две различные линейные комбинации и будут независимыми тогда и только тогда, когда все они нормальны и , где обозначает дисперсию . [46]

Расширения

Понятие нормального распределения, являющегося одним из наиболее важных распределений в теории вероятностей, вышло далеко за рамки стандартных рамок одномерного (то есть одномерного) случая (случай 1). Все эти расширения также называются нормальными или гауссовскими законами, поэтому существует определенная двусмысленность в названиях.

Случайная величина X имеет нормальное распределение, состоящее из двух частей, если она имеет распределение

где μ — среднее значение, а σ 1 и σ 2 — стандартные отклонения распределения слева и справа от среднего значения соответственно.

Среднее значение, дисперсия и третий центральный момент этого распределения были определены [48]

где E( X ), V( X ) и T( X ) — среднее значение, дисперсия и третий центральный момент соответственно.

Одним из основных практических применений закона Гаусса является моделирование эмпирических распределений множества различных случайных величин, встречающихся на практике. В таком случае возможным расширением будет более богатое семейство распределений, имеющее более двух параметров и, следовательно, способное более точно соответствовать эмпирическому распределению. Примеры таких расширений:

Статистические выводы

Оценка параметров

Часто мы не знаем параметров нормального распределения, но вместо этого хотим их оценить . То есть, имея выборку из нормальной популяции, мы хотели бы узнать примерные значения параметров и . Стандартным подходом к этой проблеме является метод максимального правдоподобия , который требует максимизации логарифмической функции правдоподобия :

Взятие производных по и решение полученной системы условий первого порядка дает оценки максимального правдоподобия :

Дальше дело обстоит следующим образом:

Выборочное среднее

Оценщик называется выборочным средним , поскольку он представляет собой среднее арифметическое всех наблюдений. Статистика является полной и достаточной для и, следовательно , по теореме Лемана-Шеффе является несмещенной оценкой с равномерно минимальной дисперсией (UMVU). [49] В конечных выборках он распределяется нормально:

Дисперсия этой оценки равна µμ -элементу обратной информационной матрицы Фишера . Это означает, что оценка эффективна для конечной выборки . Практическое значение имеет тот факт, что стандартная ошибка пропорциональна , т. е. для уменьшения стандартной ошибки в 10 раз необходимо увеличить количество точек в выборке в 100 раз. Этот факт имеет практическое значение. широко используется при определении размера выборки для опросов общественного мнения и количества испытаний в симуляциях Монте-Карло .

С точки зрения асимптотической теории , является состоятельным , то есть сходится по вероятности к as . Оценка также асимптотически нормальна , что является простым следствием того факта, что она нормальна в конечных выборках:

Выборочная дисперсия

Оценщик называется выборочной дисперсией , поскольку это дисперсия выборки ( ). На практике вместо оценщика часто используется другой оценщик . Эта другая оценка обозначается и также называется выборочной дисперсией , что представляет собой определенную двусмысленность в терминологии; его квадратный корень называется выборочным стандартным отклонением . Оценка отличается наличием ( n − 1) вместо  n в знаменателе (так называемая поправка Бесселя ):

Разница между и становится пренебрежимо малой для больших n . Однако в конечных выборках мотивация использования заключается в том, что это несмещенная оценка основного параметра , тогда как она является смещенной. Кроме того, по теореме Лемана-Шеффе оценка является равномерно несмещенной с минимальной дисперсией ( UMVU ), [49] , что делает ее «лучшей» оценкой среди всех несмещенных. Однако можно показать, что смещенная оценка лучше, чем оценка с точки зрения критерия среднеквадратической ошибки (MSE). В конечных выборках оба и имеют масштабированное распределение хи-квадрат с ( n - 1) степенями свободы:

Первое из этих выражений показывает, что дисперсия равна , что несколько больше σσ -элемента обратной информационной матрицы Фишера . Таким образом, не является эффективной оценкой для и более того, поскольку является UMVU, мы можем заключить, что эффективная оценка для конечной выборки не существует.

Применяя асимптотическую теорию, обе оценки и являются согласованными, то есть сходятся по вероятности к размеру выборки . Обе оценки также асимптотически нормальны:

В частности, обе оценки асимптотически эффективны для .

Доверительные интервалы

По теореме Кохрана для нормальных распределений выборочное среднее и выборочная дисперсия s2 независимы , а это означает , что не может быть никакой выгоды от рассмотрения их совместного распределения . Существует также обратная теорема: если в выборке выборочное среднее и выборочная дисперсия независимы, то выборка должна иметь нормальное распределение. Независимость между и s можно использовать для построения так называемой t-статистики :

Эта величина t имеет t-распределение Стьюдента с ( n − 1) степенями свободы и является вспомогательной статистикой (независимой от значения параметров). Инвертирование распределения этой t -статистики позволит нам построить доверительный интервал для μ ; [50] аналогично, инвертирование распределения χ 2 статистики s 2 даст нам доверительный интервал для σ 2 : [51]

где t k,p и χ 2
к,п
 
являются p - ми квантилями t- и χ2 - распределений соответственно. Эти доверительные интервалы имеют уровень доверия 1 - α , что означает, что истинные значения µ и σ 2 выходят за пределы этих интервалов с вероятностью (или уровнем значимости ) α . На практике люди обычно принимают α = 5% , что приводит к доверительным интервалам 95%.

Приближенные формулы можно вывести из асимптотических распределений и s 2 :

Приближенные формулы становятся справедливыми при больших значениях n и более удобны для ручного расчета, поскольку стандартные нормальные квантили / 2 не зависят от n . В частности, наиболее популярное значение α = 5% приводит к | г 0,025 | = 1,96 .

Тесты на нормальность

Критерии нормальности оценивают вероятность того, что данный набор данных { x 1 , ..., x n } имеет нормальное распределение. Обычно нулевая гипотеза H 0 заключается в том, что наблюдения распределяются нормально с неопределенным средним значением µ и дисперсией σ 2 , в отличие от альтернативы H a , согласно которой распределение является произвольным. Для решения этой проблемы было разработано множество тестов (более 40). Наиболее известные из них представлены ниже:

Диагностические графики более интуитивно привлекательны, но в то же время субъективны, поскольку они полагаются на неформальное человеческое суждение при принятии или отклонении нулевой гипотезы.

Тесты на соответствие :

Моментные тесты :

Тесты, основанные на эмпирической функции распределения :

Байесовский анализ нормального распределения

Байесовский анализ нормально распределенных данных осложняется множеством различных возможностей, которые можно учитывать:

Формулы для случаев нелинейной регрессии обобщены в сопряженной предыдущей статье.

Сумма двух квадратичных дробей

Скалярная форма

Следующая вспомогательная формула полезна для упрощения уравнений апостериорного обновления, которые в противном случае становятся довольно утомительными.

Это уравнение переписывает сумму двух квадратичных дробей по x , расширяя квадраты, группируя члены по x и дополняя квадрат . Обратите внимание на следующие сложные постоянные коэффициенты, связанные с некоторыми терминами:

  1. Фактор имеет форму средневзвешенного значения y и z .
  2. Это показывает, что этот фактор можно рассматривать как результат ситуации, когда обратные величины a и b складываются напрямую, поэтому, чтобы объединить сами a и b , необходимо совершать возвратно-поступательные движения, складывать и снова возвращать результат, чтобы вернуться в оригинальные агрегаты. Именно такую ​​операцию выполняет среднее гармоническое , поэтому неудивительно, что оно составляет половину среднего гармонического a и b .
Векторная форма

Аналогичную формулу можно записать для суммы двух векторных квадратиков: Если x , y , z — векторы длины k , а A и Bсимметричные обратимые матрицы размера , то

где

Форма xA x называется квадратичной формой и является скаляром :

Другими словами, он суммирует все возможные комбинации произведений пар элементов из x с отдельным коэффициентом для каждой. Кроме того, поскольку для любых недиагональных элементов A имеет значение только сумма , и нет потери общности, если предположить, что A симметричен . Более того, если A симметричен, то форма

Сумма отличий от среднего

Еще одна полезная формула выглядит следующим образом:

С известной дисперсией

Для набора iid нормально распределенных точек данных X размера n , где каждая отдельная точка x следует с известной дисперсией σ 2 , сопряженное априорное распределение также является нормально распределенным.

Это можно показать проще, переписав дисперсию как точность , т.е. используя τ = 1/σ 2 . Тогда если и поступим следующим образом.

Во-первых, функция правдоподобия (используя приведенную выше формулу для суммы отличий от среднего):

Далее действуем следующим образом:

В приведенном выше выводе мы использовали приведенную выше формулу для суммы двух квадратичных дробей и исключили все постоянные факторы, не включающие  µ . Результатом является ядро ​​нормального распределения со средним значением и точностью , т.е.

Это можно записать как набор байесовских уравнений обновления апостериорных параметров с точки зрения априорных параметров:

То есть, чтобы объединить n точек данных с общей точностью (или, что эквивалентно, общей дисперсией n / σ2 ) и средним значением значений , получите новую общую точность, просто добавив общую точность данных к предыдущей общей точности, и сформировать новое среднее через средневзвешенное по точности , т.е. средневзвешенное среднее значение данных и предшествующее среднее значение, каждое из которых взвешено по соответствующей общей точности. Это имеет логический смысл, если рассматривать точность как показатель достоверности наблюдений: в распределении апостериорного среднего каждый из входных компонентов взвешивается по его достоверности, а достоверность этого распределения представляет собой сумму отдельных достоверностей. . (Для интуитивного понимания этого сравните выражение «целое больше суммы своих частей». Кроме того, учтите, что знание апостериорного происходит из комбинации знаний априорного и правдоподобия. , поэтому вполне логично, что мы более уверены в нем, чем в любом из его компонентов.)

Приведенная выше формула показывает, почему с точки зрения точности удобнее проводить байесовский анализ сопряженных априорных значений для нормального распределения. Апостериорная точность представляет собой просто сумму априорной точности и точности правдоподобия, а апостериорное среднее вычисляется посредством взвешенного по точности среднего значения, как описано выше. Те же самые формулы можно записать в терминах дисперсии, выполняя возвратно-поступательные движения со всеми точностью, что приводит к более уродливым формулам.

С известным средним значением

Для набора iid нормально распределенных точек данных X размера n , где каждая отдельная точка x следует с известным средним значением μ, сопряженное априорное значение дисперсии имеет обратное гамма-распределение или масштабированное обратное распределение хи-квадрат . Они эквивалентны, за исключением того, что имеют разные параметризации . Хотя обратная гамма используется чаще, для удобства мы используем масштабированный обратный хи-квадрат. Априорное положение для σ 2 следующее:

Функция правдоподобия , приведенная выше, записанная через дисперсию, равна:

где

Затем:

Вышеупомянутое также представляет собой масштабированное обратное распределение хи-квадрат, где

или эквивалентно

Если провести повторную параметризацию с точки зрения обратного гамма-распределения , результат будет следующим:

С неизвестным средним значением и неизвестной дисперсией

Для набора iid нормально распределенных точек данных X размера n , где каждая отдельная точка x следует с неизвестным средним значением µ и неизвестной дисперсией σ 2 , комбинированное (многомерное) сопряженное априорное значение помещается над средним значением и дисперсией, состоящее из нормально-обратного значения. -гамма-распределение . Логически это происходит следующим образом:

  1. Из анализа случая с неизвестным средним значением, но известной дисперсией, мы видим, что уравнения обновления включают достаточную статистику , рассчитанную на основе данных, состоящих из среднего значения точек данных и общей дисперсии точек данных, вычисленных, в свою очередь, на основе известной дисперсии. разделить на количество точек данных.
  2. Из анализа случая с неизвестной дисперсией, но известным средним значением, мы видим, что уравнения обновления включают достаточную статистику по данным, состоящую из количества точек данных и суммы квадратичных отклонений .
  3. Имейте в виду, что значения апостериорного обновления служат априорным распределением при обработке дальнейших данных. Таким образом, мы должны логически думать о наших априорных значениях с точки зрения только что описанной достаточной статистики, сохраняя при этом в максимально возможной степени одну и ту же семантику.
  4. Чтобы справиться со случаем, когда и среднее значение, и дисперсия неизвестны, мы могли бы разместить независимые априорные значения над средним значением и дисперсией с фиксированными оценками среднего среднего значения, общей дисперсии, количества точек данных, используемых для вычисления априорной дисперсии, и суммы квадратичных отклонений. . Однако обратите внимание, что на самом деле общая дисперсия среднего значения зависит от неизвестной дисперсии, а сумма квадратов отклонений, которая входит в априорную дисперсию (кажется), зависит от неизвестного среднего значения. На практике последняя зависимость относительно не важна: сдвиг фактического среднего значения смещает сгенерированные точки на равную величину, и в среднем квадраты отклонений останутся прежними. Однако это не относится к общей дисперсии среднего значения: по мере увеличения неизвестной дисперсии общая дисперсия среднего будет пропорционально увеличиваться, и мы хотели бы уловить эту зависимость.
  5. Это предполагает, что мы создаем условное априорное значение среднего значения для неизвестной дисперсии с гиперпараметром, указывающим среднее значение псевдонаблюдений , связанных с априорным значением, и другим параметром, указывающим количество псевдонаблюдений. Это число служит параметром масштабирования дисперсии, позволяя контролировать общую дисперсию среднего значения относительно фактического параметра дисперсии. Априорное значение дисперсии также имеет два гиперпараметра: один определяет сумму квадратов отклонений псевдонаблюдений, связанных с априорным, а другой еще раз указывает количество псевдонаблюдений. Каждый из априорных значений имеет гиперпараметр, определяющий количество псевдонаблюдений, и в каждом случае он контролирует относительную дисперсию этого априорного значения. Они задаются как два отдельных гиперпараметра, так что дисперсию (т. е. достоверность) двух априорных значений можно контролировать отдельно.
  6. Это немедленно приводит к нормальному обратному гамма-распределению , которое является продуктом двух только что определенных распределений с использованием сопряженных априорных значений ( обратное гамма-распределение по дисперсии и нормальное распределение по среднему значению, зависящее от дисперсии) и с теми же четырьмя только что определенными параметрами.

Априоры обычно определяются следующим образом:

Уравнения обновления могут быть выведены и выглядят следующим образом:

К соответствующему количеству псевдонаблюдений добавляется количество реальных наблюдений. Новый средний гиперпараметр снова представляет собой средневзвешенное значение, на этот раз взвешенное по относительному количеству наблюдений. Наконец, обновление аналогично случаю с известным средним значением, но в этом случае сумма квадратов отклонений берется относительно среднего значения наблюдаемых данных, а не истинного среднего значения, и в результате необходимо добавить новый член взаимодействия. чтобы позаботиться о дополнительном источнике ошибок, возникающем из-за отклонения между априорным и средним значением данных.

Доказательство

Предыдущие распределения

Таким образом, совместным приором является

Функция правдоподобия из приведенного выше раздела с известной дисперсией:

Записав это в терминах дисперсии, а не точности, мы получаем:

где

Следовательно, апостериорное (опуская гиперпараметры как обуславливающие факторы):

Другими словами, апостериорное распределение имеет форму произведения нормального распределения на обратное гамма-распределение по времени с параметрами, которые совпадают с приведенными выше уравнениями обновления.

Возникновение и применение

Возникновение нормального распределения в практических задачах можно условно разделить на четыре категории:

  1. Точно нормальные распределения;
  2. Приблизительно нормальные законы, например, когда такое приближение оправдано центральной предельной теоремой ; и
  3. Распределения моделируются как нормальные: нормальное распределение представляет собой распределение с максимальной энтропией для заданного среднего значения и дисперсии.
  4. Проблемы регрессии – нормальное распределение обнаруживается после того, как систематические эффекты были достаточно хорошо смоделированы.

Точная нормальность

Основное состояние квантового гармонического осциллятора имеет распределение Гаусса .

Некоторые величины в физике распределяются нормально, как это впервые продемонстрировал Джеймс Клерк Максвелл . Примеры таких величин:

Приблизительная нормальность

Приблизительно нормальное распределение встречается во многих ситуациях, как это объясняется центральной предельной теоремой . Когда результат создается множеством небольших эффектов, действующих аддитивно и независимо , его распределение будет близко к нормальному. Нормальное приближение не будет действительным, если эффекты действуют мультипликативно (а не аддитивно) или если существует одно внешнее влияние, которое имеет значительно большую величину, чем остальные эффекты.

Предполагаемая нормальность

Гистограмма ширины чашелистика Iris versicolor из набора данных о цветах Iris Фишера с наложенным наиболее подходящим нормальным распределением.

Я могу лишь признать появление нормальной кривой – лапласовой кривой ошибок – весьма ненормальным явлением. В некоторых дистрибутивах он примерно приближается к ; по этой причине, а также ввиду его прекрасной простоты, мы, возможно, можем использовать его в качестве первого приближения, особенно в теоретических исследованиях.

-  Пирсон (1901)

Существуют статистические методы эмпирической проверки этого предположения; см. выше раздел «Тестирование нормальности».

Подобрано кумулятивное нормальное распределение октябрьских осадков, см. подгонку распределения.

Методологические проблемы и экспертная оценка

Джон Иоаннидис утверждал , что использование нормально распределенных стандартных отклонений в качестве стандартов для проверки результатов исследований оставляет непроверенными фальсифицируемые предсказания о явлениях, которые обычно не распределяются. Сюда относятся, например, явления, которые возникают только при наличии всех необходимых условий и одно не может быть заменой другого в виде сложения, и явления, которые не распределены случайным образом. Иоаннидис утверждает, что проверка, ориентированная на стандартное отклонение, создает ложную видимость достоверности гипотез и теорий, в которых некоторые, но не все фальсифицируемые прогнозы нормально распределены, поскольку часть фальсифицируемых прогнозов, против которых имеются доказательства, может, а в некоторых случаях, находится в ненормально распределенные части диапазона фальсифицируемых предсказаний, а также безосновательное отвержение гипотез, для которых ни одно из фальсифицируемых предсказаний обычно не распределяется так, как если бы они были нефальсифицируемы, тогда как на самом деле они делают фальсифицируемые предсказания. Иоаннидис утверждает, что многие случаи принятия взаимоисключающих теорий как подтвержденные исследовательскими журналами вызваны неспособностью журналов принять эмпирические фальсификации предсказаний с ненормально распределенным распределением, а не потому, что взаимоисключающие теории верны, чего они не могут сделать. быть, хотя две взаимоисключающие теории могут быть как неправильными, так и третья правильной. [55]

Вычислительные методы

Генерация значений из нормального распределения

Бобовую машину — устройство, изобретенное Фрэнсисом Гальтоном , можно назвать первым генератором нормальных случайных величин. Эта машина состоит из вертикальной доски с чередующимися рядами булавок. Маленькие шарики падают сверху, а затем случайным образом отскакивают влево или вправо, попадая в кегли. Шары собираются в контейнеры внизу и располагаются в форме, напоминающей кривую Гаусса.

В компьютерном моделировании, особенно в приложениях метода Монте-Карло , часто желательно генерировать значения, которые имеют нормальное распределение. Все перечисленные ниже алгоритмы генерируют стандартные нормальные отклонения, поскольку N ( μ , σ2 ) может быть сгенерировано как X = μ + σZ , где Z — стандартное нормальное значение . Все эти алгоритмы полагаются на наличие генератора случайных чисел U , способного генерировать однородные случайные величины.

Численные аппроксимации нормальной кумулятивной функции распределения и нормальной функции квантиля

Стандартная функция нормального кумулятивного распределения широко используется в научных и статистических вычислениях.

Значения Φ( x ) могут быть очень точно аппроксимированы различными методами, такими как численное интегрирование , ряд Тейлора , асимптотический ряд и цепные дроби . В зависимости от желаемого уровня точности используются различные приближения.

Шор (1982) представил простые аппроксимации, которые могут быть включены в модели стохастической оптимизации инженерных и эксплуатационных исследований, такие как проектирование надежности и анализ запасов. Обозначая p = Φ( z ) , простейшим приближением для функции квантиля является:

Это приближение дает для z максимальную абсолютную ошибку 0,026 (для 0,5 ≤ p ≤ 0,9999 , что соответствует 0 ≤ z ≤ 3,719 ). Для p < 1/2 замените p на 1 − p и поменяйте знак. Другое приближение, несколько менее точное, — это однопараметрическое приближение:

Последнее послужило для получения простой аппроксимации интеграла потерь нормального распределения, определяемого формулой

Это приближение особенно точно для правого дальнего хвоста (максимальная ошибка 10 -3 для z≥1,4). Высокоточные аппроксимации кумулятивной функции распределения, основанные на методологии моделирования отклика (RMM, Shore, 2011, 2012), показаны в Shore (2005).

Еще несколько приближений можно найти по адресу: Функция ошибки#Приближение элементарными функциями . В частности, небольшая относительная погрешность во всей области для кумулятивной функции распределения, а также функции квантиля достигается с помощью явно обратимой формулы Сергея Виницкого в 2008 году.

История

Разработка

Некоторые авторы [64] [65] приписывают заслугу открытия нормального распределения де Муавра , который в 1738 году [примечание 2] опубликовал во втором издании своей «Доктрины шансов» исследование коэффициентов биномиального разложения ( а + б ) п . Де Муавр доказал, что средний член в этом разложении имеет приблизительную величину , и что «Если m или1/2n — бесконечно большая Величина, то логарифм отношения, которое Терм, отстоящий от середины на Интервал , имеет к среднему Терму, равен .» [66] Хотя эту теорему можно интерпретировать как первое неясное выражение для нормальный закон вероятности, Стиглер указывает, что сам де Муавр не интерпретировал свои результаты как нечто большее, чем приближенное правило для биномиальных коэффициентов, и, в частности, у Муавра отсутствовало понятие функции плотности вероятности [67] .

Карл Фридрих Гаусс открыл нормальное распределение в 1809 году как способ рационализации метода наименьших квадратов .

В 1823 году Гаусс опубликовал свою монографию « Theoria Combinis Observeum erroribus minimis obnoxiae » , где, среди прочего, он вводит несколько важных статистических понятий, таких как метод наименьших квадратов , метод максимального правдоподобия и нормальное распределение . Гаусс использовал M , M , M ", ... для обозначения измерений некоторой неизвестной величины  V и искал наиболее вероятную оценку этой величины: ту, которая максимизирует вероятность φ ( MV ) · φ ( M ′V ) · φ ( M » − V ) · ... получения наблюдаемых экспериментальных результатов. В его обозначениях φΔ — функция плотности вероятности ошибок измерения величины Δ. Не зная, что такое функция φ , Гаусс требует, чтобы его метод сводился к известному ответу: среднему арифметическому измеренных величин. [примечание 3] Исходя из этих принципов, Гаусс демонстрирует, что единственным законом, который рационализирует выбор среднего арифметического в качестве оценки параметра местоположения, является нормальный закон ошибок: [68]

hнелинейный взвешенный метод наименьших квадратов[69]
Пьер-Симон Лаплас доказал центральную предельную теорему в 1810 году, подтвердив важность нормального распределения в статистике.

Хотя Гаусс был первым, кто предложил закон нормального распределения, Лаплас внес значительный вклад. [примечание 4] Именно Лаплас впервые поставил проблему агрегирования нескольких наблюдений в 1774 году, [70] хотя его собственное решение привело к лапласовскому распределению . Именно Лаплас впервые вычислил значение интеграла e t 2 dt  =π в 1782 году, предоставив константу нормировки для нормального распределения. [71] Наконец, именно Лаплас в 1810 году доказал и представил академии фундаментальную центральную предельную теорему , в которой подчеркивалась теоретическая важность нормального распределения. [72]

Интересно отметить, что в 1809 году американский математик ирландского происхождения Роберт Адрейн опубликовал два проницательных, но ошибочных вывода нормального закона вероятности одновременно и независимо от Гаусса. [73] Его работы оставались в значительной степени незамеченными научным сообществом, пока в 1871 году они не были эксгумированы Аббе . [74]

В середине XIX века Максвелл продемонстрировал, что нормальное распределение является не только удобным математическим инструментом, но также может встречаться в природных явлениях: [75] Число частиц, скорость которых, разрешенная в определенном направлении, лежит между x и x .  +  dx это

Именование

Сегодня эта концепция обычно известна на английском языке как нормальное распределение или распределение Гаусса . Другие менее распространенные названия включают распределение Гаусса, распределение Лапласа-Гаусса, закон ошибок, закон возможности ошибок, второй закон Лапласа и закон Гаусса.

Сам Гаусс, по-видимому, придумал этот термин в отношении «нормальных уравнений», используемых в его приложениях, при этом «нормальный» имеет техническое значение «ортогональный», а не «обычный». [76] Однако к концу XIX века некоторые авторы [примечание 5] начали использовать название « нормальное распределение », где слово «нормальное» использовалось как прилагательное – этот термин теперь рассматривается как отражение того факта, что такое распределение считалось типичным, распространенным и, следовательно, нормальным. Пирс (один из этих авторов) однажды определил понятие «нормально» следующим образом: «...«норма» — это не среднее (или какое-либо другое среднее значение) того, что происходит на самом деле, а то, что произойдет в долгосрочной перспективе. при определенных обстоятельствах». [77] Примерно на рубеже 20-го века Пирсон популяризировал термин «нормальный» как обозначение этого распределения. [78]

Много лет назад я назвал кривую Лапласа-Гаусса нормальной кривой, это название, хотя оно и избегает международного вопроса о приоритете, имеет тот недостаток, что заставляет людей поверить, что все другие распределения частот в том или ином смысле являются «ненормальными».

-  Пирсон (1920)

Кроме того, именно Пирсон первым записал распределение в терминах стандартного отклонения σ в современных обозначениях. Вскоре после этого, в 1915 году, Фишер добавил в формулу нормального распределения параметр местоположения, выразив его так, как оно пишется сейчас:

Термин «стандартное нормальное», обозначающий нормальное распределение с нулевым средним значением и единичной дисперсией, стал широко использоваться примерно в 1950-х годах, появившись в популярных учебниках П.Г. Хоэля (1947) « Введение в математическую статистику» и А.М. Муд (1950) « Введение в математическую статистику». Теория статистики . [79]

Смотрите также

Примечания

  1. ^ Например, этот алгоритм приведен в статье Язык программирования Bc .
  2. ^ Де Муавр впервые опубликовал свои выводы в 1733 году в брошюре Approximatio ad Summam Terminorum Binomii ( a + b ).нв Seriem Expansi , предназначенном только для частного обращения. Но только в 1738 году он обнародовал свои результаты. Оригинальная брошюра переиздавалась несколько раз, см., например, Walker (1985).
  3. ^ «Было принято считать аксиомой гипотезу о том, что если какая-либо величина была определена путем нескольких прямых наблюдений, выполненных при одинаковых обстоятельствах и с одинаковой тщательностью, то среднее арифметическое наблюдаемых значений дает наиболее вероятное значение, если не строго, но, по крайней мере, почти так, чтобы всегда было безопаснее придерживаться его». - Гаусс (1809, раздел 177)
  4. ^ «Мой обычай называть кривую кривой Гаусса-Лапласа или нормальной кривой спасает нас от пропорционального распределения заслуг открытия между двумя великими астрономами-математиками». цитата Пирсона (1905, стр. 189)
  5. ^ Помимо тех, которые специально упомянуты здесь, такое использование встречается в работах Пирса , Гальтона (Galton (1889, глава V)) и Lexis (Lexis (1878), Rohrbasser & Véron (2003)) c. 1875 г. [ нужна ссылка ]

Рекомендации

Цитаты

  1. ^ Нортон, Мэтью; Хохлов, Валентин; Урясев, Стэн (2019). «Расчет CVaR и bPOE для распространенных распределений вероятностей с применением для оптимизации портфеля и оценки плотности» (PDF) . Анналы исследования операций . Спрингер. 299 (1–2): 1281–1315. arXiv : 1811.11301 . дои : 10.1007/s10479-019-03373-1. S2CID  254231768 . Проверено 27 февраля 2023 г.
  2. ^ Нормальное распределение, Энциклопедия психологии Гейла
  3. ^ Казелла и Бергер (2001, стр. 102)
  4. ^ Лион, А. (2014). Почему нормальное распределение нормально?, Британский журнал философии науки.
  5. ^ Хорхе, Носедал; Стефан, Дж. Райт (2006). Численная оптимизация (2-е изд.). Спрингер. п. 249. ИСБН 978-0387-30303-1.
  6. ^ ab «Нормальное распределение». www.mathsisfun.com . Проверено 15 августа 2020 г.
  7. ^ Стиглер (1982)
  8. ^ Гальперин, Хартли и Хоэл (1965, пункт 7)
  9. ^ Макферсон (1990, стр. 110)
  10. ^ Бернардо и Смит (2000, стр. 121)
  11. ^ Скотт, Клейтон; Новак, Роберт (7 августа 2003 г.). «Q-функция». Связи .
  12. Барак, Охад (6 апреля 2006 г.). «Функция Q и функция ошибки» (PDF) . Тель-Авивский университет. Архивировано из оригинала (PDF) 25 марта 2009 г.
  13. ^ Вайсштейн, Эрик В. «Функция нормального распределения». Математический мир .
  14. ^ Абрамовиц, Милтон ; Стегун, Ирен Энн , ред. (1983) [июнь 1964 г.]. «Глава 26, ур. 26.2.12». Справочник по математическим функциям с формулами, графиками и математическими таблицами . Серия «Прикладная математика». Том. 55 (Девятое переиздание с дополнительными исправлениями десятого оригинального издания с исправлениями (декабрь 1972 г.); первое изд.). Вашингтон, округ Колумбия; Нью-Йорк: Министерство торговли США, Национальное бюро стандартов; Дуврские публикации. п. 932. ИСБН 978-0-486-61272-0. LCCN  64-60036. МР  0167642. LCCN  65-12253.
  15. Ваарт, А.В. ван дер (13 октября 1998 г.). Асимптотическая статистика. Издательство Кембриджского университета. дои : 10.1017/cbo9780511802256. ISBN 978-0-511-80225-6.
  16. ^ Обложка, Томас М.; Томас, Джой А. (2006). Элементы теории информации . Джон Уайли и сыновья. п. 254. ИСБН 9780471748816.
  17. ^ Пак, Сон Ю.; Бера, Анил К. (2009). «Модель условной гетероскедастичности с максимальной энтропией авторегрессии» (PDF) . Журнал эконометрики . 150 (2): 219–230. CiteSeerX 10.1.1.511.9750 . doi :10.1016/j.jeconom.2008.12.014. Архивировано из оригинала (PDF) 7 марта 2016 года . Проверено 2 июня 2011 г. 
  18. ^ Гири RC (1936) Распределение «коэффициента Стьюдента для ненормальных выборок». Приложение к журналу Королевского статистического общества 3 (2): 178–184.
  19. ^ Лукач, Евгений (март 1942 г.). «Характеристика нормального распределения». Анналы математической статистики . 13 (1): 91–93. дои : 10.1214/AOMS/1177731647. ISSN  0003-4851. JSTOR  2236166. MR  0006626. Zbl  0060.28509. Викиданные  Q55897617.
  20. ^ abc Patel & Read (1996, [2.1.4])
  21. ^ Фан (1991, стр. 1258)
  22. ^ Патель и Рид (1996, [2.1.8])
  23. ^ Папулис, Афанасиос. Вероятность, случайные величины и случайные процессы (4-е изд.). п. 148.
  24. ^ Винкельбауэр, Андреас (2012). «Моменты и абсолютные моменты нормального распределения». arXiv : 1209.4340 [math.ST].
  25. ^ Брик (1995, стр. 23)
  26. ^ Брик (1995, стр. 24)
  27. ^ Обложка и Томас (2006, стр. 254)
  28. ^ Уильямс, Дэвид (2001). Взвешивание шансов: курс вероятности и статистики (перепечатано под ред.). Кембридж [ua]: Cambridge Univ. Нажимать. стр. 197–199. ISBN 978-0-521-00618-7.
  29. ^ Смит, Хосе М. Бернардо; Адриан Ф.М. (2000). Байесовская теория (Переиздание). Чичестер [ua]: Уайли. стр. 209, 366. ISBN. 978-0-471-49464-5.{{cite book}}: CS1 maint: multiple names: authors list (link)
  30. ^ О'Хаган, А. (1994) Продвинутая теория статистики Кендалла, Том 2B, Байесовский вывод , Эдвард Арнольд. ISBN 0-340-52922-9 (раздел 5.40) 
  31. ^ аб Брык (1995, стр. 35)
  32. ^ UIUC, Лекция 21. Многомерное нормальное распределение, 21.6: «Индивидуально гауссово против совместно гауссово».
  33. ^ Эдвард Л. Мельник и Аарон Тененбейн, «Неверные спецификации нормального распределения», The American Statistician , том 36, номер 4, ноябрь 1982 г., страницы 372–373
  34. ^ "Кульбак Лейблер (KL) Расстояние двух нормальных (гауссовских) распределений вероятностей" . Allisons.org . 5 декабря 2007 года . Проверено 3 марта 2017 г.
  35. Джордан, Майкл И. (8 февраля 2010 г.). «Stat260: Байесовское моделирование и вывод: сопряженный априор для нормального распределения» (PDF) .
  36. ^ Амари и Нагаока (2000)
  37. ^ «Нормальное приближение к распределению Пуассона». Stat.ucla.edu . Проверено 3 марта 2017 г.
  38. ^ Аб Дас, Абхранил (2021). «Метод интеграции и классификации нормальных распределений». Журнал видения . 21 (10): 1. arXiv : 2012.14331 . дои : 10.1167/jov.21.10.1. ПМЦ 8419883 . ПМИД  34468706. 
  39. ^ Брик (1995, стр. 27)
  40. ^ Вайсштейн, Эрик В. «Нормальное распространение продукции». Математический мир . wolfram.com.
  41. ^ Лукач, Евгений (1942). «Характеристика нормального распределения». Анналы математической статистики . 13 (1): 91–3. дои : 10.1214/aoms/1177731647 . ISSN  0003-4851. JSTOR  2236166.
  42. ^ Басу, Д.; Лаха, Р.Г. (1954). «О некоторых характеристиках нормального распределения». Санкхья . 13 (4): 359–62. ISSN  0036-4452. JSTOR  25048183.
  43. ^ Леманн, EL (1997). Проверка статистических гипотез (2-е изд.). Спрингер. п. 199. ИСБН 978-0-387-94919-2.
  44. ^ Патель и Рид (1996, [2.3.6])
  45. ^ Галамбос и Симонелли (2004, теорема 3.5)
  46. ^ Аб Лукач и Кинг (1954)
  47. ^ Куайн, член парламента (1993). «О трёх характеристиках нормального распределения». Вероятность и математическая статистика . 14 (2): 257–263.
  48. ^ Джон, С. (1982). «Трехпараметрическое двухчастное нормальное семейство распределений и его аппроксимация». Коммуникации в статистике - теория и методы . 11 (8): 879–885. дои : 10.1080/03610928208828279.
  49. ^ Аб Кришнамурти (2006, стр. 127)
  50. ^ Кришнамурти (2006, стр. 130)
  51. ^ Кришнамурти (2006, стр. 133)
  52. ^ Хаксли (1932)
  53. ^ Джейнс, Эдвин Т. (2003). Теория вероятностей: логика науки. Издательство Кембриджского университета. стр. 592–593. ISBN 9780521592710.
  54. ^ Остербан, Роланд Дж. (1994). «Глава 6: Частотный и регрессионный анализ гидрологических данных» (PDF) . В Ритземе, Хенк П. (ред.). Принципы и применение дренажа, Публикация 16 (второе исправленное издание). Вагенинген, Нидерланды: Международный институт мелиорации и улучшения земель (ILRI). стр. 175–224. ISBN 978-90-70754-33-4.
  55. ^ Почему большинство опубликованных результатов исследований ложны, Джон П.А. Иоаннидис, 2005 г.
  56. ^ Вичура, Майкл Дж. (1988). «Алгоритм AS241: Процентные точки нормального распределения». Прикладная статистика . 37 (3): 477–84. дои : 10.2307/2347330. JSTOR  2347330.
  57. ^ Джонсон, Коц и Балакришнан (1995, уравнение (26.48))
  58. ^ Киндерман и Монахан (1977)
  59. ^ Лева (1992)
  60. ^ Марсалья и Цанг (2000)
  61. ^ Карни (2016)
  62. ^ Монахан (1985, раздел 2)
  63. ^ Уоллес (1996)
  64. ^ Джонсон, Коц и Балакришнан (1994, стр. 85)
  65. ^ Ле Кам и Ло Ян (2000, стр. 74)
  66. ^ Де Муавр, Авраам (1733), Следствие I - см. Уокер (1985, стр. 77).
  67. ^ Стиглер (1986, стр. 76)
  68. ^ Гаусс (1809, раздел 177)
  69. ^ Гаусс (1809, раздел 179)
  70. ^ Лаплас (1774, Задача III)
  71. ^ Пирсон (1905, стр. 189)
  72. ^ Стиглер (1986, стр. 144)
  73. ^ Стиглер (1978, стр. 243)
  74. ^ Стиглер (1978, стр. 244)
  75. ^ Максвелл (1860, стр. 23)
  76. ^ Джейнс, Эдвин Дж.; Теория вероятностей: Логика науки , Гл. 7.
  77. ^ Пирс, Чарльз С. (ок. 1909 г.), Сборник статей, т. 6, параграф 327.
  78. ^ Краскал и Стиглер (1997).
  79. ^ «Самое раннее использование... (Входная стандартная нормальная кривая)» .
  80. ^ Сунь, Цзинчао; Конг, Майинг; Пал, Субхадип (22 июня 2021 г.). «Модифицированное полунормальное распределение: свойства и эффективная схема выборки». Коммуникации в статистике - теория и методы . 52 (5): 1591–1613. дои : 10.1080/03610926.2021.1934700. ISSN  0361-0926. S2CID  237919587.

Источники

  • Олдрич, Джон; Миллер, Джефф. «Самые ранние использования символов в теории вероятности и статистике».
  • Олдрич, Джон; Миллер, Джефф. «Самые ранние известные варианты использования некоторых математических слов».В частности, записи «Колоколообразная и колоколообразная кривая», «Нормальное (распределение)», «Гауссово» и «Ошибка, закон ошибок, теория ошибок и т. д.».
  • Амари, Сюн-ичи; Нагаока, Хироши (2000). Методы информационной геометрии . Издательство Оксфордского университета. ISBN 978-0-8218-0531-2.
  • Бернардо, Хосе М.; Смит, Адриан FM (2000). Байесовская теория . Уайли. ISBN 978-0-471-49464-5.
  • Брик, Влодзимеж (1995). Нормальное распределение: характеристики с приложениями . Спрингер-Верлаг. ISBN 978-0-387-97990-8.
  • Казелла, Джордж; Бергер, Роджер Л. (2001). Статистический вывод (2-е изд.). Даксбери. ISBN 978-0-534-24312-8.
  • Коди, Уильям Дж. (1969). «Рациональные чебышевские аппроксимации функции ошибки» . Математика вычислений . 23 (107): 631–638. дои : 10.1090/S0025-5718-1969-0247736-4 .
  • Обложка, Томас М.; Томас, Джой А. (2006). Элементы теории информации . Джон Уайли и сыновья.
  • Диа, Яя Д. (2023). «Приближенные неполные интегралы, приложение к дополнительной функции ошибки». ССРН . дои : 10.2139/ssrn.4487559. S2CID  259689086.
  • де Муавр, Авраам (1738). Доктрина шансов . Американское математическое общество. ISBN 978-0-8218-2103-9.
  • Фань, Цзяньцин (1991). «Об оптимальных скоростях сходимости для непараметрических задач деконволюции». Анналы статистики . 19 (3): 1257–1272. дои : 10.1214/aos/1176348248 . JSTOR  2241949.
  • Гальтон, Фрэнсис (1889). Естественное наследование (PDF) . Лондон, Великобритания: Ричард Клей и сыновья.
  • Галамбос, Янош; Симонелли, Итало (2004). Произведения случайных величин: приложения к задачам физики и арифметическим функциям . Марсель Деккер, Inc. ISBN 978-0-8247-5402-0.
  • Гаусс, Кароло Фридерико (1809). Theoria motvs corporvm coelestivm insectionibvs conicis Solemambiivm [ Теория движения небесных тел, движущихся вокруг Солнца в конических сечениях ] (на латыни). Хамбврги, Свмтибс Ф. Пертес и И.Х. Бессер. Английский перевод.
  • Гулд, Стивен Джей (1981). Неизмерение человека (первое изд.). WW Нортон. ISBN 978-0-393-01489-1.
  • Гальперин, Макс; Хартли, Герман О.; Хоэл, Пол Г. (1965). «Рекомендуемые стандарты статистических символов и обозначений. Комитет COPSS по символам и обозначениям». Американский статистик . 19 (3): 12–14. дои : 10.2307/2681417. JSTOR  2681417.
  • Харт, Джон Ф.; и другие. (1968). Компьютерные приближения . Нью-Йорк, штат Нью-Йорк: ISBN John Wiley & Sons, Inc. 978-0-88275-642-4.
  • «Нормальное распределение», Математическая энциклопедия , EMS Press , 2001 [1994]
  • Хернштейн, Ричард Дж.; Мюррей, Чарльз (1994). Колоколовая кривая: интеллект и классовая структура в американской жизни . Свободная пресса . ISBN 978-0-02-914673-6.
  • Хаксли, Джулиан С. (1932). Проблемы относительного роста . Лондон. ISBN 978-0-486-61114-3. ОСЛК  476909537.
  • Джонсон, Норман Л.; Коц, Сэмюэл; Балакришнан, Нараянасвами (1994). Непрерывные одномерные распределения, Том 1 . Уайли. ISBN 978-0-471-58495-7.
  • Джонсон, Норман Л.; Коц, Сэмюэл; Балакришнан, Нараянасвами (1995). Непрерывные одномерные распределения, Том 2 . Уайли. ISBN 978-0-471-58494-0.
  • Карни, CFF (2016). «Выборка точно из нормального распределения». Транзакции ACM в математическом программном обеспечении . 42 (1): 3:1–14. arXiv : 1303.6257 . дои : 10.1145/2710016. S2CID  14252035.
  • Киндерман, Альберт Дж.; Монахан, Джон Ф. (1977). «Компьютерная генерация случайных величин с использованием соотношения равномерных отклонений». Транзакции ACM в математическом программном обеспечении . 3 (3): 257–260. дои : 10.1145/355744.355750 . S2CID  12884505.
  • Кришнамурти, Калимуту (2006). Справочник по статистическим распределениям с приложениями . Чепмен и Холл/CRC. ISBN 978-1-58488-635-8.
  • Краскал, Уильям Х.; Стиглер, Стивен М. (1997). Спенсер, Брюс Д. (ред.). Нормативная терминология: «нормальный» в статистике и других источниках . Статистика и государственная политика. Издательство Оксфордского университета. ISBN 978-0-19-852341-3.
  • Лаплас, Пьер-Симон де (1774). «Мемуар о вероятностях причин, связанных с событиями». Mémoires de l'Académie Royale des Sciences de Paris (Savants étrangers), Том 6 : 621–656.Перевод Стивена М. Стиглера в журнале Statistical Science 1 (3), 1986: JSTOR  2245476.
  • Лаплас, Пьер-Симон (1812). Théorie Analytique des Probilités [ Аналитическая теория вероятностей ]. Париж, Ве. Курьер.
  • Ле Кам, Люсьен; Ло Ян, Грейс (2000). Асимптотика в статистике: некоторые основные понятия (второе изд.). Спрингер. ISBN 978-0-387-95036-5.
  • Лева, Джозеф Л. (1992). «Быстрый нормальный генератор случайных чисел» (PDF) . Транзакции ACM в математическом программном обеспечении . 18 (4): 449–453. CiteSeerX  10.1.1.544.5806 . дои : 10.1145/138351.138364. S2CID  15802663. Архивировано из оригинала (PDF) 16 июля 2010 г.
  • Лексис, Вильгельм (1878). «О нормальной продолжительности человеческой жизни и теории стабильности статистических отношений». Анналы международной демографии . Париж. II : 447–462.
  • Лукач, Евгений; Кинг, Эдгар П. (1954). «Свойство нормального распределения». Анналы математической статистики . 25 (2): 389–394. дои : 10.1214/aoms/1177728796 . JSTOR  2236741.
  • Макферсон, Глен (1990). Статистика в научных исследованиях: ее основы, применение и интерпретация . Спрингер-Верлаг. ISBN 978-0-387-97137-7.
  • Марсалья, Джордж ; Цанг, Вай Ван (2000). «Метод Зиккурата для генерации случайных величин». Журнал статистического программного обеспечения . 5 (8). дои : 10.18637/jss.v005.i08 .
  • Марсалья, Джордж (2004). «Оценка нормального распределения». Журнал статистического программного обеспечения . 11 (4). дои : 10.18637/jss.v011.i04 .
  • Максвелл, Джеймс Клерк (1860). «V. Иллюстрации динамической теории газов. — Часть I: О движении и столкновениях идеально упругих сфер». Философский журнал . Ряд 4. 19 (124): 19–32. дои : 10.1080/14786446008642818.
  • Монахан, Дж. Ф. (1985). «Точность генерации случайных чисел». Математика вычислений . 45 (172): 559–568. doi : 10.1090/S0025-5718-1985-0804945-X .
  • Патель, Джагдиш К.; Прочтите, Кэмпбелл Б. (1996). Справочник по нормальному распределению (2-е изд.). ЦРК Пресс. ISBN 978-0-8247-9342-5.
  • Пирсон, Карл (1901). «О линиях и плоскостях, наиболее близких к системам точек в пространстве» (PDF) . Философский журнал . 6. 2 (11): 559–572. дои : 10.1080/14786440109462720. S2CID  125037489.
  • Пирсон, Карл (1905). «'Das Fehlergesetz und seine Verallgemeinerungen durch Fechner und Pearson'. Ответ». Биометрика . 4 (1): 169–212. дои : 10.2307/2331536. JSTOR  2331536.
  • Пирсон, Карл (1920). «Заметки по истории корреляции». Биометрика . 13 (1): 25–45. дои : 10.1093/biomet/13.1.25. JSTOR  2331722.
  • Рорбассер, Жан-Марк; Верон, Жак (2003). «Лексика Вильгельма: нормальная продолжительность жизни как выражение «природы вещей»». Население . 58 (3): 303–322. дои : 10.3917/папа.303.0303 .
  • Шор, Х. (1982). «Простые приближения для обратной кумулятивной функции, функции плотности и интеграла потерь нормального распределения». Журнал Королевского статистического общества. Серия C (Прикладная статистика) . 31 (2): 108–114. дои : 10.2307/2347972. JSTOR  2347972.
  • Шор, Х. (2005). «Точные аппроксимации на основе RMM для CDF нормального распределения». Коммуникации в статистике – теория и методы . 34 (3): 507–513. doi : 10.1081/sta-200052102. S2CID  122148043.
  • Шор, Х (2011). «Методология моделирования реагирования». ПРОВОДА Вычисление Стат . 3 (4): 357–372. дои : 10.1002/wics.151. S2CID  62021374.
  • Шор, Х (2012). «Модели методологии моделирования реакции». ПРОВОДА Вычисление Стат . 4 (3): 323–333. дои : 10.1002/wics.1199. S2CID  122366147.
  • Стиглер, Стивен М. (1978). «Математическая статистика в ранних государствах». Анналы статистики . 6 (2): 239–265. дои : 10.1214/aos/1176344123 . JSTOR  2958876.
  • Стиглер, Стивен М. (1982). «Скромное предложение: новый стандарт нормальности». Американский статистик . 36 (2): 137–138. дои : 10.2307/2684031. JSTOR  2684031.
  • Стиглер, Стивен М. (1986). История статистики: измерение неопределенности до 1900 года . Издательство Гарвардского университета. ISBN 978-0-674-40340-6.
  • Стиглер, Стивен М. (1999). Статистика в таблице . Издательство Гарвардского университета. ISBN 978-0-674-83601-3.
  • Уокер, Хелен М. (1985). «Де Муавр о законе нормальной вероятности» (PDF) . В Смите, Дэвид Юджин (ред.). Справочник по математике . Дувр. ISBN 978-0-486-64690-9.
  • Уоллес, CS (1996). «Быстрые псевдослучайные генераторы для нормальных и экспоненциальных переменных». Транзакции ACM в математическом программном обеспечении . 22 (1): 119–127. дои : 10.1145/225545.225554 . S2CID  18514848.
  • Вайсштейн, Эрик В. «Нормальное распределение». Математический мир .
  • Уэст, Грэм (2009). «Лучшие приближения кумулятивных нормальных функций» (PDF) . Журнал Уилмотт : 70–76.
  • Зелен, Марвин; Северо, Норман К. (1964). Вероятностные функции (глава 26). Справочник по математическим функциям с формулами, графиками и математическими таблицами Абрамовица М .; и Стегун, Айова : Национальное бюро стандартов. Нью-Йорк, штат Нью-Йорк: Дувр. ISBN 978-0-486-61272-0.

Внешние ссылки