Параметр — это среднее или ожидание распределения (а также его медиана и мода ), а параметр — его стандартное отклонение . Дисперсия распределения равна . Случайная величина с распределением Гаусса называется нормально распределенной и называется нормальным отклонением .
Нормальные распределения важны в статистике и часто используются в естественных и социальных науках для представления действительных случайных величин , распределение которых неизвестно. [2] [3] Их важность частично обусловлена центральной предельной теоремой . Он утверждает, что при некоторых условиях среднее значение многих выборок (наблюдений) случайной величины с конечным средним значением и дисперсией само по себе является случайной величиной, распределение которой сходится к нормальному распределению по мере увеличения количества выборок. Следовательно, физические величины, которые, как ожидается, будут суммой многих независимых процессов, таких как ошибки измерения , часто имеют распределение, близкое к нормальному. [4]
Более того, гауссовы распределения обладают некоторыми уникальными свойствами, которые ценны в аналитических исследованиях. Например, любая линейная комбинация фиксированного набора независимых нормальных отклонений является нормальным отклонением. Многие результаты и методы, такие как распространение неопределенности и подбор параметров методом наименьших квадратов [5] , могут быть получены аналитически в явной форме, когда соответствующие переменные имеют нормальное распределение.
Нормальное распределение иногда неофициально называют колоколообразной кривой . [6] Однако многие другие распределения имеют колоколообразную форму (например , распределение Коши , распределение Стьюдента и логистическое распределение). Другие имена см. в разделе «Именование» .
Простейший случай нормального распределения известен как стандартное нормальное распределение или единичное нормальное распределение . Это частный случай, когда и , и он описывается этой функцией плотности вероятности (или плотностью):
Переменная имеет среднее значение 0, а дисперсию и стандартное отклонение 1. Плотность имеет пик и точки перегиба при и .
Хотя приведенная выше плотность чаще всего известна как стандартное нормальное распределение, некоторые авторы использовали этот термин для описания других версий нормального распределения. Карл Фридрих Гаусс , например, однажды определил стандартную норму как
который имеет дисперсию 1/2, а Стивен Стиглер [7] однажды определил стандартную норму как
который имеет простую функциональную форму и дисперсию
Общее нормальное распределение
Каждое нормальное распределение является версией стандартного нормального распределения, область определения которого была растянута на коэффициент (стандартное отклонение), а затем преобразована на (среднее значение):
Плотность вероятности должна быть масштабирована так , чтобы интеграл по-прежнему был равен 1.
Если это стандартное нормальное отклонение , то оно будет иметь нормальное распределение с ожидаемым значением и стандартным отклонением . Это эквивалентно утверждению, что стандартное нормальное распределение можно масштабировать/растягивать в раз и сдвигать, чтобы получить другое нормальное распределение, называемое . И наоборот, если это нормальное отклонение с параметрами и , то это распределение можно масштабировать и сдвигать с помощью формулы , чтобы преобразовать его в стандартное нормальное распределение. Эту вариацию также называют стандартизированной формой .
Обозначения
Плотность вероятности стандартного распределения Гаусса (стандартное нормальное распределение с нулевым средним и единичной дисперсией) часто обозначается греческой буквой ( фи ). [8] Альтернативная форма греческой буквы «фи» также используется довольно часто.
Нормальное распределение часто называют или . [9] Таким образом, когда случайная величина нормально распределяется со средним и стандартным отклонением , можно написать
Альтернативные параметризации
Некоторые авторы выступают за использование точности в качестве параметра, определяющего ширину распределения, вместо отклонения или дисперсии . Точность обычно определяется как величина, обратная дисперсии . [10] Тогда формула распределения принимает вид
Утверждается, что этот выбор имеет преимущества в числовых вычислениях, когда значение очень близко к нулю, и упрощает формулы в некоторых контекстах, например, при байесовском выводе переменных с многомерным нормальным распределением .
Альтернативно, обратная величина стандартного отклонения может быть определена как точность , и в этом случае выражение нормального распределения принимает вид
По мнению Стиглера, эта формулировка выгодна тем, что она гораздо проще и легче запоминается, а также имеет простые приближенные формулы для квантилей распределения .
Нормальные распределения образуют экспоненциальное семейство с натуральными параметрами и и естественной статистикой x и x 2 . Параметрами двойного ожидания для нормального распределения являются η 1 = µ и η 2 = µ 2 + σ 2 .
Кумулятивная функция распределения
Кумулятивная функция распределения (CDF) стандартного нормального распределения, обычно обозначаемая заглавной греческой буквой ( фи ), представляет собой интеграл
Функция ошибки
Соответствующая функция ошибок дает вероятность случайной величины с нормальным распределением среднего значения 0 и дисперсией 1/2, попадающими в диапазон . То есть:
Эти интегралы не могут быть выражены через элементарные функции, и их часто называют специальными функциями . Однако известно множество численных приближений; подробнее см. ниже.
Эти две функции тесно связаны, а именно
Для общего нормального распределения с плотностью , средним значением и отклонением кумулятивная функция распределения равна
Дополнение стандартной нормальной функции кумулятивного распределения часто называют Q-функцией , особенно в инженерных текстах. [11] [12] Он дает вероятность того, что значение стандартной нормальной случайной величины превысит : . Другие определения -функции , все из которых являются простыми преобразованиями , также иногда используются. [13]
График стандартной нормальной кумулятивной функции распределения имеет 2-кратную вращательную симметрию вокруг точки (0,1/2); то есть, . Его первообразную (неопределенный интеграл) можно выразить следующим образом:
Кумулятивную функцию распределения стандартного нормального распределения можно расширить путем интегрирования по частям в ряд:
Асимптотическое разложение кумулятивной функции распределения при больших x также можно получить с помощью интегрирования по частям. Дополнительную информацию см. в разделе Функция ошибки#Асимптотическое расширение . [14]
Быстрое приближение к кумулятивной функции распределения стандартного нормального распределения можно найти с помощью аппроксимации рядом Тейлора:
Рекурсивные вычисления с разложением в ряд Тейлора
Рекурсивная природа семейства производных может использоваться для легкого построения быстро сходящегося разложения в ряд Тейлора с использованием рекурсивных записей о любой точке известного значения распределения :
где:
Использование ряда Тейлора и метода Ньютона для обратной функции
Применение вышеприведенного разложения в ряд Тейлора состоит в использовании метода Ньютона для обратного вычисления. То есть, если у нас есть значение кумулятивной функции распределения , , но мы не знаем x, необходимый для получения , мы можем использовать метод Ньютона, чтобы найти x, и использовать приведенное выше разложение в ряд Тейлора, чтобы минимизировать количество вычислений. Метод Ньютона идеально подходит для решения этой проблемы, поскольку первая производная от , которая является интегралом нормального стандартного распределения, является нормальным стандартным распределением и легко доступна для использования в решении метода Ньютона.
Для решения выберите известное приближенное решение, , к искомому . может быть значением из таблицы распределения или интеллектуальной оценкой, за которой следует вычисление с использованием любых желаемых средств вычисления. Используйте это значение и приведенное выше разложение в ряд Тейлора, чтобы минимизировать вычисления.
Повторяйте следующий процесс до тех пор, пока разница между вычисленным и желаемым значением , которую мы назовем , не станет ниже выбранной приемлемо небольшой ошибки, такой как 10 -5 , 10 -15 и т. д.:
где
является решением ряда Тейлора с использованием и
Когда повторные вычисления сходятся к ошибке ниже выбранного приемлемо малого значения, x будет значением, необходимым для получения желаемого значения .
Стандартное отклонение и охват
Около 68% значений, полученных из нормального распределения, находятся в пределах одного стандартного отклонения σ от среднего значения; около 95% значений лежат в пределах двух стандартных отклонений; и около 99,7% находятся в пределах трех стандартных отклонений. [6] Этот факт известен как правило 68-95-99,7 (эмпирическое) или правило 3-х сигм .
Точнее, вероятность того, что нормальное отклонение находится в диапазоне между и определяется выражением
Квантильная функция распределения является обратной кумулятивной функции распределения. Квантильная функция стандартного нормального распределения называется пробит-функцией и может быть выражена через обратную функцию ошибок :
Для нормальной случайной величины со средним значением и дисперсией функция квантиля равна
Квантиль стандартного нормального распределения обычно обозначается как . Эти значения используются при проверке гипотез , построении доверительных интервалов и графиков Q–Q . Обычная случайная величина с вероятностью превысит интервал и с вероятностью окажется вне интервала . В частности, квантиль равен 1,96 ; поэтому нормальная случайная величина будет лежать вне интервала только в 5% случаев.
В следующей таблице приведены квантиль , который будет лежать в диапазоне с указанной вероятностью . Эти значения полезны для определения интервала допуска для выборочных средних и других статистических оценок с нормальным (или асимптотически нормальным) распределением. [15] В следующей таблице показаны значения, отличные от указанных выше.
Нормальное распределение — единственное распределение, кумулянты которого помимо первых двух (т. е. кроме среднего и дисперсии ) равны нулю. Это также непрерывное распределение с максимальной энтропией для заданного среднего значения и дисперсии. [16] [17] Гири показал, предполагая, что среднее значение и дисперсия конечны, что нормальное распределение является единственным распределением, в котором среднее значение и дисперсия, рассчитанные на основе набора независимых розыгрышей, независимы друг от друга. [18] [19]
Нормальное распределение является подклассом эллиптических распределений . Нормальное распределение симметрично относительно своего среднего значения и не равно нулю на всей реальной линии. По существу, она может оказаться не подходящей моделью для переменных, которые по своей сути являются положительными или сильно искаженными, например, вес человека или цена акции . Такие переменные могут быть лучше описаны другими распределениями, такими как логарифмически нормальное распределение или распределение Парето .
Значение нормального распределения практически равно нулю, если оно находится более чем на несколько стандартных отклонений от среднего значения (например, разброс в три стандартных отклонения покрывает все, кроме 0,27% общего распределения). Следовательно, это может быть неподходящая модель, когда ожидается значительная доля выбросов (значений, которые отклоняются на много стандартных отклонений от среднего значения), а методы наименьших квадратов и другие методы статистического вывода , которые оптимальны для нормально распределенных переменных, часто становятся крайне ненадежными при их применении. к таким данным. В таких случаях следует предположить более тяжелое распределение и применить соответствующие надежные статистические методы вывода.
Распределение Гаусса принадлежит к семейству стабильных распределений , которые являются аттракторами сумм независимых, одинаково распределенных распределений, независимо от того, конечны ли среднее значение или дисперсия. За исключением гауссова распределения, которое является предельным случаем, все стабильные распределения имеют тяжелые хвосты и бесконечную дисперсию. Это одно из немногих распределений, которые стабильны и имеют функции плотности вероятности, которые могут быть выражены аналитически (остальные распределения — это распределение Коши и распределение Леви ).
Симметрии и производные
Нормальное распределение с плотностью (среднее и стандартное отклонение ) имеет следующие свойства:
Оно симметрично относительно точки, которая одновременно является модой , медианой и средним значением распределения. [20]
Он унимодальный : его первая производная положительна при отрицательных значениях и равна нулю только при
Площадь, ограниченная кривой и осью -, равна единице (т.е. равна единице).
Его первая производная
Его вторая производная
Его плотность имеет две точки перегиба (где вторая производная равна нулю и меняет знак), расположенные на одно стандартное отклонение от среднего значения, а именно при и [20]
Кроме того, плотность стандартного нормального распределения (т.е. и ) также обладает следующими свойствами:
Его первая производная
Его вторая производная
В более общем смысле, его n -я производная равна где n - й (вероятностный) полином Эрмита . [22]
Вероятность того, что нормально распределенная переменная известна и находится в определенном наборе, можно вычислить, используя тот факт, что дробь имеет стандартное нормальное распределение.
Моменты
Простой и абсолютный моменты переменной — это ожидаемые значения и соответственно. Если ожидаемое значение равно нулю, эти параметры называются центральными моментами; в противном случае эти параметры называются нецентральными моментами. Обычно нас интересуют только моменты целого порядка .
Если распределение нормальное, нецентральные моменты существуют и конечны для любого , чья действительная часть больше -1. Для любого неотрицательного целого числа простыми центральными моментами являются: [23]
Здесь обозначается двойной факториал , то есть произведение всех чисел от до 1, имеющих ту же четность, что и
Центральные абсолютные моменты совпадают с простыми моментами для всех четных порядков, но отличны от нуля для нечетных порядков. Для любого неотрицательного целого числа
Последняя формула справедлива также для любых нецелых чисел. Когда среднее значение простого и абсолютного моментов может быть выражено через вырожденные гипергеометрические функции и [24]
Эти выражения остаются действительными, даже если число не является целым числом. См. также обобщенные полиномы Эрмита .
Ожидание обусловленного событием, находящимся в интервале, определяется выражением
где и соответственно – плотность и кумулятивная функция распределения . Это известно как обратное соотношение Миллса . Обратите внимание, что выше плотность используется вместо стандартной нормальной плотности, как в обратном соотношении Миллса, поэтому здесь вместо .
Преобразование Фурье и характеристическая функция
Преобразование Фурье нормальной плотности со средним и стандартным отклонением имеет вид [25]
где мнимая единица . Если среднее значение первый коэффициент равен 1, а преобразование Фурье, помимо постоянного коэффициента, представляет собой нормальную плотность в частотной области со средним значением 0 и стандартным отклонением . В частности, стандартное нормальное распределение является собственной функцией преобразования Фурье.
В теории вероятностей преобразование Фурье распределения вероятностей вещественной случайной величины тесно связано с характеристической функцией этой переменной, которая определяется как ожидаемое значение , как функция действительной переменной ( частотный параметр преобразование Фурье). Это определение можно аналитически распространить на переменную с комплексным значением . [26] Связь между ними такова:
Функции, генерирующие момент и кумулянт
Момент производящей функцией реальной случайной величины является ожидаемое значение как функция реального параметра . Для нормального распределения с плотностью , средним значением и отклонением производящая функция момента существует и равна
Кумулянтная производящая функция представляет собой логарифм производящей функции момента, а именно
Поскольку это квадратичный полином от , только первые два кумулянта ненулевые, а именно среднее значение и дисперсия .
Некоторые авторы предпочитают вместо этого работать с E[ e itX ] = e iμt − σ 2 t 2 /2 и ln E[ e itX ] = iμt −1/2σ 2 т 2 .
Оператор и класс Штейна
В рамках метода Штейна оператором Штейна и классом случайной величины являются класс всех абсолютно непрерывных функций .
Предел нулевой дисперсии
В пределе , когда стремится к нулю, плотность вероятности со временем стремится к нулю при любом , но неограниченно растет, если , а ее интеграл остается равным 1. Поэтому нормальное распределение не может быть определено как обычная функция при .
Однако можно определить нормальное распределение с нулевой дисперсией как обобщенную функцию ; в частности, как дельта-функция Дирака, переведенная средним значением , то есть
ее кумулятивная функция распределения тогда представляет собой ступенчатую функцию Хевисайда, переведенную средним значением , а именно
Максимальная энтропия
Из всех распределений вероятностей по действительным числам с заданным конечным средним значением и конечной дисперсией нормальное распределение имеет максимальную энтропию . [27] Чтобы убедиться в этом, пусть – непрерывная случайная величина с плотностью вероятности . Энтропия определяется как [28] [29] [30]
где понимается как ноль всякий раз, когда . Этот функционал можно максимизировать при условии, что распределение правильно нормализовано и имеет заданное среднее значение и дисперсию, с помощью вариационного исчисления . Определена функция с тремя множителями Лагранжа :
При максимальной энтропии небольшое изменение около приведет к изменению , равному 0:
Поскольку это должно выполняться для любого малого , коэффициент умножения должен быть равен нулю, а решение дает выход:
Ограничения Лагранжа, которые правильно нормализованы и имеют заданное среднее значение и дисперсию, удовлетворяются тогда и только тогда, когда , и выбраны так, что
Энтропия нормального распределения равна
который не зависит от среднего .
Другие объекты недвижимости
Если характеристическая функция некоторой случайной величины имеет вид , где – многочлен , то теорема Марцинкевича (названная в честь Юзефа Марцинкевича ) утверждает, что она может быть не более чем квадратичным многочленом и, следовательно, является нормальной случайной величиной. [31] Следствием этого результата является то, что нормальное распределение является единственным распределением с конечным числом (двумя) ненулевых кумулянтов .
Если и совместно нормальны и некоррелированы , то они независимы . Требование о том, что и должно быть в целом нормальным, имеет важное значение; без этого имущество не сохраняется. [32] [33] [доказательство] Для ненормальных случайных величин некоррелированность не означает независимости.
Отличие Кульбака – Лейблера одного нормального распределения от другого определяется формулой: [34]
Сопряженное априорное значение нормального распределения является еще одним нормальным распределением. [35] В частности, если iid и априорное значение равно , то апостериорное распределение для средства оценки будет равно
Семейство нормальных распределений не только образует экспоненциальное семейство (EF), но фактически образует естественное экспоненциальное семейство (NEF) с квадратичной функцией дисперсии ( NEF-QVF ). Многие свойства нормальных распределений обобщаются на свойства распределений NEF-QVF, распределений NEF или распределений EF в целом. Распределения NEF-QVF включают 6 семейств, включая распределения Пуассона, гамма, биномиальные и отрицательные биномиальные, в то время как многие из распространенных семейств, изучаемых в области вероятности и статистики, представляют собой NEF или EF.
Центральная предельная теорема утверждает, что при определенных (довольно распространенных) условиях сумма многих случайных величин будет иметь приблизительно нормальное распределение. Более конкретно, где находятся независимые и одинаково распределенные случайные величины с одинаковым произвольным распределением, нулевым средним значением и дисперсией , и является ли их среднее масштабированием по формуле
Затем по мере увеличения распределение вероятностей будет стремиться к нормальному распределению с нулевым средним и дисперсией .
Теорему можно распространить на переменные , которые не являются независимыми и/или неодинаково распределенными, если наложены определенные ограничения на степень зависимости и моменты распределений.
Многие тестовые статистики , баллы и оценки, встречающиеся на практике, содержат в себе суммы определенных случайных величин, и еще больше оценок можно представить в виде сумм случайных величин за счет использования функций влияния . Центральная предельная теорема подразумевает, что эти статистические параметры будут иметь асимптотически нормальное распределение.
Центральная предельная теорема также подразумевает, что некоторые распределения могут быть аппроксимированы нормальным распределением, например:
Распределение Пуассона с параметром приблизительно нормально со средним значением и дисперсией для больших значений . [37]
Распределение хи-квадрат примерно нормальное со средним значением и дисперсией для больших .
Распределение Стьюдента примерно нормальное со средним значением 0 и дисперсией 1, когда оно велико.
Достаточно ли точны эти приближения, зависит от цели, для которой они необходимы, и скорости сходимости к нормальному распределению. Обычно такие аппроксимации менее точны в хвостах распределения.
Эту теорему можно также использовать для обоснования моделирования суммы многих источников однородного шума как гауссова шума . См. AWGN .
Операции и функции обычных переменных
Плотность вероятности , кумулятивное распределение и обратное кумулятивное распределение любой функции одной или нескольких независимых или коррелированных нормальных переменных можно вычислить с помощью численного метода трассировки лучей [38] (код Matlab). В следующих разделах мы рассмотрим некоторые особые случаи.
Операции с одной нормальной переменной
Если распределяется нормально со средним значением и дисперсией , то
, для любых действительных чисел и , также имеет нормальное распределение со средним и стандартным отклонением . То есть семейство нормальных распределений замкнуто относительно линейных преобразований .
Поскольку это масштабированный и сдвинутый квадрат стандартной нормальной переменной, он распределяется как масштабированная и сдвинутая переменная хи-квадрат .
Операции над двумя независимыми нормальными переменными
Если и являются двумя независимыми нормальными случайными величинами со средними значениями и стандартными отклонениями , то их сумма также будет нормально распределена, [доказательство] со средним значением и дисперсией .
В частности, если и являются независимыми нормальными отклонениями с нулевым средним значением и дисперсией , то и также являются независимыми и нормально распределенными с нулевым средним значением и дисперсией . Это частный случай поляризационного тождества . [39]
Если , — два независимых нормальных отклонения со средним значением и отклонением , и , — произвольные действительные числа, то переменная
также нормально распределяется со средним значением и отклонением . Отсюда следует, что нормальное распределение устойчиво (с показателем ).
Если , являются нормальными распределениями, то их нормализованное среднее геометрическое является нормальным распределением с и (см. здесь визуализацию).
Операции над двумя независимыми стандартными нормальными переменными
Если и являются двумя независимыми стандартными нормальными случайными величинами со средним значением 0 и дисперсией 1, то
Их сумма и разность распределяются нормально со средним нулевым значением и дисперсией два: .
Если , являются независимыми стандартными нормальными случайными величинами, то отношение их нормированных сумм квадратов будет иметь F-распределение с ( n , m ) степенями свободы: [43]
Операции с несколькими коррелирующими нормальными переменными
Квадратичная форма нормального вектора, то есть квадратичная функция нескольких независимых или коррелированных нормальных переменных, является обобщенной переменной хи-квадрат .
Действия над функцией плотности
Расщепленное нормальное распределение наиболее четко определяется с точки зрения объединения масштабированных участков функций плотности различных нормальных распределений и изменения масштаба плотности для интегрирования в одну. Усеченное нормальное распределение получается в результате изменения масштаба части одной функции плотности.
Бесконечная делимость и теорема Крамера
Для любого положительного целого числа любое нормальное распределение со средним значением и дисперсией представляет собой распределение суммы независимых нормальных отклонений, каждое из которых имеет среднее значение и дисперсию . Это свойство называется бесконечной делимостью . [44]
И наоборот, если и являются независимыми случайными величинами и их сумма имеет нормальное распределение, то обе и должны быть нормальными отклонениями. [45]
Этот результат известен как теорема Крамера о разложении и эквивалентен утверждению, что свертка двух распределений является нормальной тогда и только тогда, когда оба распределения нормальны. Теорема Крамера подразумевает, что линейная комбинация независимых негауссовских переменных никогда не будет иметь точно нормальное распределение, хотя она может приближаться к нему сколь угодно близко. [31]
Теорема Бернштейна
Теорема Бернштейна утверждает, что если и независимы и и также независимы, то и X , и Y обязательно должны иметь нормальное распределение. [46] [47]
В более общем смысле, если являются независимыми случайными величинами, то две различные линейные комбинации и будут независимыми тогда и только тогда, когда все они нормальны и , где обозначает дисперсию . [46]
Расширения
Понятие нормального распределения, являющегося одним из наиболее важных распределений в теории вероятностей, вышло далеко за рамки стандартных рамок одномерного (то есть одномерного) случая (случай 1). Все эти расширения также называются нормальными или гауссовскими законами, поэтому существует определенная двусмысленность в названиях.
Многомерное нормальное распределение описывает закон Гаусса в k -мерном евклидовом пространстве . Вектор X ∈ R k называется многомерно нормально распределенным, если любая линейная комбинация его компонент Σк j =1a j X j имеет (одномерное) нормальное распределение. Дисперсия X представляет собой k×k симметричнуюположительно определенную матрицу V. Многомерное нормальное распределение является частным случаем эллиптических распределений . Таким образом, его локусы изоплотности в случае k = 2 представляют собой эллипсы , а в случае произвольного k — эллипсоиды .
Выпрямленное распределение Гаусса - исправленная версия нормального распределения, в которой все отрицательные элементы сброшены до 0.
Комплексное нормальное распределение имеет дело с комплексными нормальными векторами. Комплексный вектор X ∈ Ck называется нормальным, если его действительная и мнимая компоненты совместно обладают 2k - мерным многомерным нормальным распределением. Ковариационно-дисперсионная структура X описывается двумя матрицами: матрицей дисперсии Γ и матрицей отношений C .
Гауссовы процессы — это нормально распределенные случайные процессы . Их можно рассматривать как элементы некоторого бесконечномерного гильбертова пространства H и, таким образом, они являются аналогами многомерных нормальных векторов для случая k = ∞ . Случайный элемент h ∈ H называется нормальным, если для любой константы a ∈ H скалярное произведение ( a , h ) имеет (одномерное) нормальное распределение. Дисперсионную структуру такого гауссовского случайного элемента можно описать с помощью линейного ковариационного оператора K: H → H. Некоторые гауссовские процессы стали достаточно популярными, чтобы иметь собственные названия:
Случайная величина X имеет нормальное распределение, состоящее из двух частей, если она имеет распределение
где μ — среднее значение, а σ 1 и σ 2 — стандартные отклонения распределения слева и справа от среднего значения соответственно.
Среднее значение, дисперсия и третий центральный момент этого распределения были определены [48]
где E( X ), V( X ) и T( X ) — среднее значение, дисперсия и третий центральный момент соответственно.
Одним из основных практических применений закона Гаусса является моделирование эмпирических распределений множества различных случайных величин, встречающихся на практике. В таком случае возможным расширением будет более богатое семейство распределений, имеющее более двух параметров и, следовательно, способное более точно соответствовать эмпирическому распределению. Примеры таких расширений:
Распределение Пирсона — семейство вероятностных распределений с четырьмя параметрами, которые расширяют нормальный закон, включив в него различные значения асимметрии и эксцесса.
Обобщенное нормальное распределение , также известное как экспоненциальное степенное распределение, допускает хвосты распределения с более толстыми или более тонкими асимптотическим поведением.
Статистические выводы
Оценка параметров
Часто мы не знаем параметров нормального распределения, но вместо этого хотим их оценить . То есть, имея выборку из нормальной популяции, мы хотели бы узнать примерные значения параметров и . Стандартным подходом к этой проблеме является метод максимального правдоподобия , который требует максимизации логарифмической функции правдоподобия :
Взятие производных по и решение полученной системы условий первого порядка дает оценки максимального правдоподобия :
Дисперсия этой оценки равна µμ -элементу обратной информационной матрицы Фишера . Это означает, что оценка эффективна для конечной выборки . Практическое значение имеет тот факт, что стандартная ошибка пропорциональна , т. е. для уменьшения стандартной ошибки в 10 раз необходимо увеличить количество точек в выборке в 100 раз. Этот факт имеет практическое значение. широко используется при определении размера выборки для опросов общественного мнения и количества испытаний в симуляциях Монте-Карло .
Оценщик называется выборочной дисперсией , поскольку это дисперсия выборки ( ). На практике вместо оценщика часто используется другой оценщик . Эта другая оценка обозначается и также называется выборочной дисперсией , что представляет собой определенную двусмысленность в терминологии; его квадратный корень называется выборочным стандартным отклонением . Оценка отличается наличием ( n − 1) вместо n в знаменателе (так называемая поправка Бесселя ):
Разница между и становится пренебрежимо малой для больших n . Однако в конечных выборках мотивация использования заключается в том, что это несмещенная оценка основного параметра , тогда как она является смещенной. Кроме того, по теореме Лемана-Шеффе оценка является равномерно несмещенной с минимальной дисперсией ( UMVU ), [49] , что делает ее «лучшей» оценкой среди всех несмещенных. Однако можно показать, что смещенная оценка лучше, чем оценка с точки зрения критерия среднеквадратической ошибки (MSE). В конечных выборках оба и имеют масштабированное распределение хи-квадрат с ( n - 1) степенями свободы:
Первое из этих выражений показывает, что дисперсия равна , что несколько больше, чем σσ -элемент обратной информационной матрицы Фишера . Таким образом, не является эффективной оценкой для и более того, поскольку является UMVU, мы можем заключить, что эффективная оценка для конечной выборки не существует.
Применяя асимптотическую теорию, обе оценки и являются согласованными, то есть сходятся по вероятности к размеру выборки . Обе оценки также асимптотически нормальны:
В частности, обе оценки асимптотически эффективны для .
Доверительные интервалы
По теореме Кохрана для нормальных распределений выборочное среднее и выборочная дисперсия s2 независимы , а это означает , что не может быть никакой выгоды от рассмотрения их совместного распределения . Существует также обратная теорема: если в выборке выборочное среднее и выборочная дисперсия независимы, то выборка должна иметь нормальное распределение. Независимость между и s можно использовать для построения так называемой t-статистики :
Эта величина t имеет t-распределение Стьюдента с ( n − 1) степенями свободы и является вспомогательной статистикой (независимой от значения параметров). Инвертирование распределения этой t -статистики позволит нам построить доверительный интервал для μ ; [50] аналогично, инвертирование распределения χ 2 статистики s 2 даст нам доверительный интервал для σ 2 : [51]
где t k,p и χ2 к,пявляются p - ми квантилями t- и χ2 - распределений соответственно. Эти доверительные интервалы имеют уровень доверия 1 - α , что означает, что истинные значения µ и σ 2 выходят за пределы этих интервалов с вероятностью (или уровнем значимости ) α . На практике люди обычно принимают α = 5% , что приводит к доверительным интервалам 95%.
Приближенные формулы можно вывести из асимптотических распределений и s 2 :
Приближенные формулы становятся справедливыми при больших значениях n и более удобны для ручного расчета, поскольку стандартные нормальные квантили zα / 2 не зависят от n . В частности, наиболее популярное значение α = 5% приводит к | г 0,025 | = 1,96 .
Тесты на нормальность
Критерии нормальности оценивают вероятность того, что данный набор данных { x 1 , ..., x n } имеет нормальное распределение. Обычно нулевая гипотеза H 0 заключается в том, что наблюдения распределяются нормально с неопределенным средним значением µ и дисперсией σ 2 , в отличие от альтернативы H a , согласно которой распределение является произвольным. Для решения этой проблемы было разработано множество тестов (более 40). Наиболее известные из них представлены ниже:
Диагностические графики более интуитивно привлекательны, но в то же время субъективны, поскольку они полагаются на неформальное человеческое суждение при принятии или отклонении нулевой гипотезы.
График Q–Q , также известный как график нормальной вероятности или график ранкита , представляет собой график отсортированных значений из набора данных в сравнении с ожидаемыми значениями соответствующих квантилей из стандартного нормального распределения. То есть это график точек вида (Φ −1 ( p k ), x ( k ) ), где точки построения p k равны p k = ( k − α )/( n + 1 − 2 α ) и α — константа корректировки, которая может принимать любое значение от 0 до 1. Если нулевая гипотеза верна, нанесенные точки должны примерно лежать на прямой линии.
График P-P - аналогичен графику Q-Q, но используется гораздо реже. Этот метод заключается в нанесении точек (Φ( z ( k ) ), p k ), где . Для нормально распределенных данных этот график должен лежать на линии под углом 45° между (0, 0) и (1, 1).
Критерий Шапиро-Уилка : основан на том факте, что линия на графике Q-Q имеет наклон σ . Тест сравнивает оценку этого наклона методом наименьших квадратов со значением выборочной дисперсии и отклоняет нулевую гипотезу, если эти две величины значительно различаются.
Тесты, основанные на эмпирической функции распределения :
Байесовский анализ нормально распределенных данных осложняется множеством различных возможностей, которые можно учитывать:
Фиксированной величиной можно считать либо среднее значение, либо дисперсию, либо ни то, ни другое.
Когда дисперсия неизвестна, анализ можно проводить непосредственно с точки зрения дисперсии или с точки зрения точности , обратной дисперсии. Причина выражения формул с точки зрения точности состоит в том, что анализ большинства случаев упрощается.
Дополнительный набор случаев возникает в байесовской линейной регрессии , где в базовой модели предполагается, что данные нормально распределены, а к коэффициентам регрессии ставятся нормальные априорные значения . Итоговый анализ аналогичен базовым случаям независимых одинаково распределенных данных.
Следующая вспомогательная формула полезна для упрощения уравнений апостериорного обновления, которые в противном случае становятся довольно утомительными.
Это уравнение переписывает сумму двух квадратичных дробей по x , расширяя квадраты, группируя члены по x и дополняя квадрат . Обратите внимание на следующие сложные постоянные коэффициенты, связанные с некоторыми терминами:
Это показывает, что этот фактор можно рассматривать как результат ситуации, когда обратные величины a и b складываются напрямую, поэтому, чтобы объединить сами a и b , необходимо совершать возвратно-поступательные движения, складывать и снова возвращать результат, чтобы вернуться в оригинальные агрегаты. Именно такую операцию выполняет среднее гармоническое , поэтому неудивительно, что оно составляет половину среднего гармонического a и b .
Векторная форма
Аналогичную формулу можно записать для суммы двух векторных квадратиков: Если x , y , z — векторы длины k , а A и B — симметричные обратимые матрицы размера , то
Другими словами, он суммирует все возможные комбинации произведений пар элементов из x с отдельным коэффициентом для каждой. Кроме того, поскольку для любых недиагональных элементов A имеет значение только сумма , и нет потери общности, если предположить, что A симметричен . Более того, если A симметричен, то форма
Сумма отличий от среднего
Еще одна полезная формула выглядит следующим образом:
С известной дисперсией
Для набора iid нормально распределенных точек данных X размера n , где каждая отдельная точка x следует с известной дисперсией σ 2 , сопряженное априорное распределение также является нормально распределенным.
Это можно показать проще, переписав дисперсию как точность , т.е. используя τ = 1/σ 2 . Тогда если и поступим следующим образом.
Во-первых, функция правдоподобия (используя приведенную выше формулу для суммы отличий от среднего):
Далее действуем следующим образом:
В приведенном выше выводе мы использовали приведенную выше формулу для суммы двух квадратичных дробей и исключили все постоянные факторы, не включающие µ . Результатом является ядро нормального распределения со средним значением и точностью , т.е.
Это можно записать как набор байесовских уравнений обновления апостериорных параметров с точки зрения априорных параметров:
То есть, чтобы объединить n точек данных с общей точностью nτ (или, что эквивалентно, общей дисперсией n / σ2 ) и средним значением значений , получите новую общую точность, просто добавив общую точность данных к предыдущей общей точности, и сформировать новое среднее через средневзвешенное по точности , т.е. средневзвешенное среднее значение данных и предшествующее среднее значение, каждое из которых взвешено по соответствующей общей точности. Это имеет логический смысл, если рассматривать точность как показатель достоверности наблюдений: в распределении апостериорного среднего каждый из входных компонентов взвешивается по его достоверности, а достоверность этого распределения представляет собой сумму отдельных достоверностей. . (Для интуитивного понимания этого сравните выражение «целое больше суммы своих частей». Кроме того, учтите, что знание апостериорного происходит из комбинации знаний априорного и правдоподобия. , поэтому вполне логично, что мы более уверены в нем, чем в любом из его компонентов.)
Приведенная выше формула показывает, почему с точки зрения точности удобнее проводить байесовский анализ сопряженных априорных значений для нормального распределения. Апостериорная точность представляет собой просто сумму априорной точности и точности правдоподобия, а апостериорное среднее вычисляется посредством взвешенного по точности среднего значения, как описано выше. Те же самые формулы можно записать в терминах дисперсии, выполняя возвратно-поступательные движения со всеми точностью, что приводит к более уродливым формулам.
С неизвестным средним значением и неизвестной дисперсией
Для набора iid нормально распределенных точек данных X размера n , где каждая отдельная точка x следует с неизвестным средним значением µ и неизвестной дисперсией σ 2 , комбинированное (многомерное) сопряженное априорное значение помещается над средним значением и дисперсией, состоящее из нормально-обратного значения. -гамма-распределение . Логически это происходит следующим образом:
Из анализа случая с неизвестным средним значением, но известной дисперсией, мы видим, что уравнения обновления включают достаточную статистику , рассчитанную на основе данных, состоящих из среднего значения точек данных и общей дисперсии точек данных, вычисленных, в свою очередь, на основе известной дисперсии. разделить на количество точек данных.
Из анализа случая с неизвестной дисперсией, но известным средним значением, мы видим, что уравнения обновления включают достаточную статистику по данным, состоящую из количества точек данных и суммы квадратичных отклонений .
Имейте в виду, что значения апостериорного обновления служат априорным распределением при обработке дальнейших данных. Таким образом, мы должны логически думать о наших априорных значениях с точки зрения только что описанной достаточной статистики, сохраняя при этом в максимально возможной степени одну и ту же семантику.
Чтобы справиться со случаем, когда и среднее значение, и дисперсия неизвестны, мы могли бы разместить независимые априорные значения над средним значением и дисперсией с фиксированными оценками среднего среднего значения, общей дисперсии, количества точек данных, используемых для вычисления априорной дисперсии, и суммы квадратичных отклонений. . Однако обратите внимание, что на самом деле общая дисперсия среднего значения зависит от неизвестной дисперсии, а сумма квадратов отклонений, которая входит в априорную дисперсию (кажется), зависит от неизвестного среднего значения. На практике последняя зависимость относительно не важна: сдвиг фактического среднего значения смещает сгенерированные точки на равную величину, и в среднем квадраты отклонений останутся прежними. Однако это не относится к общей дисперсии среднего значения: по мере увеличения неизвестной дисперсии общая дисперсия среднего будет пропорционально увеличиваться, и мы хотели бы уловить эту зависимость.
Это предполагает, что мы создаем условное априорное значение среднего значения для неизвестной дисперсии с гиперпараметром, указывающим среднее значение псевдонаблюдений , связанных с априорным значением, и другим параметром, указывающим количество псевдонаблюдений. Это число служит параметром масштабирования дисперсии, позволяя контролировать общую дисперсию среднего значения относительно фактического параметра дисперсии. Априорное значение дисперсии также имеет два гиперпараметра: один определяет сумму квадратов отклонений псевдонаблюдений, связанных с априорным, а другой еще раз указывает количество псевдонаблюдений. Каждый из априорных значений имеет гиперпараметр, определяющий количество псевдонаблюдений, и в каждом случае он контролирует относительную дисперсию этого априорного значения. Они задаются как два отдельных гиперпараметра, так что дисперсию (т. е. достоверность) двух априорных значений можно контролировать отдельно.
Уравнения обновления могут быть выведены и выглядят следующим образом:
К соответствующему количеству псевдонаблюдений добавляется количество реальных наблюдений. Новый средний гиперпараметр снова представляет собой средневзвешенное значение, на этот раз взвешенное по относительному количеству наблюдений. Наконец, обновление аналогично случаю с известным средним значением, но в этом случае сумма квадратов отклонений берется относительно среднего значения наблюдаемых данных, а не истинного среднего значения, и в результате необходимо добавить новый член взаимодействия. чтобы позаботиться о дополнительном источнике ошибок, возникающем из-за отклонения между априорным и средним значением данных.
Доказательство
Предыдущие распределения
Таким образом, совместным приором является
Функция правдоподобия из приведенного выше раздела с известной дисперсией:
Записав это в терминах дисперсии, а не точности, мы получаем:
где
Следовательно, апостериорное (опуская гиперпараметры как обуславливающие факторы):
Другими словами, апостериорное распределение имеет форму произведения нормального распределения на обратное гамма-распределение по времени с параметрами, которые совпадают с приведенными выше уравнениями обновления.
Возникновение и применение
Возникновение нормального распределения в практических задачах можно условно разделить на четыре категории:
Точно нормальные распределения;
Приблизительно нормальные законы, например, когда такое приближение оправдано центральной предельной теоремой ; и
Распределения моделируются как нормальные: нормальное распределение представляет собой распределение с максимальной энтропией для заданного среднего значения и дисперсии.
Проблемы регрессии – нормальное распределение обнаруживается после того, как систематические эффекты были достаточно хорошо смоделированы.
Точная нормальность
Некоторые величины в физике распределяются нормально, как это впервые продемонстрировал Джеймс Клерк Максвелл . Примеры таких величин:
Положение частицы, испытывающей диффузию . Если изначально частица находится в конкретной точке (то есть ее распределение вероятностей — дельта-функция Дирака ), то по истечении времени t ее местоположение описывается нормальным распределением с дисперсией t , которое удовлетворяет уравнению диффузии . Если начальное местоположение задано определенной функцией плотности , то плотность в момент времени t представляет собой свертку g и нормальной функции плотности вероятности.
Приблизительная нормальность
Приблизительно нормальное распределение встречается во многих ситуациях, как это объясняется центральной предельной теоремой . Когда результат создается множеством небольших эффектов, действующих аддитивно и независимо , его распределение будет близко к нормальному. Нормальное приближение не будет действительным, если эффекты действуют мультипликативно (а не аддитивно) или если существует одно внешнее влияние, которое имеет значительно большую величину, чем остальные эффекты.
Тепловое излучение имеет распределение Бозе-Эйнштейна на очень коротких временных масштабах и нормальное распределение на более длительных временных масштабах из-за центральной предельной теоремы.
Предполагаемая нормальность
Я могу лишь признать появление нормальной кривой – лапласовой кривой ошибок – весьма ненормальным явлением. В некоторых дистрибутивах он примерно приближается к ; по этой причине, а также ввиду его прекрасной простоты, мы, возможно, можем использовать его в качестве первого приближения, особенно в теоретических исследованиях.
- Пирсон (1901)
Существуют статистические методы эмпирической проверки этого предположения; см. выше раздел «Тестирование нормальности».
В биологии логарифмы различных переменных имеют тенденцию иметь нормальное распределение, то есть они имеют тенденцию иметь логарифмически нормальное распределение (после разделения на мужские и женские субпопуляции), примеры включают:
Меры размера живой ткани (длина, высота, площадь кожи, вес); [52]
Длина инертных придатков (волос, когтей, ногтей, зубов) биологических особей в направлении роста ; предположительно, под эту категорию подпадает и толщина древесной коры;
Определенные физиологические измерения, такие как артериальное давление взрослых людей.
В финансах, в частности в модели Блэка-Шоулза , изменения логарифма обменных курсов, индексов цен и индексов фондового рынка считаются нормальными (эти переменные ведут себя как сложные проценты , а не как простые проценты, и поэтому являются мультипликативными). Некоторые математики, такие как Бенуа Мандельброт, утверждали, что лог-распределения Леви с тяжелыми хвостами были бы более подходящей моделью, в частности, для анализа обвалов фондового рынка . Использование предположения о нормальном распределении в финансовых моделях также подвергалось критике со стороны Нассима Николаса Талеба в его работах.
Ошибки измерений в физических экспериментах часто моделируются нормальным распределением. Такое использование нормального распределения не означает, что предполагается, что ошибки измерения имеют нормальное распределение, скорее, использование нормального распределения дает наиболее консервативные прогнозы, возможные, если известны только знания о среднем значении и дисперсии ошибок. [53]
При стандартизированном тестировании результаты могут иметь нормальное распределение, либо выбирая количество и сложность вопросов (как в тесте IQ ), либо преобразуя необработанные результаты теста в выходные баллы, подгоняя их к нормальному распределению. Например, традиционный диапазон SAT 200–800 основан на нормальном распределении со средним значением 500 и стандартным отклонением 100.
Джон Иоаннидис утверждал , что использование нормально распределенных стандартных отклонений в качестве стандартов для проверки результатов исследований оставляет непроверенными фальсифицируемые предсказания о явлениях, которые обычно не распределяются. Сюда относятся, например, явления, которые возникают только при наличии всех необходимых условий и одно не может быть заменой другого в виде сложения, и явления, которые не распределены случайным образом. Иоаннидис утверждает, что проверка, ориентированная на стандартное отклонение, создает ложную видимость достоверности гипотез и теорий, в которых некоторые, но не все фальсифицируемые прогнозы нормально распределены, поскольку часть фальсифицируемых прогнозов, против которых имеются доказательства, может, а в некоторых случаях, находится в ненормально распределенные части диапазона фальсифицируемых предсказаний, а также безосновательное отвержение гипотез, для которых ни одно из фальсифицируемых предсказаний обычно не распределяется так, как если бы они были нефальсифицируемы, тогда как на самом деле они делают фальсифицируемые предсказания. Иоаннидис утверждает, что многие случаи принятия взаимоисключающих теорий как подтвержденные исследовательскими журналами вызваны неспособностью журналов принять эмпирические фальсификации предсказаний с ненормально распределенным распределением, а не потому, что взаимоисключающие теории верны, чего они не могут сделать. быть, хотя две взаимоисключающие теории могут быть как неправильными, так и третья правильной. [55]
Вычислительные методы
Генерация значений из нормального распределения
В компьютерном моделировании, особенно в приложениях метода Монте-Карло , часто желательно генерировать значения, которые имеют нормальное распределение. Все перечисленные ниже алгоритмы генерируют стандартные нормальные отклонения, поскольку N ( μ , σ2 ) может быть сгенерировано как X = μ + σZ , где Z — стандартное нормальное значение . Все эти алгоритмы полагаются на наличие генератора случайных чисел U , способного генерировать однородные случайные величины.
Самый простой метод основан на свойстве преобразования интеграла вероятности : если U распределено равномерно на (0,1), то Φ −1 ( U ) будет иметь стандартное нормальное распределение. Недостатком этого метода является то, что он основан на вычислении пробит-функции Φ −1 , что невозможно выполнить аналитически. Некоторые приближенные методы описаны у Харта (1968) и в статье erf . Вичура предлагает быстрый алгоритм вычисления этой функции с точностью до 16 десятичных знаков [56] , который используется R для вычисления случайных величин нормального распределения.
Простой в программировании приближенный подход , основанный на центральной предельной теореме, заключается в следующем: сгенерируйте 12 равномерных отклонений U (0,1), сложите их все и вычтите 6 – полученная случайная величина будет иметь примерно стандартное нормальное распределение. По правде говоря, распределение будет Ирвина-Холла , которое представляет собой 12-секционное полиномиальное приближение одиннадцатого порядка к нормальному распределению. Это случайное отклонение будет иметь ограниченный диапазон (-6, 6). [57] Обратите внимание, что при истинно нормальном распределении только 0,00034% всех выборок выходят за пределы ±6σ.
Метод Бокса – Мюллера использует два независимых случайных числа U и V , равномерно распределенных по (0,1). Тогда две случайные величины X и Y
оба будут иметь стандартное нормальное распределение и будут независимыми . Эта формулировка возникает потому, что для двумерного нормального случайного вектора ( X , Y ) квадрат нормы X 2 + Y 2 будет иметь распределение хи-квадрат с двумя степенями свободы, которое представляет собой легко генерируемую экспоненциальную случайную величину , соответствующую величине −2. ln( U ) в этих уравнениях; и угол равномерно распределен по кругу, выбранному случайной величиной V .
Полярный метод Марсальи представляет собой модификацию метода Бокса – Мюллера, которая не требует вычисления функций синуса и косинуса. В этом методе U и V извлекаются из равномерного (-1,1) распределения, а затем вычисляется S = U 2 + V 2 . Если S больше или равно 1, метод начинается заново, в противном случае две величины
возвращаются. Опять же, X и Y — независимые стандартные нормальные случайные величины.
Метод отношений [58] является методом отбраковки. Алгоритм действует следующим образом:
Сгенерируйте два независимых равномерных отклонения U и V ;
Вычислить X = √ 8/ e ( V - 0,5)/ U ;
Необязательно: если X 2 ≤ 5 − 4 e 1/4 U , то принять X и завершить алгоритм;
Необязательно: если X 2 ≥ 4 e −1,35 / U + 1,4, то отклоните X и начните заново с шага 1;
Если X 2 ≤ −4 ln U , тогда примите X , в противном случае начните алгоритм заново.
Два дополнительных шага позволяют в большинстве случаев избежать вычисления логарифма на последнем шаге. Эти шаги можно значительно улучшить [59] , чтобы логарифм вычислялся редко.
Алгоритм зиккурата [60] быстрее, чем преобразование Бокса-Мюллера, но при этом точен. Примерно в 97% всех случаев он использует только два случайных числа: одно случайное целое и одно случайное равномерное, одно умножение и проверку if. Лишь в 3% случаев, когда комбинация этих двух факторов выходит за рамки «ядра зиккурата» (своего рода отбраковочная выборка с использованием логарифмов), приходится использовать экспоненту и более однородные случайные числа.
Целочисленную арифметику можно использовать для выборки из стандартного нормального распределения. [61] Этот метод точен в том смысле, что он удовлетворяет условиям идеального приближения ; [62] , т. е. это эквивалентно выборке действительного числа из стандартного нормального распределения и округлению его до ближайшего представимого числа с плавающей запятой.
Существует также некоторое исследование [63] связи между быстрым преобразованием Адамара и нормальным распределением, поскольку преобразование использует только сложение и вычитание, а по центральной предельной теореме случайные числа практически из любого распределения преобразуются в нормальное распределение. В этом отношении серию преобразований Адамара можно комбинировать со случайными перестановками, чтобы превратить произвольные наборы данных в нормально распределенные данные.
Численные аппроксимации нормальной кумулятивной функции распределения и нормальной функции квантиля
Зелен и Северо (1964) дают аппроксимацию Φ( x ) для x > 0 с абсолютной ошибкой | ε ( Икс ) | < 7,5·10 −8 (алгоритм 26.2.17):
где φ ( x ) — стандартная нормальная функция плотности вероятности, а b 0 = 0,2316419, b 1 = 0,319381530, b 2 = -0,356563782, b 3 = 1,781477937, b 4 = -1,821255978, b 5 = 1,330274429.
Харт (1968) перечисляет несколько десятков аппроксимаций – с помощью рациональных функций, с экспонентами или без них – для функции erfc() . Его алгоритмы различаются по степени сложности и получаемой точности, максимальная абсолютная точность составляет 24 цифры. Алгоритм Уэста (2009) сочетает в себе алгоритм Харта 5666 с аппроксимацией непрерывной дроби в хвосте, чтобы обеспечить быстрый алгоритм вычислений с точностью до 16 цифр.
Коди (1969), вспомнив, что решение Hart68 не подходит для erf, дает решение как для erf, так и для erfc с максимальной границей относительной ошибки с помощью рационального приближения Чебышева .
Марсалья (2004) предложил простой алгоритм [примечание 1] , основанный на разложении в ряд Тейлора.
для вычисления Φ( x ) с произвольной точностью. Недостатком этого алгоритма является сравнительно медленное время расчета (например, для вычисления функции с точностью до 16 знаков при x = 10 требуется более 300 итераций ).
Научная библиотека GNU вычисляет значения стандартной нормальной кумулятивной функции распределения, используя алгоритмы Харта и аппроксимации с помощью полиномов Чебышева .
Диа (2023) предлагает следующую аппроксимацию с максимальной относительной ошибкой меньше, чем по абсолютной величине: для и для ,
Шор (1982) представил простые аппроксимации, которые могут быть включены в модели стохастической оптимизации инженерных и эксплуатационных исследований, такие как проектирование надежности и анализ запасов. Обозначая p = Φ( z ) , простейшим приближением для функции квантиля является:
Это приближение дает для z максимальную абсолютную ошибку 0,026 (для 0,5 ≤ p ≤ 0,9999 , что соответствует 0 ≤ z ≤ 3,719 ). Для p < 1/2 замените p на 1 − p и поменяйте знак. Другое приближение, несколько менее точное, — это однопараметрическое приближение:
Последнее послужило для получения простой аппроксимации интеграла потерь нормального распределения, определяемого формулой
Это приближение особенно точно для правого дальнего хвоста (максимальная ошибка 10 -3 для z≥1,4). Высокоточные аппроксимации кумулятивной функции распределения, основанные на методологии моделирования отклика (RMM, Shore, 2011, 2012), показаны в Shore (2005).
Еще несколько приближений можно найти по адресу: Функция ошибки#Приближение элементарными функциями . В частности, небольшая относительная погрешность во всей области для кумулятивной функции распределения, а также функции квантиля достигается с помощью явно обратимой формулы Сергея Виницкого в 2008 году.
История
Разработка
Некоторые авторы [64] [65] приписывают заслугу открытия нормального распределения де Муавра , который в 1738 году [примечание 2] опубликовал во втором издании своей «Доктрины шансов» исследование коэффициентов биномиального разложения ( а + б ) п . Де Муавр доказал, что средний член в этом разложении имеет приблизительную величину , и что «Если m или1/2n — бесконечно большая Величина, то логарифм отношения, которое Терм, отстоящий от середины на Интервал ℓ , имеет к среднему Терму, равен .» [66] Хотя эту теорему можно интерпретировать как первое неясное выражение для нормальный закон вероятности, Стиглер указывает, что сам де Муавр не интерпретировал свои результаты как нечто большее, чем приближенное правило для биномиальных коэффициентов, и, в частности, у Муавра отсутствовало понятие функции плотности вероятности [67] .
В 1823 году Гаусс опубликовал свою монографию « Theoria Combinis Observeum erroribus minimis obnoxiae » , где, среди прочего, он вводит несколько важных статистических понятий, таких как метод наименьших квадратов , метод максимального правдоподобия и нормальное распределение . Гаусс использовал M , M ′ , M ", ... для обозначения измерений некоторой неизвестной величины V и искал наиболее вероятную оценку этой величины: ту, которая максимизирует вероятность φ ( M − V ) · φ ( M ′ − V ) · φ ( M » − V ) · ... получения наблюдаемых экспериментальных результатов. В его обозначениях φΔ — функция плотности вероятности ошибок измерения величины Δ. Не зная, что такое функция φ , Гаусс требует, чтобы его метод сводился к известному ответу: среднему арифметическому измеренных величин. [примечание 3] Исходя из этих принципов, Гаусс демонстрирует, что единственным законом, который рационализирует выбор среднего арифметического в качестве оценки параметра местоположения, является нормальный закон ошибок: [68]
Хотя Гаусс был первым, кто предложил закон нормального распределения, Лаплас внес значительный вклад. [примечание 4] Именно Лаплас впервые поставил проблему агрегирования нескольких наблюдений в 1774 году, [70] хотя его собственное решение привело к лапласовскому распределению . Именно Лаплас впервые вычислил значение интеграла ∫ e − t 2 dt = √ π в 1782 году, предоставив константу нормировки для нормального распределения. [71] Наконец, именно Лаплас в 1810 году доказал и представил академии фундаментальную центральную предельную теорему , в которой подчеркивалась теоретическая важность нормального распределения. [72]
Интересно отметить, что в 1809 году американский математик ирландского происхождения Роберт Адрейн опубликовал два проницательных, но ошибочных вывода нормального закона вероятности одновременно и независимо от Гаусса. [73] Его работы оставались в значительной степени незамеченными научным сообществом, пока в 1871 году они не были эксгумированы Аббе . [74]
В середине XIX века Максвелл продемонстрировал, что нормальное распределение является не только удобным математическим инструментом, но также может встречаться в природных явлениях: [75] Число частиц, скорость которых, разрешенная в определенном направлении, лежит между x и x . + dx это
Именование
Сегодня эта концепция обычно известна на английском языке как нормальное распределение или распределение Гаусса . Другие менее распространенные названия включают распределение Гаусса, распределение Лапласа-Гаусса, закон ошибок, закон возможности ошибок, второй закон Лапласа и закон Гаусса.
Сам Гаусс, по-видимому, придумал этот термин в отношении «нормальных уравнений», используемых в его приложениях, при этом «нормальный» имеет техническое значение «ортогональный», а не «обычный». [76] Однако к концу XIX века некоторые авторы [примечание 5] начали использовать название « нормальное распределение », где слово «нормальное» использовалось как прилагательное – этот термин теперь рассматривается как отражение того факта, что такое распределение считалось типичным, распространенным и, следовательно, нормальным. Пирс (один из этих авторов) однажды определил понятие «нормально» следующим образом: «...«норма» — это не среднее (или какое-либо другое среднее значение) того, что происходит на самом деле, а то, что произойдет в долгосрочной перспективе. при определенных обстоятельствах». [77] Примерно на рубеже 20-го века Пирсон популяризировал термин «нормальный» как обозначение этого распределения. [78]
Много лет назад я назвал кривую Лапласа-Гаусса нормальной кривой, это название, хотя оно и избегает международного вопроса о приоритете, имеет тот недостаток, что заставляет людей поверить, что все другие распределения частот в том или ином смысле являются «ненормальными».
- Пирсон (1920)
Кроме того, именно Пирсон первым записал распределение в терминах стандартного отклонения σ в современных обозначениях. Вскоре после этого, в 1915 году, Фишер добавил в формулу нормального распределения параметр местоположения, выразив его так, как он пишется сейчас:
Термин «стандартное нормальное», обозначающий нормальное распределение с нулевым средним значением и единичной дисперсией, стал широко использоваться примерно в 1950-х годах, появившись в популярных учебниках П. Г. Хоэля (1947) « Введение в математическую статистику» и А. М. Муда (1950) «Введение в математическую статистику» . Теория статистики . [79]
^ Де Муавр впервые опубликовал свои выводы в 1733 году в брошюре Approximatio ad Summam Terminorum Binomii ( a + b ).нв Seriem Expansi , предназначенном только для частного обращения. Но только в 1738 году он обнародовал свои результаты. Оригинальная брошюра переиздавалась несколько раз, см., например, Walker (1985).
^ «Было принято считать аксиомой гипотезу о том, что если какая-либо величина была определена путем нескольких прямых наблюдений, выполненных при одинаковых обстоятельствах и с одинаковой тщательностью, то среднее арифметическое наблюдаемых значений дает наиболее вероятное значение, если не строго, но, по крайней мере, почти так, чтобы всегда было безопаснее придерживаться его». - Гаусс (1809, раздел 177)
^ «Мой обычай называть кривую кривой Гаусса-Лапласа или нормальной кривой спасает нас от пропорционального распределения заслуг открытия между двумя великими астрономами-математиками». цитата Пирсона (1905, стр. 189)
^ Помимо тех, которые специально упомянуты здесь, такое использование встречается в работах Пирса , Гальтона (Galton (1889, глава V)) и Lexis (Lexis (1878), Rohrbasser & Véron (2003)) c. 1875 г. [ нужна ссылка ]
Рекомендации
Цитаты
^ Нортон, Мэтью; Хохлов, Валентин; Урясев, Стэн (2019). «Расчет CVaR и bPOE для распространенных распределений вероятностей с применением для оптимизации портфеля и оценки плотности» (PDF) . Анналы исследования операций . Спрингер. 299 (1–2): 1281–1315. arXiv : 1811.11301 . дои : 10.1007/s10479-019-03373-1. S2CID 254231768 . Проверено 27 февраля 2023 г.
^ Нормальное распределение, Энциклопедия психологии Гейла
^ Казелла и Бергер (2001, стр. 102)
^ Лион, А. (2014). Почему нормальное распределение нормально?, Британский журнал философии науки.
^ Хорхе, Носедал; Стефан, Дж. Райт (2006). Численная оптимизация (2-е изд.). Спрингер. п. 249. ИСБН978-0387-30303-1.
^ ab «Нормальное распределение». www.mathsisfun.com . Проверено 15 августа 2020 г.
^ Стиглер (1982)
^ Гальперин, Хартли и Хоэл (1965, пункт 7)
^ Макферсон (1990, стр. 110)
^ Бернардо и Смит (2000, стр. 121)
^ Скотт, Клейтон; Новак, Роберт (7 августа 2003 г.). «Q-функция». Связи .
↑ Барак, Охад (6 апреля 2006 г.). «Функция Q и функция ошибки» (PDF) . Тель-Авивский университет. Архивировано из оригинала (PDF) 25 марта 2009 г.
↑ Ваарт, А.В. ван дер (13 октября 1998 г.). Асимптотическая статистика. Издательство Кембриджского университета. дои : 10.1017/cbo9780511802256. ISBN978-0-511-80225-6.
^ Обложка, Томас М.; Томас, Джой А. (2006). Элементы теории информации . Джон Уайли и сыновья. п. 254. ИСБН9780471748816.
^ Пак, Сон Ю.; Бера, Анил К. (2009). «Модель условной гетероскедастичности с максимальной энтропией авторегрессии» (PDF) . Журнал эконометрики . 150 (2): 219–230. CiteSeerX 10.1.1.511.9750 . doi :10.1016/j.jeconom.2008.12.014. Архивировано из оригинала (PDF) 7 марта 2016 года . Проверено 2 июня 2011 г.
^ Гири RC (1936) Распределение «коэффициента Стьюдента для ненормальных выборок». Приложение к журналу Королевского статистического общества 3 (2): 178–184.
^ Уильямс, Дэвид (2001). Взвешивание шансов: курс вероятности и статистики (перепечатано под ред.). Кембридж [ua]: Cambridge Univ. Нажимать. стр. 197–199. ISBN978-0-521-00618-7.
^ Смит, Хосе М. Бернардо; Адриан Ф.М. (2000). Байесовская теория (Переиздание). Чичестер [ua]: Уайли. стр. 209, 366. ISBN.978-0-471-49464-5.{{cite book}}: CS1 maint: multiple names: authors list (link)
^ О'Хаган, А. (1994) Продвинутая теория статистики Кендалла, Том 2B, Байесовский вывод , Эдвард Арнольд. ISBN 0-340-52922-9 (раздел 5.40)
^ аб Брык (1995, стр. 35)
^ UIUC, Лекция 21. Многомерное нормальное распределение, 21.6: «Индивидуально гауссово против совместно гауссово».
^ Эдвард Л. Мельник и Аарон Тененбейн, «Неверные спецификации нормального распределения», The American Statistician , том 36, номер 4, ноябрь 1982 г., страницы 372–373
^ "Кульбак Лейблер (KL) Расстояние двух нормальных (гауссовских) распределений вероятностей" . Allisons.org . 5 декабря 2007 года . Проверено 3 марта 2017 г.
↑ Джордан, Майкл И. (8 февраля 2010 г.). «Stat260: Байесовское моделирование и вывод: сопряженный априор для нормального распределения» (PDF) .
^ Амари и Нагаока (2000)
^ «Нормальное приближение к распределению Пуассона». Stat.ucla.edu . Проверено 3 марта 2017 г.
^ Аб Дас, Абхранил (2021). «Метод интеграции и классификации нормальных распределений». Журнал видения . 21 (10): 1. arXiv : 2012.14331 . дои : 10.1167/jov.21.10.1. ПМЦ 8419883 . ПМИД 34468706.
^ Брик (1995, стр. 27)
^ Вайсштейн, Эрик В. «Нормальное распространение продукции». Математический мир . wolfram.com.
^ Басу, Д.; Лаха, Р.Г. (1954). «О некоторых характеристиках нормального распределения». Санкхья . 13 (4): 359–62. ISSN 0036-4452. JSTOR 25048183.
^ Леманн, EL (1997). Проверка статистических гипотез (2-е изд.). Спрингер. п. 199. ИСБН978-0-387-94919-2.
^ Патель и Рид (1996, [2.3.6])
^ Галамбос и Симонелли (2004, теорема 3.5)
^ Аб Лукач и Кинг (1954)
^ Куайн, член парламента (1993). «О трёх характеристиках нормального распределения». Вероятность и математическая статистика . 14 (2): 257–263.
^ Джон, С. (1982). «Трехпараметрическое двухчастное нормальное семейство распределений и его аппроксимация». Коммуникации в статистике - теория и методы . 11 (8): 879–885. дои : 10.1080/03610928208828279.
^ Аб Кришнамурти (2006, стр. 127)
^ Кришнамурти (2006, стр. 130)
^ Кришнамурти (2006, стр. 133)
^ Хаксли (1932)
^ Джейнс, Эдвин Т. (2003). Теория вероятностей: логика науки. Издательство Кембриджского университета. стр. 592–593. ISBN9780521592710.
^ Остербан, Роланд Дж. (1994). «Глава 6: Частотный и регрессионный анализ гидрологических данных» (PDF) . В Ритземе, Хенк П. (ред.). Принципы и применение дренажа, Публикация 16 (второе исправленное издание). Вагенинген, Нидерланды: Международный институт мелиорации и улучшения земель (ILRI). стр. 175–224. ISBN978-90-70754-33-4.
^ Почему большинство опубликованных результатов исследований ложны, Джон П.А. Иоаннидис, 2005 г.
^ Вичура, Майкл Дж. (1988). «Алгоритм AS241: Процентные точки нормального распределения». Прикладная статистика . 37 (3): 477–84. дои : 10.2307/2347330. JSTOR 2347330.
^ Джонсон, Коц и Балакришнан (1995, уравнение (26.48))
^ Киндерман и Монахан (1977)
^ Лева (1992)
^ Марсалья и Цанг (2000)
^ Карни (2016)
^ Монахан (1985, раздел 2)
^ Уоллес (1996)
^ Джонсон, Коц и Балакришнан (1994, стр. 85)
^ Ле Кам и Ло Ян (2000, стр. 74)
^ Де Муавр, Авраам (1733), Следствие I - см. Уокер (1985, стр. 77).
^ Стиглер (1986, стр. 76)
^ Гаусс (1809, раздел 177)
^ Гаусс (1809, раздел 179)
^ Лаплас (1774, Задача III)
^ Пирсон (1905, стр. 189)
^ Стиглер (1986, стр. 144)
^ Стиглер (1978, стр. 243)
^ Стиглер (1978, стр. 244)
^ Максвелл (1860, стр. 23)
^ Джейнс, Эдвин Дж.; Теория вероятностей: Логика науки , Гл. 7.
^ Пирс, Чарльз С. (ок. 1909 г.), Сборник статей, т. 6, параграф 327.
^ Сунь, Цзинчао; Конг, Майинг; Пал, Субхадип (22 июня 2021 г.). «Модифицированное полунормальное распределение: свойства и эффективная схема выборки». Коммуникации в статистике - теория и методы . 52 (5): 1591–1613. дои : 10.1080/03610926.2021.1934700. ISSN 0361-0926. S2CID 237919587.
Источники
Олдрич, Джон; Миллер, Джефф. «Самые ранние использования символов в теории вероятности и статистике».
Олдрич, Джон; Миллер, Джефф. «Самые ранние известные варианты использования некоторых математических слов».В частности, записи «Колоколообразная и колоколообразная кривая», «Нормальное (распределение)», «Гауссово» и «Ошибка, закон ошибок, теория ошибок и т. д.».
Амари, Сюн-ичи; Нагаока, Хироши (2000). Методы информационной геометрии . Издательство Оксфордского университета. ISBN 978-0-8218-0531-2.
Бернардо, Хосе М.; Смит, Адриан FM (2000). Байесовская теория . Уайли. ISBN 978-0-471-49464-5.
Брик, Влодзимеж (1995). Нормальное распределение: характеристики с приложениями . Спрингер-Верлаг. ISBN 978-0-387-97990-8.
Казелла, Джордж; Бергер, Роджер Л. (2001). Статистический вывод (2-е изд.). Даксбери. ISBN 978-0-534-24312-8.
Фань, Цзяньцин (1991). «Об оптимальных скоростях сходимости для непараметрических задач деконволюции». Анналы статистики . 19 (3): 1257–1272. дои : 10.1214/aos/1176348248 . JSTOR 2241949.
Гальтон, Фрэнсис (1889). Естественное наследование (PDF) . Лондон, Великобритания: Ричард Клей и сыновья.
Галамбос, Янош; Симонелли, Итало (2004). Произведения случайных величин: приложения к задачам физики и арифметическим функциям . Марсель Деккер, Inc. ISBN 978-0-8247-5402-0.
Гаусс, Кароло Фридерико (1809). Theoria motvs corporvm coelestivm insectionibvs conicis Solemambiivm [ Теория движения небесных тел, движущихся вокруг Солнца в конических сечениях ] (на латыни). Хамбврги, Свмтибс Ф. Пертес и И.Х. Бессер. Английский перевод.
Гальперин, Макс; Хартли, Герман О.; Хоэл, Пол Г. (1965). «Рекомендуемые стандарты статистических символов и обозначений. Комитет COPSS по символам и обозначениям». Американский статистик . 19 (3): 12–14. дои : 10.2307/2681417. JSTOR 2681417.
Хаксли, Джулиан С. (1932). Проблемы относительного роста . Лондон. ISBN 978-0-486-61114-3. ОСЛК 476909537.
Джонсон, Норман Л.; Коц, Сэмюэл; Балакришнан, Нараянасвами (1994). Непрерывные одномерные распределения, Том 1 . Уайли. ISBN 978-0-471-58495-7.
Джонсон, Норман Л.; Коц, Сэмюэл; Балакришнан, Нараянасвами (1995). Непрерывные одномерные распределения, Том 2 . Уайли. ISBN 978-0-471-58494-0.
Карни, CFF (2016). «Выборка точно из нормального распределения». Транзакции ACM в математическом программном обеспечении . 42 (1): 3:1–14. arXiv : 1303.6257 . дои : 10.1145/2710016. S2CID 14252035.
Киндерман, Альберт Дж.; Монахан, Джон Ф. (1977). «Компьютерная генерация случайных величин с использованием соотношения равномерных отклонений». Транзакции ACM в математическом программном обеспечении . 3 (3): 257–260. дои : 10.1145/355744.355750 . S2CID 12884505.
Кришнамурти, Калимуту (2006). Справочник по статистическим распределениям с приложениями . Чепмен и Холл/CRC. ISBN 978-1-58488-635-8.
Краскал, Уильям Х.; Стиглер, Стивен М. (1997). Спенсер, Брюс Д. (ред.). Нормативная терминология: «нормальный» в статистике и других источниках . Статистика и государственная политика. Издательство Оксфордского университета. ISBN 978-0-19-852341-3.
Лаплас, Пьер-Симон де (1774). «Мемуар о вероятностях причин, связанных с событиями». Mémoires de l'Académie Royale des Sciences de Paris (Savants étrangers), Том 6 : 621–656.Перевод Стивена М. Стиглера в журнале Statistical Science 1 (3), 1986: JSTOR 2245476.
Ле Кам, Люсьен; Ло Ян, Грейс (2000). Асимптотика в статистике: некоторые основные понятия (второе изд.). Спрингер. ISBN 978-0-387-95036-5.
Лева, Джозеф Л. (1992). «Быстрый нормальный генератор случайных чисел» (PDF) . Транзакции ACM в математическом программном обеспечении . 18 (4): 449–453. CiteSeerX 10.1.1.544.5806 . дои : 10.1145/138351.138364. S2CID 15802663. Архивировано из оригинала (PDF) 16 июля 2010 г.
Лексис, Вильгельм (1878). «О нормальной продолжительности человеческой жизни и теории стабильности статистических отношений». Анналы международной демографии . Париж. II : 447–462.
Макферсон, Глен (1990). Статистика в научных исследованиях: ее основы, применение и интерпретация . Спрингер-Верлаг. ISBN 978-0-387-97137-7.
Марсалья, Джордж ; Цанг, Вай Ван (2000). «Метод Зиккурата для генерации случайных величин». Журнал статистического программного обеспечения . 5 (8). дои : 10.18637/jss.v005.i08 .
Марсалья, Джордж (2004). «Оценка нормального распределения». Журнал статистического программного обеспечения . 11 (4). дои : 10.18637/jss.v011.i04 .
Максвелл, Джеймс Клерк (1860). «V. Иллюстрации динамической теории газов. — Часть I: О движении и столкновениях идеально упругих сфер». Философский журнал . Ряд 4. 19 (124): 19–32. дои : 10.1080/14786446008642818.
Монахан, Дж. Ф. (1985). «Точность генерации случайных чисел». Математика вычислений . 45 (172): 559–568. doi : 10.1090/S0025-5718-1985-0804945-X .
Патель, Джагдиш К.; Прочтите, Кэмпбелл Б. (1996). Справочник по нормальному распределению (2-е изд.). ЦРК Пресс. ISBN 978-0-8247-9342-5.
Пирсон, Карл (1901). «О линиях и плоскостях, наиболее близких к системам точек в пространстве» (PDF) . Философский журнал . 6. 2 (11): 559–572. дои : 10.1080/14786440109462720. S2CID 125037489.
Пирсон, Карл (1905). «'Das Fehlergesetz und seine Verallgemeinerungen durch Fechner und Pearson'. Ответ». Биометрика . 4 (1): 169–212. дои : 10.2307/2331536. JSTOR 2331536.
Пирсон, Карл (1920). «Заметки по истории корреляции». Биометрика . 13 (1): 25–45. дои : 10.1093/biomet/13.1.25. JSTOR 2331722.
Рорбассер, Жан-Марк; Верон, Жак (2003). «Лексика Вильгельма: нормальная продолжительность жизни как выражение «природы вещей»». Население . 58 (3): 303–322. дои : 10.3917/папа.303.0303 .
Шор, Х. (1982). «Простые приближения для обратной кумулятивной функции, функции плотности и интеграла потерь нормального распределения». Журнал Королевского статистического общества. Серия C (Прикладная статистика) . 31 (2): 108–114. дои : 10.2307/2347972. JSTOR 2347972.
Шор, Х. (2005). «Точные аппроксимации на основе RMM для CDF нормального распределения». Коммуникации в статистике – теория и методы . 34 (3): 507–513. doi : 10.1081/sta-200052102. S2CID 122148043.
Стиглер, Стивен М. (1978). «Математическая статистика в ранних государствах». Анналы статистики . 6 (2): 239–265. дои : 10.1214/aos/1176344123 . JSTOR 2958876.
Стиглер, Стивен М. (1982). «Скромное предложение: новый стандарт нормальности». Американский статистик . 36 (2): 137–138. дои : 10.2307/2684031. JSTOR 2684031.
Стиглер, Стивен М. (1986). История статистики: измерение неопределенности до 1900 года . Издательство Гарвардского университета. ISBN 978-0-674-40340-6.
Стиглер, Стивен М. (1999). Статистика в таблице . Издательство Гарвардского университета. ISBN 978-0-674-83601-3.
Уокер, Хелен М. (1985). «Де Муавр о законе нормальной вероятности» (PDF) . В Смите, Дэвид Юджин (ред.). Справочник по математике . Дувр. ISBN 978-0-486-64690-9.
Уоллес, CS (1996). «Быстрые псевдослучайные генераторы для нормальных и экспоненциальных переменных». Транзакции ACM в математическом программном обеспечении . 22 (1): 119–127. дои : 10.1145/225545.225554 . S2CID 18514848.