stringtranslate.com

Биномиальное распределение

Биномиальное распределение для p = 0,5
с n и k , как в треугольнике Паскаля.

Вероятность того, что шар в ящике Гальтона с 8 слоями ( n = 8) попадет в центральный ящик ( k = 4) , равна 70/256 .

В теории вероятностей и статистике биномиальное распределение с параметрами n и p — это дискретное распределение вероятностей числа успехов в последовательности из n независимых экспериментов , каждый из которых задает вопрос типа «да-нет» , и каждый имеет свой собственный булевский результат : успех (с вероятностью p ) или неудача (с вероятностью q = 1- p ). Одиночный эксперимент с успехом/неудачей также называется испытанием Бернулли или экспериментом Бернулли, а последовательность результатов называется процессом Бернулли ; для одного испытания, т. е. n = 1 , биномиальное распределение является распределением Бернулли . Биномиальное распределение является основой для популярного биномиального теста статистической значимости . [1]

Биномиальное распределение часто используется для моделирования числа успехов в выборке размера n, взятой с заменой из популяции размера N. Если выборка осуществляется без замены, выборки не являются независимыми, и поэтому результирующее распределение является гипергеометрическим распределением , а не биномиальным. Однако для N , намного больших, чем n , биномиальное распределение остается хорошим приближением и широко используется.

Определения

Функция массы вероятности

В общем случае, если случайная величина X следует биномиальному распределению с параметрами n и p[0, 1] , мы записываем X ~ B ( n , p ) . Вероятность получения ровно k успехов в n независимых испытаниях Бернулли (с той же частотой p ) задается функцией массы вероятности :

для k = 0, 1, 2, ..., n , где

- биномиальный коэффициент , отсюда и название распределения. Формулу можно понять следующим образом: p k q n - k - вероятность получения последовательности из n испытаний Бернулли, в которой первые k испытаний являются «успехами», а оставшиеся (последние) n - k испытаний приводят к «неуспеху». Поскольку испытания независимы, а вероятности между ними остаются постоянными, любая последовательность из n испытаний с k успехами (и n - k неудачами) имеет одинаковую вероятность быть достигнутой (независимо от позиций успехов в последовательности). Такие последовательности существуют, поскольку биномиальный коэффициент подсчитывает количество способов выбора позиций k успехов среди n испытаний. Биномиальное распределение касается вероятности получения любой из этих последовательностей, то есть вероятность получения одной из них ( p k q n - k ) должна быть сложена раз, следовательно .

При создании справочных таблиц для вероятности биномиального распределения, как правило, таблица заполняется до n / 2 значений. Это связано с тем, что при k > n / 2 вероятность может быть рассчитана по ее дополнению как

Рассматривая выражение f ( k , n , p ) как функцию k , существует значение k , которое максимизирует его. Это значение k можно найти, вычислив

и сравнивая его с 1. Всегда существует целое число M , которое удовлетворяет [2]

f ( k , n , p ) монотонно возрастает при k < M и монотонно убывает при k > M , за исключением случая, когда ( n  + 1) p является целым числом. В этом случае есть два значения, для которых f максимальна: ( n + 1) p и ( n + 1) p - 1 . M является наиболее вероятным результатом (то есть наиболее вероятным, хотя это все еще может быть маловероятным в целом) испытаний Бернулли и называется модой .

Эквивалентно, . Взяв функцию пола , мы получаем M = пол( np ) . [примечание 1]

Пример

Предположим, что при подбрасывании несимметричной монеты выпадает орел с вероятностью 0,3. Вероятность увидеть ровно 4 орла при 6 подбрасываниях равна

Кумулятивная функция распределения

Кумулятивную функцию распределения можно выразить как:

где — «пол» под k , т.е. наибольшее целое число, меньшее или равное k .

Его также можно представить в терминах регуляризованной неполной бета-функции следующим образом: [3]

что эквивалентно кумулятивной функции распределения F -распределения : [ 4]

Ниже приведены некоторые замкнутые границы для кумулятивной функции распределения.

Характеристики

Ожидаемое значение и дисперсия

Если X ~ B ( n , p ) , то есть X — биномиально распределенная случайная величина, где n — общее число экспериментов, а p — вероятность того, что каждый эксперимент даст успешный результат, то ожидаемое значение X равно: [5 ]

Это следует из линейности ожидаемого значения, а также из того факта, что X представляет собой сумму n идентичных случайных величин Бернулли, каждая из которых имеет ожидаемое значение p . Другими словами, если являются идентичными (и независимыми) случайными величинами Бернулли с параметром p , то и

Дисперсия составляет :

Это аналогичным образом следует из того факта, что дисперсия суммы независимых случайных величин равна сумме дисперсий.

Высшие моменты

Первые 6 центральных моментов , определяемые как , задаются формулой

Нецентральные моменты удовлетворяют

и вообще [6] [7]

где — числа Стирлинга второго рода , а — y- я падающая степень . Простая граница [8] следует из ограничения биномиальных моментов через высшие моменты Пуассона :

Это показывает, что если , то отстоит от

Режим

Обычно мода биномиального распределения B ( n ,  p ) равна , где — функция пола . Однако, когда ( n  + 1) p — целое число, а p не равно ни 0, ни 1, то распределение имеет две моды: ( n  + 1) p и ( n  + 1) p  − 1. Когда p равно 0 или 1, мода будет равна 0 и n соответственно. Эти случаи можно обобщить следующим образом:

Доказательство: Пусть

Для имеет ненулевое значение только при . Для мы находим и для . Это доказывает, что мода равна 0 для и для .

Пусть . Находим

.

Из этого следует

Так что когда — целое число, то и — мода. В случае, когда , то только — мода. [9]

Медиана

В общем случае не существует единой формулы для нахождения медианы для биномиального распределения, и она может быть даже не уникальной. Однако было установлено несколько специальных результатов:

Хвостовые границы

Для knp можно вывести верхние границы для нижнего хвоста кумулятивной функции распределения , вероятности того, что будет не более k успехов. Поскольку , эти границы можно также рассматривать как границы для верхнего хвоста кумулятивной функции распределения для knp .

Неравенство Хеффдинга дает простую оценку

что, однако, не очень точно. В частности, для p = 1 мы имеем, что F ( k ; n , p ) = 0 (для фиксированных k , n с k  <  n ), но граница Хеффдинга оценивается как положительная константа.

Более точную границу можно получить из границы Чернова : [15]

где D ( a || p ) — относительная энтропия (или расхождение Кульбака-Лейблера) между a -монетой и p -монетой (т.е. между распределениями Бернулли( a ) и Бернулли( p ):

Асимптотически эта граница достаточно точна; подробности см. в [15] .

Можно также получить нижние границы хвоста , известные как антиконцентрационные границы. Аппроксимируя биномиальный коэффициент формулой Стирлинга, можно показать, что [16]

что подразумевает более простую, но менее жесткую связь

При p = 1/2 и k ≥ 3 n /8 для четных n можно сделать знаменатель постоянным: [17]

Статистический вывод

Оценка параметров

Если n известно, параметр p можно оценить, используя долю успехов:

Эта оценка найдена с использованием оценки максимального правдоподобия , а также метода моментов . Эта оценка является несмещенной и равномерной с минимальной дисперсией , что доказано с помощью теоремы Лемана–Шеффе , поскольку она основана на минимальной достаточной и полной статистике (т.е.: x ). Она также последовательна как по вероятности, так и по среднеквадратической ошибке .

Замкнутая форма байесовской оценки для p также существует при использовании бета-распределения в качестве сопряженного априорного распределения . При использовании общего априорного распределения апостериорная средняя оценка имеет вид:

Оценка Байеса асимптотически эффективна , и по мере того, как размер выборки стремится к бесконечности ( n → ∞), она приближается к решению MLE . [18] Оценка Байеса смещена (степень смещения зависит от априорных данных), допустима и последовательна по вероятности.

Для особого случая использования стандартного равномерного распределения в качестве неинформативного априорного распределения , апостериорная средняя оценка становится:

( Апостериорный метод должен просто привести к стандартной оценке.) Этот метод называется правилом последовательности и был введен в XVIII веке Пьером-Симоном Лапласом .

При использовании априорной вероятности Джеффри априорная вероятность равна , [19] что приводит к оценке:

При оценке p с очень редкими событиями и малым n (например: если x=0), то использование стандартной оценки приводит к тому, что иногда нереалистично и нежелательно. В таких случаях существуют различные альтернативные оценки. [20] Один из способов — использовать оценку Байеса , что приводит к:

Другой метод — использовать верхнюю границу доверительного интервала , полученную с помощью правила трех :

Доверительные интервалы

Даже для довольно больших значений n фактическое распределение среднего значения существенно отличается от нормального. [21] Из-за этой проблемы было предложено несколько методов оценки доверительных интервалов.

В приведенных ниже уравнениях для доверительных интервалов переменные имеют следующее значение:

Метод Вальда

Может быть добавлена ​​поправка на непрерывность 0,5/ n . [ необходимо разъяснение ]

Метод Агрести–Коулла

[22]

Здесь оценка p изменяется на

Этот метод хорошо работает для и . [23] См. здесь для . [24] Для используйте метод Уилсона (оценка) ниже.

Метод арксинуса

[25]

Метод Уилсона (оценка)

Обозначения в приведенной ниже формуле отличаются от предыдущих формул в двух отношениях: [26]

[27]

Сравнение

Так называемый «точный» ( метод Клоппера–Пирсона ) является наиболее консервативным. [21] ( Точный не означает абсолютно точный; скорее, это означает, что оценки не будут менее консервативными, чем истинное значение.)

Метод Вальда, хотя и часто рекомендуемый в учебниках, является наиболее предвзятым. [ необходимо разъяснение ]

Связанные дистрибутивы

Суммы биномов

Если X  ~ B( np ) и Y  ~ B( mp ) являются независимыми биномиальными переменными с одинаковой вероятностью p , то X  +  Y снова является биномиальной переменной; ее распределение имеет вид Z=X+Y  ~ B( n+mp ): [28]

Биномиально распределенную случайную величину X  ~ B( np ) можно рассматривать как сумму n случайных величин, распределенных по закону Бернулли. Таким образом, сумма двух биномиально распределенных случайных величин X  ~ B( np ) и Y  ~ B( mp ) эквивалентна сумме n  +  m случайных величин, распределенных по закону Бернулли, что означает Z=X+Y  ~ B( n+mp ). Это также можно доказать напрямую, используя правило сложения.

Однако если X и Y не имеют одинаковой вероятности p , то дисперсия суммы будет меньше дисперсии биномиальной переменной, распределенной как

Биномиальное распределение Пуассона

Биномиальное распределение является частным случаем биномиального распределения Пуассона , которое является распределением суммы n независимых неидентичных испытаний Бернулли B( p i ). [29]

Соотношение двух биномиальных распределений

Этот результат был впервые получен Кацем и соавторами в 1978 году. [30]

Пусть X ~ B( n , p 1 ) и Y ~ B( m , p 2 ) независимы. Пусть T = ( X / n ) / ( Y / m ) .

Тогда log( T ) приблизительно нормально распределен со средним log( p 1 / p 2 ) и дисперсией ((1/ p 1 ) − 1)/ n + ((1/ p 2 ) − 1)/ m .

Условные двучлены

Если X  ~ B( np ) и Y  |  X  ~ B( Xq ) (условное распределение Y при заданном  X ), то Y является простой биномиальной случайной величиной с распределением Y  ~ B( npq ).

Например, представьте, что вы бросаете n мячей в корзину U X и забираете мячи, которые попали, и бросаете их в другую корзину U Y . Если p — вероятность попадания в U X , то X  ~ B( np ) — количество мячей, которые попали в U X . Если q — вероятность попадания в U Y, то количество мячей, которые попали в U Y , равно Y  ~ B( Xq ) и, следовательно, Y  ~ B( npq ).

[Доказательство]

Так как и , то по закону полной вероятности ,

Поскольку уравнение выше можно выразить как

Разложение на множители и исключение всех членов, которые не зависят от суммы, теперь дает

После подстановки в выражение выше получаем

Обратите внимание, что сумма (в скобках) выше равна по биномиальной теореме . Подставляя это в окончательное выражение, получаем

и так по желанию.

Распределение Бернулли

Распределение Бернулли является частным случаем биномиального распределения, где n  = 1. Символически X  ~ B(1,  p ) имеет то же значение, что и X  ~ Bernoulli( p ). Наоборот, любое биномиальное распределение, B( np ), является распределением суммы n независимых испытаний Бернулли , Bernoulli( p ), каждое с одинаковой вероятностью p . [31]

Нормальное приближение

Биномиальная функция массы вероятности и аппроксимация нормальной функции плотности вероятности для n  = 6 и p  = 0,5

Если n достаточно велико, то перекос распределения не слишком велик. В этом случае разумное приближение к B( np ) дается нормальным распределением

и это базовое приближение может быть улучшено простым способом с помощью подходящей коррекции непрерывности . Базовое приближение обычно улучшается с ростом n (по крайней мере 20) и лучше, когда p не близко к 0 или 1. [32] Различные эмпирические правила могут быть использованы для определения того, достаточно ли велико n , и достаточно ли далеко p от крайних значений нуля или единицы:

Это можно уточнить, используя теорему Берри–Эссеена .

Это правило трех стандартных отклонений эквивалентно следующим условиям, которые также подразумевают первое правило выше.
[Доказательство]

Правило полностью эквивалентно запросу, что

Перемещение терминов вокруг доходности:

Так как , мы можем применить квадратную степень и разделить на соответствующие множители и , чтобы получить желаемые условия:

Обратите внимание, что эти условия автоматически подразумевают, что . С другой стороны, снова применим квадратный корень и разделим на 3,

Вычитая второй набор неравенств из первого, получаем:

и, таким образом, требуемое первое правило выполняется,

[Доказательство]

Предположим, что оба значения и больше 9. Поскольку , мы легко получаем, что

Теперь нам нужно только разделить на соответствующие факторы и , чтобы вывести альтернативную форму правила трех стандартных отклонений:

Ниже приведен пример применения коррекции непрерывности . Предположим, что требуется вычислить Pr( X  ≤ 8) для биномиальной случайной величины X. Если Y имеет распределение, заданное нормальным приближением, то Pr( X  ≤ 8) аппроксимируется Pr( Y  ≤ 8,5). Добавление 0,5 является коррекцией непрерывности; неисправленное нормальное приближение дает значительно менее точные результаты.

Это приближение, известное как теорема Муавра–Лапласа , значительно экономит время при выполнении вычислений вручную (точные вычисления с большими n очень обременительны); исторически это было первое использование нормального распределения, введенное в книге Абрахама де Муавра «Учение о шансах » в 1738 году. В настоящее время его можно рассматривать как следствие центральной предельной теоремы, поскольку B( np ) представляет собой сумму n независимых, одинаково распределенных переменных Бернулли с параметром  p . Этот факт является основой проверки гипотезы , «z-теста пропорции», для значения p с использованием x/n , выборочной пропорции и оценки p , в общей тестовой статистике . [35]

Например, предположим, что кто-то случайно выбирает n человек из большой популяции и спрашивает их, согласны ли они с определенным утверждением. Доля людей, которые согласны, конечно, будет зависеть от выборки. Если бы группы из n человек были выбраны повторно и действительно случайным образом, пропорции следовали бы приблизительно нормальному распределению со средним значением, равным истинной пропорции согласия в популяции p , и со стандартным отклонением

приближение Пуассона

Биномиальное распределение сходится к распределению Пуассона , когда число испытаний стремится к бесконечности, в то время как произведение np сходится к конечному пределу. Следовательно, распределение Пуассона с параметром λ = np может быть использовано в качестве приближения к B( n , p ) биномиального распределения, если n достаточно велико, а p достаточно мало. Согласно эмпирическим правилам, это приближение является хорошим, если n  ≥ 20 и p  ≤ 0,05 [36] таким образом, что np ≤ 1, или если n > 50 и p < 0,1 таким образом, что np < 5, [37] или если n  ≥ 100 и np  ≤ 10. [38] [39]

Относительно точности приближения Пуассона см. Новак, [40], гл. 4, и приведенные там ссылки.

Ограничение распределений

приближается к нормальному распределению с ожидаемым значением 0 и дисперсией  1. Этот результат иногда грубо формулируют, говоря, что распределение X является асимптотически нормальным с ожидаемым значением 0 и дисперсией  1. Этот результат является частным случаем центральной предельной теоремы .

Бета-распределение

Биномиальное распределение и бета-распределение — это разные представления одной и той же модели повторных испытаний Бернулли. Биномиальное распределение — это PMF k успехов при n независимых событиях, каждое из которых имеет вероятность успеха p . Математически , когда α = k + 1 и β = nk + 1 , бета-распределение и биномиальное распределение связаны [ требуется разъяснение ] множителем n + 1 :

Бета-распределения также предоставляют семейство априорных распределений вероятностей для биномиальных распределений в байесовском выводе : [41]

При наличии однородного априорного распределения апостериорное распределение вероятности успеха p при n независимых событиях с k наблюдаемыми успехами представляет собой бета-распределение. [42]

Методы расчета

Генерация случайных чисел

Методы генерации случайных чисел , где маргинальное распределение является биномиальным распределением, хорошо известны. [43] [44] Одним из способов генерации случайных выборок из биномиального распределения является использование алгоритма инверсии. Для этого необходимо вычислить вероятность того, что Pr( X = k ) для всех значений k от 0 до n . (Эти вероятности должны суммироваться до значения, близкого к единице, чтобы охватить все пространство выборки.) Затем, используя генератор псевдослучайных чисел для равномерной генерации выборок между 0 и 1, можно преобразовать вычисленные выборки в дискретные числа, используя вероятности, вычисленные на первом этапе.

История

Это распределение было получено Якобом Бернулли . Он рассмотрел случай, когда p = r /( r  +  s ), где p — вероятность успеха, а r и s — положительные целые числа. Блез Паскаль ранее рассмотрел случай, когда p  = 1/2, составив таблицу соответствующих биномиальных коэффициентов в том, что сейчас известно как треугольник Паскаля . [45]

Смотрите также

Ссылки

  1. ^ Westland, J. Christopher (2020). Audit Analytics: Data Science for the Accounting Professions . Чикаго, Иллинойс, США: Springer. стр. 53. ISBN 978-3-030-49091-1.
  2. ^ Феллер, В. (1968). Введение в теорию вероятностей и ее приложения (третье изд.). Нью-Йорк: Wiley. стр. 151 (теорема в разделе VI.3).
  3. ^ Уодсворт, ГП (1960). Введение в вероятность и случайные величины . Нью-Йорк: McGraw-Hill. стр. 52.
  4. ^ Джоветт, ГХ (1963). «Связь между биномиальным и F-распределением». Журнал Королевского статистического общества, серия D. 13 ( 1): 55–57. doi :10.2307/2986663. JSTOR  2986663.
  5. ^ См. Доказательство Wiki
  6. ^ Кноблаух, Андреас (2008), «Выражения в замкнутой форме для моментов биномиального распределения вероятностей», Журнал SIAM по прикладной математике , 69 (1): 197–204, doi :10.1137/070700024, JSTOR  40233780
  7. ^ Нгуен, Дуй (2021), «Вероятностный подход к моментам биномиальных случайных величин и применение», The American Statistician , 75 (1): 101–103, doi : 10.1080/00031305.2019.1679257, S2CID  209923008
  8. ^ Д. Ахле, Томас (2022), «Точные и простые границы для необработанных моментов биномиального и пуассоновского распределений», Statistics & Probability Letters , 182 : 109306, arXiv : 2103.17027 , doi : 10.1016/j.spl.2021.109306
  9. ^ См. также Николя, Андре (7 января 2019 г.). "Нахождение моды в биномиальном распределении". Stack Exchange .
  10. ^ Нойманн, П. (1966). «Über den Median der Binomial- and Poissonverteilung». Wissenschaftliche Zeitschrift der Technischen Universität Dresden (на немецком языке). 19 :29–33.
  11. Лорд, Ник. (Июль 2010 г.). «Средние биномиальные значения, когда среднее значение — целое число», The Mathematical Gazette 94, 331-332.
  12. ^ ab Kaas, R.; Buhrman, JM (1980). «Среднее, медиана и мода в биномиальных распределениях». Statistica Neerlandica . 34 (1): 13–18. doi :10.1111/j.1467-9574.1980.tb00681.x.
  13. ^ Хамза, К. (1995). «Наименьшая равномерная верхняя граница расстояния между средним значением и медианой биномиального и пуассоновского распределений». Statistics & Probability Letters . 23 : 21–25. doi :10.1016/0167-7152(94)00090-U.
  14. ^ Nowakowski, Sz. (2021). «Уникальность медианы биномиального распределения с рациональной вероятностью». Advances in Mathematics: Scientific Journal . 10 (4): 1951–1958. arXiv : 2004.03280 . doi : 10.37418/amsj.10.4.9. ISSN  1857-8365. S2CID  215238991.
  15. ^ ab Arratia, R.; Gordon, L. (1989). «Учебник по большим отклонениям для биномиального распределения». Bulletin of Mathematical Biology . 51 (1): 125–131. doi :10.1007/BF02458840. PMID  2706397. S2CID  189884382.
  16. ^ Роберт Б. Эш (1990). Теория информации . Dover Publications. стр. 115. ISBN 9780486665214.
  17. ^ Матоушек, Й.; Вондрак, Й. "Вероятностный метод" (PDF) . заметки лекций . Архивировано (PDF) из оригинала 2022-10-09.
  18. ^ Уилкокс, Рэнд Р. (1979). «Оценка параметров бета-биномиального распределения». Образовательные и психологические измерения . 39 (3): 527–535. doi :10.1177/001316447903900302. ISSN  0013-1644. S2CID  121331083.
  19. ^ Марко Лалович (https://stats.stackexchange.com/users/105848/marko-lalovic), априорное распределение Джеффри для биномиального правдоподобия, URL (версия: 2019-03-04): https://stats.stackexchange.com/q/275608
  20. ^ Раззаги, Мехди (2002). «Об оценке вероятности биномиального успеха с нулевым вхождением в выборку». Журнал современных прикладных статистических методов . 1 (2): 326–332. doi : 10.22237/jmasm/1036110000 .
  21. ^ ab Brown, Lawrence D.; Cai, T. Tony; DasGupta, Anirban (2001), "Интервальная оценка для биномиальной пропорции", Statistical Science , 16 (2): 101–133, CiteSeerX 10.1.1.323.7752 , doi :10.1214/ss/1009213286 , получено 05.01.2015 
  22. ^ Агрести, Алан; Коулл, Брент А. (май 1998 г.), «Приблизительное лучше, чем «точное» для интервальной оценки биномиальных пропорций» (PDF) , The American Statistician , 52 (2): 119–126, doi :10.2307/2685469, JSTOR  2685469 , получено 05.01.2015
  23. ^ Гулотта, Джозеф. «Метод интервалов Агрести-Коулла». pellucid.atlassian.net . Получено 18 мая 2021 г. .
  24. ^ "Доверительные интервалы". itl.nist.gov . Получено 18 мая 2021 г. .
  25. ^ Пирес, МА (2002). "Доверительные интервалы для биномиальной пропорции: сравнение методов и оценка программного обеспечения" (PDF) . В Клинке, С.; Аренд, П.; Рихтер, Л. (ред.). Труды конференции CompStat 2002 . Краткие сообщения и постеры. Архивировано (PDF) из оригинала 2022-10-09.
  26. ^ Уилсон, Эдвин Б. (июнь 1927 г.), «Вероятный вывод, закон наследования и статистический вывод» (PDF) , Журнал Американской статистической ассоциации , 22 (158): 209–212, doi :10.2307/2276774, JSTOR  2276774, архивировано из оригинала (PDF) 2015-01-13 , извлечено 2015-01-05
  27. ^ "Доверительные интервалы". Справочник по инженерной статистике . NIST/Sematech. 2012. Получено 23 июля 2017 г.
  28. ^ Деккинг, FM; Краайкамп, К.; Лопохаа, HP; Мистер, Л.Е. (2005). Современное введение в теорию вероятности и статистики (1-е изд.). Спрингер-Верлаг Лондон. ISBN 978-1-84628-168-6.
  29. ^ Wang, YH (1993). "О числе успехов в независимых испытаниях" (PDF) . Statistica Sinica . 3 (2): 295–312. Архивировано из оригинала (PDF) 2016-03-03.
  30. ^ Katz, D.; et al. (1978). «Получение доверительных интервалов для отношения рисков в когортных исследованиях». Биометрия . 34 (3): 469–474. doi :10.2307/2530610. JSTOR  2530610.
  31. ^ Табога, Марко. «Лекции по теории вероятностей и математической статистике». statlect.com . Получено 18 декабря 2017 г. .
  32. ^ ab Box, Hunter и Hunter (1978). Статистика для экспериментаторов . Wiley. стр. 130. ISBN 9780471093152.
  33. ^ Чен, Зак (2011). Справочник по математике H2 (1-е изд.). Сингапур: Educational Publishing House. стр. 350. ISBN 9789814288484.
  34. ^ "6.4: Нормальное приближение к биномиальному распределению - Statistics LibreTexts". 2023-05-29. Архивировано из оригинала 2023-05-29 . Получено 2023-10-07 .{{cite web}}: CS1 maint: bot: original URL status unknown (link)
  35. ^ NIST / SEMATECH , «7.2.4. Соответствует ли доля дефектных изделий требованиям?» Электронный справочник по статистическим методам.
  36. ^ "12.4 - Аппроксимация биномиального распределения | STAT 414". 2023-03-28. Архивировано из оригинала 2023-03-28 . Получено 2023-10-08 .{{cite web}}: CS1 maint: bot: original URL status unknown (link)
  37. ^ Чен, Зак (2011). Справочник по математике H2 (1-е изд.). Сингапур: Образовательное издательство. С. 348. ISBN 9789814288484.
  38. ^ ab NIST / SEMATECH , «6.3.3.1. Контрольные карты подсчетов», электронный справочник по статистическим методам.
  39. ^ "Связь между распределением Пуассона и биномиальным распределением". 2023-03-13. Архивировано из оригинала 2023-03-13 . Получено 2023-10-08 .{{cite web}}: CS1 maint: bot: original URL status unknown (link)
  40. ^ Novak SY (2011) Методы экстремальной стоимости и их применение в финансах. Лондон: CRC/ Chapman & Hall/Taylor & Francis. ISBN 9781-43983-5746
  41. ^ Маккей, Дэвид (2003). Теория информации, вывод и алгоритмы обучения . Cambridge University Press; Первое издание. ISBN 978-0521642989.
  42. ^ «Бета-распределение».
  43. ^ Деврой, Люк (1986) Генерация неравномерных случайных величин , Нью-Йорк: Springer-Verlag. (См. особенно главу X, Дискретные одномерные распределения)
  44. ^ Качитвичянукул, В.; Шмейсер, Б. В. (1988). «Генерация биномиальных случайных величин». Сообщения ACM . 31 (2): 216–222. doi :10.1145/42372.42381. S2CID  18698828.
  45. ^ Кац, Виктор (2009). "14.3: Элементарная вероятность". История математики: Введение . Эддисон-Уэсли. стр. 491. ISBN 978-0-321-38700-4.
  46. ^ Мандельброт, Б. Б., Фишер, А. Дж. и Кальвет, Л. Э. (1997). Мультифрактальная модель доходности активов. 3.2 Биномиальная мера — простейший пример мультифрактала
  1. ^ За исключением тривиального случая p = 0 , который необходимо проверить отдельно.

Дальнейшее чтение

Внешние ссылки