stringtranslate.com

Биномиальное распределение

Биномиальное распределение для с n и k , как в треугольнике Паскаля. Вероятность того, что шар в ящике Гальтона с 8 слоями ( n  = 8) окажется в центральном контейнере ( k  = 4), равна .


В теории вероятностей и статистике биномиальное распределение с параметрами n и p представляет собой дискретное распределение вероятностей числа успехов в последовательности из n независимых экспериментов , каждый из которых задает вопрос « да-нет» и каждый имеет свой собственный логический результат : успех (с вероятностью p ) или неудача (с вероятностью ). Одиночный эксперимент успеха/неудачи также называется испытанием Бернулли или экспериментом Бернулли, а последовательность результатов называется процессом Бернулли ; для одного испытания, т. е. n  = 1, биномиальное распределение является распределением Бернулли . Биномиальное распределение является основой популярного биномиального теста статистической значимости . [1]

Биномиальное распределение часто используется для моделирования количества успехов в выборке размера n , взятой с заменой из популяции размера N. Если выборка осуществляется без замещения, выборки не являются независимыми, и поэтому результирующее распределение является гипергеометрическим , а не биномиальным. Однако для N , намного большего, чем n , биномиальное распределение остается хорошим приближением и широко используется.

Определения

Функция массы вероятности

В общем, если случайная величина X соответствует биномиальному распределению с параметрами n ∈ и p ∈ [0,1], мы пишем X  ~ B( np ). Вероятность получения ровно k успехов в n независимых испытаниях Бернулли (с одинаковой частотой p ) определяется функцией массы вероятности :

для k  = 0, 1, 2, ...,  n , где

биномиальный коэффициент , отсюда и название распределения. Формулу можно понять следующим образом: k успехов происходит с вероятностью p k и n  −  k неудач происходит с вероятностью . Однако k успехов могут произойти где угодно среди n испытаний, и существуют разные способы распределения k успехов в последовательности из n испытаний.

При создании справочных таблиц биномиального распределения вероятностей обычно таблица заполняется до n /2 значений. Это связано с тем, что при k  >  n /2 вероятность можно вычислить по ее дополнению как

Если посмотреть на выражение f ( knp ) как на функцию k , то можно найти значение k , которое максимизирует его. Это значение k можно найти, вычислив

и сравнивая его с 1. Всегда существует целое число M , удовлетворяющее [2]

f ( knp ) монотонно возрастает при k  <  M и монотонно убывает при k  >  M , за исключением случая, когда ( n  + 1) p является целым числом. В этом случае есть два значения, при которых f максимально: ( n  + 1) p и ( n  + 1) p  − 1. Mнаиболее вероятный исход (т. е. наиболее вероятный, хотя это все же может быть маловероятным). в целом) испытаний Бернулли и называется модой .

Эквивалентно, . Взяв функцию пола , получим . [примечание 1]

Пример

Предположим, что при броске смещенной монеты выпадет орел с вероятностью 0,3. Вероятность увидеть ровно 4 орла за 6 бросков равна

Кумулятивная функция распределения

Кумулятивную функцию распределения можно выразить как:

где — «пол» под k , т.е. наибольшее целое число, меньшее или равное k .

Ее также можно представить через регуляризованную неполную бета-функцию следующим образом: [3]

что эквивалентно кумулятивной функции распределения F - распределения : [4]

Некоторые оценки в замкнутой форме для кумулятивной функции распределения приведены ниже.

Характеристики

Ожидаемое значение и дисперсия

Если X ~ B ( n , p ), то есть X — случайная величина с биномиальным распределением, где n — общее количество экспериментов, а p — вероятность того, что каждый эксперимент даст успешный результат, то ожидаемое значение X равно : [5] ]

Это следует из линейности ожидаемого значения, а также из того факта, что X представляет собой сумму n одинаковых случайных величин Бернулли, каждая из которых имеет ожидаемое значение p . Другими словами, если являются одинаковыми (и независимыми) случайными величинами Бернулли с параметром p , то и

Разница составляет :

Это аналогичным образом следует из того факта, что дисперсия суммы независимых случайных величин есть сумма дисперсий.

Высшие моменты

Первые 6 центральных моментов , определяемые как , определяются выражением

Нецентральные моменты удовлетворяют

и вообще [6] [7]

где - числа Стирлинга второго рода , а --я падающая степень . Простая оценка [8] следует путем ограничения биномиальных моментов через высшие моменты Пуассона :

Это показывает, что если , то не более чем постоянный множитель вдали от

Режим

Обычно мода биномиального распределения B ( n ,  p ) равна , где – функция пола . Однако, когда ( n  + 1) p является целым числом и p не равно ни 0, ни 1, тогда распределение имеет два режима: ( n  + 1) p и ( n  + 1) p  - 1. Когда p равно 0 или 1, режим будет 0 и n соответственно. Эти случаи можно резюмировать следующим образом:

Доказательство: Пусть

For имеет ненулевое значение только с . Ибо мы находим и для . Это доказывает, что мода равна 0 для и для .

Позволять . Мы нашли

.

Из этого следует

Итак, когда является целым числом, тогда и является модой. В том случае , это только режим. [9]

медиана

В общем, не существует единой формулы для нахождения медианы для биномиального распределения, и она может даже быть неоднозначной. Однако было установлено несколько особых результатов:

Хвостовые границы

Для knp верхние границы могут быть получены для нижнего хвоста кумулятивной функции распределения , вероятности того, что будет не более k успехов. Поскольку эти границы можно также рассматривать как границы верхнего хвоста кумулятивной функции распределения при knp .

Неравенство Хёффдинга дает простую оценку

что, однако, не очень плотно. В частности, для p = 1 мы имеем, что F ( k ; n , p ) = 0 (при фиксированном k , n с k  <  n ), но оценка Хеффдинга оценивается как положительная константа.

Более точную оценку можно получить из оценки Чернова : [15]

где D ( a || p ) — относительная энтропия (или расхождение Кульбака-Лейблера) между a -монетой и p -монетой (т.е. между распределениями Бернулли( a ) и Бернулли( p )):

Асимптотически эта граница достаточно точна; подробности см. в [15] .

Можно также получить нижние оценки хвоста , известные как границы антиконцентрации. Аппроксимируя биномиальный коэффициент формулой Стирлинга, можно показать, что [16]

что подразумевает более простую, но более слабую оценку

Для p = 1/2 и k ≥ 3 n /8 для четных n можно сделать знаменатель постоянным: [17]

Статистические выводы

Оценка параметров

Когда n известно, параметр p можно оценить, используя долю успехов:

Эта оценка находится с использованием оценки максимального правдоподобия , а также метода моментов . Эта оценка является несмещенной и равномерной с минимальной дисперсией , что доказано с помощью теоремы Лемана – Шеффе , поскольку она основана на минимальной достаточной и полной статистике (т. е.: x ). Оно также согласовано как по вероятности, так и по MSE .

Закрытая форма оценки Байеса для p также существует при использовании бета-распределения в качестве сопряженного априорного распределения . При использовании общего значения в качестве априорного апостериорная средняя оценка равна:

Оценка Байеса асимптотически эффективна и, когда размер выборки приближается к бесконечности ( n → ∞), она приближается к решению MLE . [18] Оценка Байеса смещена (насколько зависит от априорных значений), допустима и непротиворечива по вероятности.

В частном случае использования стандартного равномерного распределения в качестве неинформативного априорного значения апостериорная средняя оценка принимает вид:

( Апостериорная мода должна просто приводить к стандартной оценке.) Этот метод называется правилом последовательности , которое было введено в 18 веке Пьером-Симоном Лапласом .

При оценке p при очень редких событиях и небольшом n (например: если x=0) использование стандартной оценки приводит к тому, что иногда нереально и нежелательно. В таких случаях существуют различные альтернативные оценки. [19] Один из способов — использовать оценку Байеса, что приводит к:

Другой метод заключается в использовании верхней границы доверительного интервала , полученного с помощью правила трех :

Доверительные интервалы

Даже для довольно больших значений n фактическое распределение среднего существенно ненормально. [20] Из-за этой проблемы было предложено несколько методов оценки доверительных интервалов.

В приведенных ниже уравнениях доверительных интервалов переменные имеют следующее значение:

Метод Вальда

Может быть добавлена ​​поправка на непрерывность 0,5/ n . [ нужны разъяснения ]

Метод Агрести-Кулла

[21]

Здесь оценка p изменяется на

Этот метод хорошо работает для и . [22] См. здесь . [23] Для использования метода Вильсона (оценка), приведенного ниже.

Арксинусный метод

[24]

Метод Вильсона (оценка)

Обозначения в приведенной ниже формуле отличаются от предыдущих формул в двух отношениях: [25]

[26]

Сравнение

Так называемый «точный» метод ( Клоппера–Пирсона ) является наиболее консервативным. [20] ( Точный не означает абсолютно точный; скорее, это указывает на то, что оценки не будут менее консервативными, чем истинное значение.)

Метод Вальда, хотя его обычно рекомендуют в учебниках, является наиболее предвзятым. [ нужны разъяснения ]

Связанные дистрибутивы

Суммы биномов

Если X  ~ B( np ) и Y  ~ B( mp ) — независимые биномиальные переменные с одинаковой вероятностью p , то X  +  Y снова является биномиальной переменной; его распределение Z=X+Y  ~ B( n+mp ): [27]

Биномиально распределенную случайную величину X  ~ B( np ) можно рассматривать как сумму n случайных величин, распределенных по Бернулли. Таким образом, сумма двух случайных величин с биномиальным распределением X  ~ B( np ) и Y  ~ B( mp ) эквивалентна сумме n  +  m случайных величин с распределением Бернулли, что означает Z=X+Y  ~ B( п+тр ). Это также можно доказать непосредственно с помощью правила сложения.

Однако если X и Y не имеют одинаковую вероятность p , то дисперсия суммы будет меньше, чем дисперсия биномиальной переменной, распределенной как

Биномиальное распределение Пуассона

Биномиальное распределение — это частный случай биномиального распределения Пуассона , которое представляет собой распределение суммы n независимых неидентичных испытаний Бернулли B( p i ). [28]

Отношение двух биномиальных распределений

Этот результат был впервые получен Кацем и соавторами в 1978 году. [29]

Пусть X ~ B( n , p1 ) и Y ~ B ( m , p2 ) независимы . Пусть Т = ( Икс / п ) / ( Y / м ) .

Тогда log( T ) примерно нормально распределяется со средним log( p 1 / p 2 ) и дисперсией ((1/ p 1 ) − 1)/ n + ((1/ p 2 ) − 1)/ m .

Условные биномы

Если X  ~ B( np ) и Y  | X  ~ B( Xq ) (условное распределение Y при заданном  X ), тогда Y — простая биномиальная случайная величина с распределением Y  ~ B( npq ).

Например, представьте, что вы бросаете n мячей в корзину UX , берете попавшие мячи и бросаете их в другую корзину U Y . Если p — вероятность попасть в U X , то X  ~ B( np ) — количество шаров, попавших в U X. Если q — вероятность попасть в U Y , то количество шаров, попавших в U Y , равно Y  ~ B( Xq ) и, следовательно, Y  ~ B( npq ).

[Доказательство]

Так как и по закону полной вероятности ,

Поскольку приведенное выше уравнение можно выразить как

Факторизация и вытягивание из суммы всех членов, которые не зависят от, теперь дает

Подставив в выражение выше, получим

Обратите внимание, что сумма (в скобках) выше равна по биномиальной теореме . Подстановка этого, наконец, дает

и так по желанию.

Распределение Бернулли

Распределение Бернулли является частным случаем биномиального распределения, где n  = 1. Символически X  ~ B(1,  p ) имеет тот же смысл, что и X  ~ Бернулли( p ). И наоборот, любое биномиальное распределение B( np ) представляет собой распределение суммы n независимых испытаний Бернулли , Бернулли ( p ), каждое с одинаковой вероятностью p . [30]

Нормальное приближение

Биномиальная функция массы вероятности и аппроксимация нормальной функции плотности вероятности для n  = 6 и p  = 0,5

Если n достаточно велико, то перекос распределения не слишком велик. В этом случае разумное приближение к B( np ) дается нормальным распределением

и это базовое приближение можно простым способом улучшить, используя подходящую поправку на непрерывность . Базовое приближение обычно улучшается по мере увеличения n (по крайней мере 20) и становится лучше, когда p не близко к 0 или 1. [31] Чтобы решить, достаточно ли велико n, а p достаточно далеко от крайние значения нуля или единицы:

Это можно уточнить, используя теорему Берри-Эссеена .

Это правило трех стандартных отклонений эквивалентно следующим условиям, которые также подразумевают первое правило, приведенное выше.
[Доказательство]

Это правило полностью эквивалентно запросу,

Перемещение терминов по доходности:

Поскольку , мы можем применить квадрат мощности и разделить на соответствующие коэффициенты и , чтобы получить желаемые условия:

Обратите внимание, что эти условия автоматически подразумевают, что . С другой стороны, снова примените квадратный корень и разделите на 3,

Вычитание второго набора неравенств из первого дает:

и, таким образом, желаемое первое правило выполнено,

[Доказательство]

Предположим, что оба значения и больше 9. Поскольку , мы легко получаем, что

Теперь нам нужно только разделить на соответствующие коэффициенты и , чтобы вывести альтернативную форму правила 3-х стандартных отклонений:

Ниже приведен пример применения поправки на непрерывность . Предположим , кто-то хочет вычислить Pr( X  ≤ 8) для биномиальной случайной величины X. Если Y имеет распределение, заданное нормальным приближением, то Pr( X  ≤ 8) аппроксимируется Pr( Y  ≤ 8,5). Добавление 0,5 представляет собой поправку на непрерывность; неисправленное нормальное приближение дает значительно менее точные результаты.

Это приближение, известное как теорема Муавра – Лапласа , значительно экономит время при выполнении вычислений вручную (точные вычисления с большими n очень обременительны); исторически это было первое использование нормального распределения, представленное в книге Абрахама де Муавра «Доктрина шансов» в 1738 году. Сегодня это можно рассматривать как следствие центральной предельной теоремы , поскольку B( np ) является сумма n независимых, одинаково распределенных переменных Бернулли с параметром  p . Этот факт является основой проверки гипотезы , «z-критерия пропорции», для значения p с использованием x/n , выборочной доли и оценки p , в общей тестовой статистике . [34]

Например, предположим, что кто-то случайным образом выбирает n человек из большой популяции и спрашивает их, согласны ли они с определенным утверждением. Доля согласных, конечно, будет зависеть от выборки. Если бы группы из n людей отбирались повторно и по-настоящему случайным образом, пропорции следовали бы приблизительно нормальному распределению со средним значением, равным истинной доле согласия p в популяции и со стандартным отклонением.

Пуассоновское приближение

Биномиальное распределение сходится к распределению Пуассона , когда количество испытаний стремится к бесконечности, а произведение np сходится к конечному пределу. Следовательно, распределение Пуассона с параметром λ = np можно использовать как аппроксимацию B( n , p ) биномиального распределения, если n достаточно велико, а p достаточно мало. Согласно эмпирическим правилам, это приближение хорошо, если n  ≥ 20 и p  ≤ 0,05 [35] такие, что np ≤ 1, или если n > 50 и p < 0,1 такие, что np < 5, [36] или если n  ≥ 100 и np  ≤ 10. [37] [38]

По поводу точности пуассоновской аппроксимации см. Новак, [39], гл. 4 и ссылки в нем.

Ограничение дистрибутивов

приближается к нормальному распределению с ожидаемым значением 0 и дисперсией  1. Иногда этот результат формулируют в общих чертах, говоря, что распределение X является асимптотически нормальным с ожидаемым значением 0 и дисперсией  1. Этот результат является частным случаем центральной предельной теоремы .

Бета-дистрибутив

Биномиальное распределение и бета-распределение представляют собой разные взгляды на одну и ту же модель повторяющихся испытаний Бернулли. Биномиальное распределение представляет собой PMF k успехов при n независимых событиях , каждое из которых имеет вероятность успеха p . Математически, когда α = k + 1 и β = nk + 1 , бета-распределение и биномиальное распределение связаны [ необходимы пояснения ] коэффициентом n + 1 :

Бета-распределения также представляют собой семейство априорных распределений вероятностей для биномиальных распределений в байесовском выводе : [40]

Учитывая единообразие априора, апостериорное распределение вероятности успеха p при условии n независимых событий с k наблюдаемыми успехами является бета-распределением. [41]

Генерация случайных чисел

Методы генерации случайных чисел , в которых маргинальное распределение является биномиальным, хорошо известны. [42] [43] Одним из способов создания выборок случайных величин из биномиального распределения является использование алгоритма инверсии. Для этого необходимо вычислить вероятность того, что Pr( X = k ) для всех значений k от 0 до n . (Эти вероятности должны в сумме давать значение, близкое к единице, чтобы охватить все пространство выборок.) Затем, используя генератор псевдослучайных чисел для равномерной генерации выборок от 0 до 1, можно преобразовать вычисленные выборки в дискретные числа, используя вероятности, рассчитанные на первом этапе.

История

Это распределение было получено Якобом Бернулли . Он рассмотрел случай, когда p = r /( r  +  s ), где p — вероятность успеха, а r и s — положительные целые числа. Блез Паскаль ранее рассмотрел случай, когда p  = 1/2, составив таблицу соответствующих биномиальных коэффициентов в том, что теперь известно как треугольник Паскаля . [44]

Смотрите также

Рекомендации

  1. ^ Вестленд, Дж. Кристофер (2020). Аудиторская аналитика: наука о данных для бухгалтерской профессии . Чикаго, Иллинойс, США: Спрингер. п. 53. ИСБН 978-3-030-49091-1.
  2. ^ Феллер, В. (1968). Введение в теорию вероятностей и ее приложения (Третье изд.). Нью-Йорк: Уайли. п. 151 (теорема в разделе VI.3).
  3. ^ Уодсворт, врач общей практики (1960). Введение в теорию вероятности и случайных величин . Нью-Йорк: МакГроу-Хилл. п. 52.
  4. ^ Джоветт, GH (1963). «Связь между биномиальным и F-распределениями». Журнал Королевского статистического общества, серия D. 13 (1): 55–57. дои : 10.2307/2986663. JSTOR  2986663.
  5. ^ См. Доказательство Wiki.
  6. ^ Кноблаух, Андреас (2008), «Выражения в замкнутой форме для моментов биномиального распределения вероятностей», SIAM Journal on Applied Mathematics , 69 (1): 197–204, doi : 10.1137/070700024, JSTOR  40233780
  7. ^ Нгуен, Дуй (2021), «Вероятностный подход к моментам биномиальных случайных величин и его применение», The American Statistician , 75 (1): 101–103, doi : 10.1080/00031305.2019.1679257, S2CID  209923008
  8. ^ Д. Але, Томас (2022), «Точные и простые границы для необработанных моментов биномиального распределения и распределения Пуассона», Статистика и вероятностные письма , 182 : 109306, arXiv : 2103.17027 , doi : 10.1016/j.spl.2021.109306
  9. См. также Николя, Андре (7 января 2019 г.). «Режим поиска в биномиальном распределении». Обмен стеками .
  10. ^ Нойманн, П. (1966). «Über den Median der Binomial- and Poissonverteilung». Wissenschaftliche Zeitschrift der Technischen Universität Dresden (на немецком языке). 19 :29–33.
  11. ^ Господи, Ник. (июль 2010 г.). «Биномиальные средние значения, когда среднее значение является целым числом», The Mathematical Gazette 94, 331–332.
  12. ^ Аб Каас, Р.; Бурман, Дж. М. (1980). «Среднее, медиана и мода в биномиальных распределениях». Статистика Неерландики . 34 (1): 13–18. doi :10.1111/j.1467-9574.1980.tb00681.x.
  13. ^ Хамза, К. (1995). «Наименьшая равномерная верхняя граница расстояния между средним значением и медианой биномиального распределения и распределения Пуассона». Статистика и вероятностные буквы . 23 : 21–25. дои : 10.1016/0167-7152(94)00090-U.
  14. ^ Новаковский, Sz. (2021). «Единственность медианы биномиального распределения с рациональной вероятностью». Успехи математики: Научный журнал . 10 (4): 1951–1958. arXiv : 2004.03280 . дои : 10.37418/amsj.10.4.9. ISSN  1857-8365. S2CID  215238991.
  15. ^ аб Арратиа, Р.; Гордон, Л. (1989). «Урок по большим отклонениям биномиального распределения». Бюллетень математической биологии . 51 (1): 125–131. дои : 10.1007/BF02458840. PMID  2706397. S2CID  189884382.
  16. ^ Роберт Б. Эш (1990). Теория информации . Дуврские публикации. п. 115. ИСБН 9780486665214.
  17. ^ Матушек, Дж.; Вондрак, Дж. «Вероятностный метод» (PDF) . конспект лекций . Архивировано (PDF) из оригинала 9 октября 2022 г.
  18. ^ Уилкокс, Рэнд Р. (1979). «Оценка параметров бета-биномиального распределения». Образовательные и психологические измерения . 39 (3): 527–535. дои : 10.1177/001316447903900302. ISSN  0013-1644. S2CID  121331083.
  19. ^ Раззаги, Мехди (2002). «Об оценке биномиальной вероятности успеха при нулевом вхождении в выборку». Журнал современных прикладных статистических методов . 1 (2): 326–332. дои : 10.22237/jmasm/1036110000 .
  20. ^ Аб Браун, Лоуренс Д.; Кай, Т. Тони; ДасГупта, Анирбан (2001), «Интервальная оценка биномиальной пропорции», Statistical Science , 16 (2): 101–133, CiteSeerX 10.1.1.323.7752 , doi :10.1214/ss/1009213286 , получено 5 января 2015 г. 
  21. ^ Агрести, Алан; Коулл, Брент А. (май 1998 г.), «Приблизительное лучше, чем« точное »для интервальной оценки биномиальных пропорций» (PDF) , The American Statistician , 52 (2): 119–126, doi : 10.2307/2685469, JSTOR  2685469 , получено 5 января 2015 г.
  22. ^ Гулотта, Джозеф. «Интервальный метод Агрести-Кулла». pellucid.atlassian.net . Проверено 18 мая 2021 г.
  23. ^ «Доверительные интервалы». itl.nist.gov . Проверено 18 мая 2021 г.
  24. ^ Пирес, Массачусетс (2002). «Доверительные интервалы для биномиальной пропорции: сравнение методов и оценка программного обеспечения» (PDF) . В Клинке, С.; Аренд, П.; Рихтер, Л. (ред.). Материалы конференции CompStat 2002 . Краткие сообщения и плакаты. Архивировано (PDF) из оригинала 9 октября 2022 г.
  25. ^ Уилсон, Эдвин Б. (июнь 1927 г.), «Вероятный вывод, закон последовательности и статистический вывод» (PDF) , Журнал Американской статистической ассоциации , 22 (158): 209–212, doi : 10.2307/2276774, JSTOR  2276774, заархивировано из оригинала (PDF) 13 января 2015 г. , получено 5 января 2015 г.
  26. ^ «Доверительные интервалы». Справочник по инженерной статистике . НИСТ/Сематех. 2012 . Проверено 23 июля 2017 г.
  27. ^ Деккинг, FM; Краайкамп, К.; Лопохаа, HP; Мистер, Л.Е. (2005). Современное введение в теорию вероятности и статистики (1-е изд.). Спрингер-Верлаг Лондон. ISBN 978-1-84628-168-6.
  28. ^ Ван, Ю.Х. (1993). «О количестве успехов в независимых испытаниях» (PDF) . Статистика Синица . 3 (2): 295–312. Архивировано из оригинала (PDF) 03 марта 2016 г.
  29. ^ Кац, Д.; и другие. (1978). «Получение доверительных интервалов для соотношения рисков в когортных исследованиях». Биометрия . 34 (3): 469–474. дои : 10.2307/2530610. JSTOR  2530610.
  30. ^ Табога, Марко. «Лекции по теории вероятностей и математической статистике». statlect.com . Проверено 18 декабря 2017 г.
  31. ^ ab Box, Охотник и охотник (1978). Статистика для экспериментаторов . Уайли. п. 130. ИСБН 9780471093152.
  32. ^ Чен, Зак (2011). Справочник по математике H2 (1-е изд.). Сингапур: Образовательное издательство. п. 350. ИСБН 9789814288484.
  33. ^ «6.4: Нормальное приближение к биномиальному распределению - LibreTexts статистики» . 29 мая 2023 г. Архивировано из оригинала 29 мая 2023 г. Проверено 7 октября 2023 г.{{cite web}}: CS1 maint: bot: original URL status unknown (link)
  34. ^ NIST / SEMATECH , «7.2.4. Соответствует ли доля дефектов требованиям?» Электронный справочник по статистическим методам.
  35. ^ «12.4 - Аппроксимация биномиального распределения | STAT 414» . 28 марта 2023 г. Архивировано из оригинала 28 марта 2023 г. Проверено 8 октября 2023 г.{{cite web}}: CS1 maint: bot: original URL status unknown (link)
  36. ^ Чен, Зак (2011). Справочник по математике H2 (1-е изд.). Сингапур: Учебное издательство. п. 348. ИСБН 9789814288484.
  37. ^ ab NIST / SEMATECH , «6.3.3.1. Контрольные диаграммы подсчета», электронный справочник по статистическим методам.
  38. ^ «Связь между распределениями Пуассона и биномиальным распределениями». 13 марта 2023 г. Архивировано из оригинала 13 марта 2023 г. Проверено 8 октября 2023 г.{{cite web}}: CS1 maint: bot: original URL status unknown (link)
  39. ^ Новак С.Ю. (2011) Методы экстремальной стоимости с применением к финансированию. Лондон: CRC/Чепмен и Холл/Тейлор и Фрэнсис. ISBN 9781-43983-5746
  40. ^ Маккей, Дэвид (2003). Теория информации, логический вывод и алгоритмы обучения . Издательство Кембриджского университета; Первое издание. ISBN 978-0521642989.
  41. ^ «Бета-дистрибутив».
  42. ^ Деврой, Люк (1986) Генерация неоднородных случайных переменных , Нью-Йорк: Springer-Verlag. (Смотрите особенно главу X «Дискретные одномерные распределения»).
  43. ^ Качитвичянукул, В.; Шмайзер, Б.В. (1988). «Генерация биномиальных случайных величин». Коммуникации АКМ . 31 (2): 216–222. дои : 10.1145/42372.42381. S2CID  18698828.
  44. ^ Кац, Виктор (2009). «14.3: Элементарная вероятность». История математики: Введение . Аддисон-Уэсли. п. 491. ИСБН 978-0-321-38700-4.
  45. ^ Мандельброт, Б.Б., Фишер, А.Дж., и Кальвет, Л.Е. (1997). Мультифрактальная модель доходности активов. 3.2. Биномиальная мера – простейший пример мультифрактала.
  1. ^ За исключением тривиального случая , который необходимо проверять отдельно.

дальнейшее чтение

Внешние ссылки