Неравенство в применении к вероятностным пространствам
В теории вероятностей неравенство Буля , также известное как граница объединения , гласит, что для любого конечного или счетного набора событий вероятность того , что хотя бы одно из событий произойдет, не превышает сумму вероятностей отдельных событий. Это неравенство дает верхнюю границу вероятности появления хотя бы одного из счетного числа событий с точки зрения индивидуальных вероятностей событий. Неравенство Буля названо в честь его первооткрывателя Джорджа Буля . [1]
Формально для счетного множества событий A 1 , A 2 , A 3 , ... имеем
![{\displaystyle {\mathbb {P} }\left(\bigcup _{i=1}^{\infty }A_{i}\right)\leq \sum _{i=1}^{\infty }{\ mathbb {P} }(A_{i}).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
В терминах теории меры неравенство Буля следует из того факта, что мера (и, конечно, любая вероятностная мера ) является σ - субаддитивной .
Доказательство
Доказательство с помощью индукции.
Неравенство Буля можно доказать для конечного набора событий методом индукции.![{\displaystyle п}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Для случая отсюда следует, что![{\displaystyle n=1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathbb {P} (A_{1})\leq \mathbb {P} (A_{1}).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Для случая у нас есть![{\displaystyle п}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\mathbb {P} }\left(\bigcup _{i=1}^{n}A_{i}\right)\leq \sum _{i=1}^{n}{\mathbb { P} }(A_{i}).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Поскольку операция объединения ассоциативна , мы имеем![{\ displaystyle \ mathbb {P} (A \ чашка B) = \ mathbb {P} (A) + \ mathbb {P} (B) - \ mathbb {P} (A \ cap B),}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathbb {P} \left(\bigcup _{i=1}^{n+1}A_{i}\right)=\mathbb {P} \left(\bigcup _{i=1}^ {n}A_{i}\right)+\mathbb {P} (A_{n+1})-\mathbb {P} \left(\bigcup _{i=1}^{n}A_{i}\ cap A_{n+1}\right).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
С
![{\displaystyle {\mathbb {P}}\left(\bigcup _{i=1}^{n}A_{i}\cap A_{n+1}\right)\geq 0,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
по первой аксиоме вероятности имеем
![{\displaystyle \mathbb {P} \left(\bigcup _{i=1}^{n+1}A_{i}\right)\leq \mathbb {P} \left(\bigcup _{i=1} ^{n}A_{i}\right)+\mathbb {P} (A_{n+1}),}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
и поэтому
![{\displaystyle \mathbb {P} \left(\bigcup _{i=1}^{n+1}A_{i}\right)\leq \sum _{i=1}^{n}\mathbb {P } (A_{i})+\mathbb {P} (A_{n+1})=\sum _{i=1}^{n+1}\mathbb {P} (A_{i}).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Доказательство без использования индукции.
Для любых событий в нашем вероятностном пространстве мы имеем![{\displaystyle A_{1},A_{2},A_{3},\dots }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathbb {P} \left(\bigcup _{i}A_{i}\right)\leq \sum _{i}\mathbb {P} (A_{i}).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Одна из аксиом вероятностного пространства состоит в том, что если являются непересекающимися подмножествами вероятностного пространства, то![{\displaystyle B_{1},B_{2},B_{3},\dots }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathbb {P} \left(\bigcup _{i}B_{i}\right)=\sum _{i}\mathbb {P} (B_{i});}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
это называется счетной аддитивностью.
Если мы изменим множества так, что они станут непересекающимися,![{\displaystyle A_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle B_{i}=A_{i}-\bigcup _{j=1}^{i-1}A_{j}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
мы можем это показать
![{\ displaystyle \ bigcup _ {i = 1} ^ {\ infty } B_ {i} = \ bigcup _ {i = 1} ^ {\ infty } A_ {i}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
доказав оба направления включения.
Предполагать . Тогда для некоторого минимума такого, что . Поэтому . Итак, первое включение верно: .![{\displaystyle x\in \bigcup _{i=1}^{\infty }A_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x\in A_{k}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle k}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ displaystyle i <k \ подразумевает x \ notin A_ {i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x\in B_{k}=A_{k}-\bigcup _{j=1}^{k-1}A_{j}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \bigcup _{i=1}^{\infty }A_{i}\subset \bigcup _{i=1}^{\infty }B_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Далее предположим, что . Отсюда следует, что для некоторых . И так , и у нас есть другое включение: .![{\displaystyle x\in \bigcup _{i=1}^{\infty }B_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x\in B_ {k}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle k}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle B_{k}=A_{k}-\bigcup _{j=1}^{k-1}A_{j}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x\in A_{k}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \bigcup _{i=1}^{\infty }B_{i}\subset \bigcup _{i=1}^{\infty }A_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
По построению каждого , . Ибо это тот случай,![{\displaystyle B_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle B_{i}\subset A_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle B\subset A,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathbb {P} (B)\leq \mathbb {P} (A).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Итак, можно сделать вывод, что искомое неравенство верно:
![{\displaystyle \mathbb {P} \left(\bigcup _{i}A_{i}\right)=\mathbb {P} \left(\bigcup _{i}B_{i}\right)=\sum _ {i}\mathbb {P} (B_{i})\leq \sum _{i}\mathbb {P} (A_{i}).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Неравенства Бонферрони
Неравенство Буля можно обобщить, чтобы найти верхние и нижние границы вероятности конечных объединений событий. [2] Эти границы известны как неравенства Бонферрони в честь Карло Эмилио Бонферрони ; см. Бонферрони (1936).
Позволять
![{\displaystyle S_{1}:=\sum _{i=1}^{n}{\mathbb {P} }(A_{i}),\quad S_{2}:=\sum _{1\leq i_{1}<i_{2}\leq n}{\mathbb {P} }(A_{i_{1}}\cap A_{i_{2}}),\quad \ldots ,\quad S_{k} :=\sum _{1\leq i_{1}<\cdots <i_{k}\leq n}{\mathbb {P} }(A_{i_{1}}\cap \cdots \cap A_{i_{ к}})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
для всех целых чисел k из {1, ..., n }.
Тогда, когда нечетно:![{\displaystyle K\leq n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sum _{j=1}^{K}(-1)^{j-1}S_{j}\geq \mathbb {P} \left(\bigcup _{i=1}^{n }A_{i}\right)=\sum _{j=1}^{n}(-1)^{j-1}S_{j}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
выполняется, и когда четно:![{\displaystyle K\leq n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sum _{j=1}^{K}(-1)^{j-1}S_{j}\leq \mathbb {P} \left(\bigcup _{i=1}^{n }A_{i}\right)=\sum _{j=1}^{n}(-1)^{j-1}S_{j}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
держит.
Равенства следуют из принципа включения-исключения , а неравенство Буля является частным случаем .![{\displaystyle K=1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Доказательство нечетного K
Пусть , где для каждого . Они разделяют выборочное пространство, и для каждого из них оно либо содержится в нем , либо не пересекается с ним.![{\displaystyle E=\bigcap _{i=1}^{n}B_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle B_{i}\in \{A_{i},A_{i}^{c}\}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ Displaystyle я = 1, \ точки, п}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle E}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle E}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle я}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle E}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Если , то вносит 0 в обе части неравенства. ![{\displaystyle E=\bigcap _{i=1}^{n}A_{i}^{c}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle E}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
В противном случае предполагается, что он содержится именно в файле . Тогда вносит вклад точно в правую часть неравенства, а вносит вклад ![{\displaystyle E}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle L}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle E}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathbb {P} (E)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sum _{j=1}^{K}(-1)^{j-1}{L \choose j}\mathbb {P} (E)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
в левую часть неравенства. Однако по правилу Паскаля это равно
![{\displaystyle \sum _{j=1}^{K}(-1)^{j-1}\left({L-1 \choose j-1}+{L-1 \choose j}\right) \mathbb {P} (E)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
который телескопирует в
![{\displaystyle \left(1+{L-1 \choose K}\right)\mathbb {P} (E)\geq \mathbb {P} (E)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Таким образом, неравенство справедливо для всех событий и, таким образом, суммируя по , получаем искомое неравенство:![{\displaystyle E}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle E}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sum _{j=1}^{K}(-1)^{j-1}S_{j}\geq \mathbb {P} \left(\bigcup _{i=1}^{n }A_{i}\вправо)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Доказательство четности почти идентично. [3]![{\displaystyle K}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Пример
Предположим, что вы оцениваете 5 параметров на основе случайной выборки и можете контролировать каждый параметр отдельно. Если вы хотите, чтобы ваши оценки всех пяти параметров были хорошими с вероятностью 95 %, что вам следует сделать с каждым параметром?
Настроить вероятность того, что каждый параметр будет хорошим, с точностью до 95 % недостаточно, потому что «все хороши» — это подмножество каждого события «Оценка i — хорошо». Чтобы решить эту проблему, мы можем использовать неравенство Буля. Найдя дополнение к событию «все пятёрки хороши», мы можем изменить этот вопрос на другое условие:
P( хотя бы одна оценка плохая) = 0,05 ≤ P( A 1 плохая) + P( A 2 плохая) + P ( A 3 плохая) + P ( A 4 плохая) + P ( A 5 плохая )
Один из способов — сделать каждый из них равным 0,05/5 = 0,01, то есть 1%. Другими словами, вы должны гарантировать точность каждой оценки до 99% (например, путем построения доверительного интервала 99%), чтобы гарантировать, что общая оценка будет хорошей с вероятностью 95%. Это называется методом одновременного вывода Бонферрони.
Смотрите также
Рекомендации
- ^ Буль, Джордж (1847). Математический анализ логики. Философская библиотека. ISBN 9780802201546.
- ^ Казелла, Джордж; Бергер, Роджер Л. (2002). Статистические выводы. Даксбери. стр. 11–13. ISBN 0-534-24312-6.
- ^ Венкатеш, Сантош (2012). Теория Вероятности. Издательство Кембриджского университета. стр. 94–99, 113–115. ISBN 978-0-534-24312-8.
Другие статьи по теме
- Бонферрони, Карло Э. (1936), «Теория статистики классов и расчет вероятностей», Pubbl. ДР Ист. Супер. Ди Наука. Эконом. E Commerciali di Firenze (на итальянском языке), 8 : 1–62, Zbl 0016.41103
- Домен, Клаус (2003), Улучшенные неравенства Бонферрони с помощью абстрактных трубок. Неравенства и тождества типа включения-исключения , Конспект лекций по математике, вып. 1826, Берлин: Springer-Verlag , стр. viii+113, ISBN. 3-540-20025-8, МР 2019293, Збл 1026.05009
- Галамбос, Янош ; Симонелли, Итало (1996), Неравенства типа Бонферрони с приложениями , вероятность и ее приложения, Нью-Йорк: Springer-Verlag , стр. x+269, ISBN 0-387-94776-0, МР 1402242, Збл 0869.60014
- Галамбос, Янош (1977), «Неравенства Бонферрони», Annals of Probability , 5 (4): 577–581, doi : 10.1214/aop/1176995765 , JSTOR 2243081, MR 0448478, Zbl 0369.60018
- Галамбос, Янош (2001) [1994], «Неравенства Бонферрони», Математическая энциклопедия , EMS Press
Эта статья включает в себя материал о неравенствах Бонферрони на сайте PlanetMath , который доступен под лицензией Creative Commons Attribution/Share-Alike License .