stringtranslate.com

Условная возможность

В теории вероятностей условная вероятность — это мера вероятности возникновения события при условии, что уже известно, что другое событие (по предположению, презумпции, утверждению или свидетельству) произошло. [1] Этот конкретный метод основан на том, что событие A происходит в некоторой связи с другим событием B. В этой ситуации событие A можно проанализировать с помощью условной вероятности относительно B. Если интересующее событие — это A, а событие Известно или предполагается, что событие B произошло, «условная вероятность A при условии B » или «вероятность A при условии B » обычно записывается как P( A | B ) [2] или иногда P B ( A ) . Это также можно понимать как долю вероятности B, которая пересекается с A, или отношение вероятностей того, что произойдет оба события, к случаю «данного» события (сколько раз происходит A, а не не предполагается, что B произошло): . [3]

Например, вероятность того, что у какого-либо человека в любой день будет кашель, может составлять всего 5%. Но если мы знаем или предполагаем, что человек болен, то вероятность того, что он будет кашлять, гораздо выше. Например, условная вероятность того, что кто-то нездоров (больной) кашляет, может составлять 75%, и в этом случае мы будем иметь P(Кашель) = 5% и P(Кашель | Больной) = 75%. Хотя в этом примере существует связь между A и B , такая связь или зависимость между A и B не является обязательной, и они не должны возникать одновременно.

P( A | B ) может быть равным или не равным P( A ) , т. е. безусловной вероятности или абсолютной вероятности A . Если P( A | B ) = P( A ) , то события A и B называются независимыми : в таком случае знание о любом событии не меняет вероятность друг друга. P( A | B ) (условная вероятность A при условии B ) обычно отличается от P( B | A ) . Например, если у человека лихорадка денге , вероятность того, что у него будет положительный результат теста на это заболевание, может составлять 90%. В этом случае измеряется то, что если событие B ( заболевание лихорадкой денге ) произошло, вероятность события A ( проверенного как положительное ) при условии, что произошло событие B , составляет 90%, просто записывая P( A | B ) = 90%. С другой стороны, если у человека положительный результат теста на лихорадку денге, у него может быть только 15% вероятность того, что он действительно заболеет этим редким заболеванием из-за высокого уровня ложноположительных результатов. В этом случае вероятность события B ( заболевание лихорадкой денге ) при условии, что событие A ( положительный результат теста ) произошло, составляет 15% или P( B | A ) = 15%. Теперь должно быть очевидно, что ошибочное приравнивание двух вероятностей может привести к различным ошибкам в рассуждениях, что обычно проявляется в ошибках базовой ставки .

Хотя условные вероятности могут предоставить чрезвычайно полезную информацию, часто предоставляется или находится под рукой ограниченная информация. Поэтому может быть полезно обратить вспять или преобразовать условную вероятность с помощью теоремы Байеса : . [4] Другой вариант — отобразить условные вероятности в таблице условной вероятности , чтобы пролить свет на взаимосвязь между событиями.

Определение

Иллюстрация условных вероятностей с помощью диаграммы Эйлера . Безусловная вероятность P( A ) = 0,30 + 0,10 + 0,12 = 0,52. Однако условная вероятность P ( A | B 1 ) = 1, P ( A | B 2 ) = 0,12 ÷ (0,12 + 0,04) = 0,75 и P( A | B 3 ) = 0.
На древовидной диаграмме вероятности ветвления зависят от события, связанного с родительским узлом. (Здесь верхняя черта указывает на то, что событие не происходит.)
Круговая диаграмма Венна, описывающая условные вероятности

Кондиционирование по событию

Колмогоровское определение

Учитывая два события A и B из сигма-поля вероятностного пространства, при этом безусловная вероятность B больше нуля (т. е. P( B ) > 0) , условная вероятность A при условии B ( ) является вероятностью Происшествие , если событие B произошло или предполагается, что произошло. [5] Предполагается, что A представляет собой набор всех возможных результатов эксперимента или случайного исследования с ограниченным или сокращенным пространством выборки. Условную вероятность можно найти как частное вероятности совместного пересечения событий A и B ( ) — вероятности того, что A и B произойдут вместе, хотя и не обязательно происходят одновременно, — и вероятности B : [ 2] [6] [7]

.

Для выборочного пространства, состоящего из исходов с равной вероятностью, вероятность события А понимается как доля числа исходов в А к числу всех исходов в выборочном пространстве. Тогда под этим уравнением понимается доля множества по отношению к множеству B . Обратите внимание, что приведенное выше уравнение является определением, а не просто теоретическим результатом. Обозначим величину как и назовем ее «условной вероятностью А при условии В ».

Как аксиома вероятности

Некоторые авторы, например де Финетти , предпочитают вводить условную вероятность как аксиому вероятности :

.

Это уравнение для условной вероятности, хотя оно и эквивалентно математически, интуитивно может быть проще для понимания. Его можно интерпретировать как «вероятность возникновения B , умноженная на вероятность возникновения A , при условии, что B произошло, равна вероятности возникновения A и B вместе, хотя и не обязательно произойдет в одно и то же время». Кроме того, это может быть предпочтительным с философской точки зрения; Согласно основным интерпретациям вероятности , таким как субъективная теория , условная вероятность считается примитивной сущностью. Более того, это «правило умножения» может быть практически полезным при вычислении вероятности и вводит симметрию с аксиомой суммирования для формулы Пуанкаре:

Таким образом, уравнения можно объединить, чтобы найти новое представление:

Как вероятность условного события

Условную вероятность можно определить как вероятность условного события . Условное событие Гудмана -Нгуена-Ван Фраассена можно определить как:

, где и представляют состояния или элементы A или B. [8]

Можно показать, что

что соответствует определению условной вероятности Колмогорова. [9]

Обусловливание событием с нулевой вероятностью

Если , то по определению не определено .

Наибольший интерес представляет случай случайной величины Y , обусловленной непрерывной случайной величиной X , приводящей к определенному результату x . Событие имеет нулевую вероятность и, как таковое, не может быть обусловлено.

Вместо того, чтобы обуславливать X равным именно x , мы могли бы поставить условие, чтобы оно было ближе, чем расстояние от x . Событие обычно имеет ненулевую вероятность и, следовательно, может быть обусловлено. Тогда мы можем взять предел

Например, если две непрерывные случайные величины X и Y имеют совместную плотность , то по правилу Лопиталя и интегральному правилу Лейбница при дифференцировании по :

Результирующий предел представляет собой условное распределение вероятностей Y при заданном X и существует, когда знаменатель, плотность вероятности , строго положителен.

Соблазнительно определить неопределенную вероятность, используя этот предел, но это невозможно сделать последовательным образом. В частности, можно найти случайные величины X и W и значения x , w такие, что события и являются идентичными, но результирующие пределы не являются: [10]

Парадокс Бореля -Колмогорова демонстрирует это с помощью геометрического аргумента.

Условие на дискретной случайной величине

Пусть X — дискретная случайная величина, а ее возможные результаты обозначаются V. Например, если X представляет ценность брошенного игрального кубика, то V — это множество . Предположим для наглядности, что X — дискретная случайная величина, так что каждое значение в V имеет ненулевую вероятность.

Для значения x в V и события A условная вероятность определяется выражением . Письмо

короче, мы видим , что это функция двух переменных: x и A.

Для фиксированного A мы можем сформировать случайную величину . Он представляет собой результат всякий раз, когда наблюдается значение x из X.

Таким образом, условную вероятность A при данном X можно рассматривать как случайную величину Y с результатами в интервале . По закону полной вероятности его ожидаемое значение равно безусловной вероятности А.

Частичная условная вероятность

Частичная условная вероятность — это вероятность события при условии, что каждое из событий-условий произошло в степени (степени убеждения, степени опыта), которая может отличаться от 100%. С точки зрения частотности, частичная условная вероятность имеет смысл, если условия проверяются в повторениях эксперимента соответствующей длины . [11] Такую -ограниченную частичную условную вероятность можно определить как условно ожидаемое среднее возникновение события на испытательных стендах такой длины , которая соответствует всем спецификациям вероятности , т.е.:

[11]

Исходя из этого, частичную условную вероятность можно определить как

где [11]

Кондиционализация Джеффри [12] [13] представляет собой частный случай частичной условной вероятности, в которой события условия должны образовывать раздел :

Пример

Предположим, что кто-то тайно бросает два справедливых шестигранных кубика , и мы хотим вычислить вероятность того, что выпавшее на лицевой стороне первое из них будет равно 2, учитывая информацию о том, что их сумма не превышает 5.

Вероятность того, что D 1  = 2

В таблице 1 показано выборочное пространство из 36 комбинаций выпавших значений двух игральных костей, каждая из которых встречается с вероятностью 1/36, при этом числа, отображаемые в красных и темно-серых ячейках, равны D 1 + D 2 .

D 1  = 2 ровно в 6 из 36 исходов; таким образом P ( D 1 = 2) =  636  =  16 :

Вероятность того, что D 1  +  D 2  ≤ 5

Таблица 2 показывает, что D 1  +  D 2  ≤ 5 ровно для 10 из 36 исходов, таким образом, P ( D 1  +  D 2  ≤ 5) =  1036 :

Вероятность того, что D 1  = 2 при условии, что D 1  +  D 2  ≤ 5

Таблица 3 показывает, что для 3 из этих 10 исходов D 1  = 2.

Таким образом, условная вероятность P( D 1  = 2 |  D 1 + D 2  ≤ 5) =  310  = 0,3:

Здесь, в более ранних обозначениях определения условной вероятности, обуславливающее событие B — это D 1  +  D 2  ≤ 5, а событие A — это D 1  = 2. Мы имеем то, что видно из таблицы.

Использование в выводе

В статистическом выводе условная вероятность — это обновление вероятности события на основе новой информации. [14] Новая информация может быть включена следующим образом: [1]

В результате этого подхода получается вероятностная мера, согласующаяся с исходной вероятностной мерой и удовлетворяющая всем аксиомам Колмогорова . Эта условная вероятностная мера также могла бы возникнуть в результате предположения, что относительная величина вероятности A по отношению к X будет сохранена по отношению к B (см. Формальный вывод ниже).

Слова «доказательства» или «информация» обычно используются в байесовской интерпретации вероятности . Обусловливающее событие интерпретируется как свидетельство обусловленного события. То есть P ( A ) — это вероятность A до учета свидетельства E , а P ( A | E ) — это вероятность A после учета свидетельств E или после обновления P ( A ). Это согласуется с частотной интерпретацией, которая является первым определением, данным выше.

Пример

При передаче кода Морзе существует определенная вероятность того, что полученная «точка» или «тире» окажется ошибочной. Это часто воспринимается как вмешательство в передачу сообщения. Поэтому важно при отправке «точки» учитывать, например, вероятность того, что «точка» была получена. Это представлено следующим образом: В коде Морзе соотношение точек и тире в момент отправки составляет 3:4, поэтому вероятность появления «точки» и «тире» равна . Если предположить, что вероятность того, что точка будет передана как тире, равна 1/10, а вероятность того, что тире будет передана как точка, также равна 1/10, то для расчета можно использовать правило Байеса .

Теперь можно посчитать:

[15]

Статистическая независимость

События A и B считаются статистически независимыми , если вероятность пересечения A и B равна произведению вероятностей A и B:

Если P ( B ) не равно нулю, то это эквивалентно утверждению, что

Аналогично, если P ( A ) не равно нулю, то

также эквивалентно. Хотя производные формы могут показаться более интуитивными, они не являются предпочтительным определением, поскольку условные вероятности могут быть неопределенными, а предпочтительное определение симметрично относительно A и B. Независимость не относится к непересекающемуся событию. [16]

Следует также отметить, что для пары независимых событий [AB] и события C пара определяется как условно независимая , если произведение истинно: [17]

Эта теорема может быть полезна в приложениях, где наблюдается множество независимых событий.

Независимые события против взаимоисключающих событий

Понятия взаимонезависимых событий и взаимоисключающих событий являются отдельными и различными. В следующей таблице сравниваются результаты для двух случаев (при условии, что вероятность события кондиционирования не равна нулю).

В действительности взаимоисключающие события не могут быть статистически независимыми (если только оба они невозможны), поскольку знание о том, что одно происходит, дает информацию о другом (в частности, о том, что последнее заведомо не произойдет).

Распространенные заблуждения

Эти заблуждения не следует путать с «условной ошибкой» Роберта К. Шопа 1978 года, в которой рассматриваются контрфактические примеры, вызывающие вопросы .

Предполагая, что условная вероятность имеет размер, аналогичный ее обратной величине.

Геометрическая визуализация теоремы Байеса. В таблице значения 2, 3, 6 и 9 обозначают относительные веса каждого соответствующего условия и случая. Цифры обозначают ячейки таблицы, участвующие в каждой метрике, причем вероятность представляет собой долю каждой заштрихованной цифры. Это показывает, что P(A|B) P(B) = P(B|A) P(A), т.е. P(A|B) =Р(Б|А) Р(А)/П(Б). Аналогичные рассуждения можно использовать, чтобы показать, что P(Ā|B) =P(B|À) P(À)/П(Б)и т. д.

В общем случае нельзя предполагать, что P ( A | B ) ≈  P ( B | A ). Это может быть коварной ошибкой даже для тех, кто хорошо знаком со статистикой. [18] Связь между P ( A | B ) и P ( B | A ) определяется теоремой Байеса :

То есть P( A | B ) ≈ P( B | A ) только в том случае, если P ( B )/ P ( A ) ≈ 1 или, что то же самое, P ( A ) ≈  P ( B ).

Предполагая, что предельные и условные вероятности имеют одинаковый размер.

В общем случае нельзя предполагать, что P ( A ) ≈  P ( A | B ). Эти вероятности связаны законом полной вероятности :

где события образуют счетный раздел .

Эта ошибка может возникнуть из-за предвзятости отбора . [19] Например, в контексте медицинского заявления, пусть SC будет событием, когда последствие (хроническое заболевание) S возникает как следствие обстоятельства (острое состояние ) C. Пусть H — событие обращения человека за медицинской помощью. Предположим, что в большинстве случаев C не вызывает S (так что P ( SC ) низкое). Предположим также , что за медицинской помощью обращаются только в том случае, если S произошло из-за C. Поэтому, исходя из опыта пациентов, врач может ошибочно заключить, что P ( SC ) высокое. Фактическая вероятность , наблюдаемая врачом, равна P ( SC | H ).

Избыточный или недостаточный вес априорных показателей

Частичный или полный отказ от учета априорной вероятности называется пренебрежением базовой ставкой . Обратная ситуация – недостаточная корректировка априорной вероятности – это консерватизм .

Формальный вывод

Формально P ( A  |  B ) определяется как вероятность A в соответствии с новой функцией вероятности в выборочном пространстве, такая, что результаты, не входящие в B , имеют вероятность 0 и согласуются со всеми исходными вероятностными мерами . [20] [21]

Пусть Ω — дискретное выборочное пространство с элементарными событиями { ω }, и пусть P — вероятностная мера относительно σ-алгебры Ω. Предположим, нам сообщили, что событие B  ⊆ Ω произошло. Чтобы отразить это, новое распределение вероятностей (обозначенное условным обозначением) должно быть назначено { ω }. Все события, которых нет в B, будут иметь нулевую вероятность в новом распределении. Для событий в B должны соблюдаться два условия: вероятность B равна единице и относительные величины вероятностей должны сохраняться. Первое требуется аксиомами вероятности , а последнее проистекает из того факта, что новая вероятностная мера должна быть аналогом P , в котором вероятность B равна единице - и поэтому каждое событие, которое не находится в B , имеет нулевая вероятность. Следовательно, для некоторого масштабного коэффициента α новое распределение должно удовлетворять:

Подставляя 1 и 2 в 3, чтобы выбрать α :

Итак , новое распределение вероятностей

Теперь об общем событии А :

Смотрите также

Рекомендации

  1. ^ Аб Гут, Аллан (2013). Вероятность: аспирантура (второе изд.). Нью-Йорк, штат Нью-Йорк: Спрингер. ISBN 978-1-4614-4707-8.
  2. ^ ab «Условная вероятность». www.mathsisfun.com . Проверено 11 сентября 2020 г.
  3. ^ Деккинг, Фредерик Мишель; Краайкамп, Корнелис; Лопухаа, Хендрик Пауль; Местер, Людольф Эрвин (2005). «Современное введение в вероятность и статистику». Тексты Спрингера в статистике : 26. doi : 10.1007/1-84628-168-7. ISBN 978-1-85233-896-1. ISSN  1431-875X.
  4. ^ Деккинг, Фредерик Мишель; Краайкамп, Корнелис; Лопухаа, Хендрик Пауль; Местер, Людольф Эрвин (2005). «Современное введение в вероятность и статистику». Тексты Спрингера в статистике : 25–40. дои : 10.1007/1-84628-168-7. ISBN 978-1-85233-896-1. ISSN  1431-875X.
  5. ^ Райхл, Линда Элизабет (2016). «2.3 Вероятность». Современный курс статистической физики (4-е исправленное и обновленное изд.). ВИЛИ-ВЧ. ISBN 978-3-527-69049-7.
  6. ^ Колмогоров, Андрей (1956), Основы теории вероятностей , Челси
  7. ^ «Условная вероятность». www.stat.yale.edu . Проверено 11 сентября 2020 г.
  8. ^ Фламинио, Томмазо; Годо, Луис; Хосни, Хайкел (01 сентября 2020 г.). «Бульевы алгебры кондиционалов, вероятностей и логики». Искусственный интеллект . 286 : 103347. arXiv : 2006.04673 . doi : 10.1016/j.artint.2020.103347. ISSN  0004-3702. S2CID  214584872.
  9. ^ Ван Фраассен, Бас К. (1976), Харпер, Уильям Л.; Хукер, Клиффорд Алан (ред.), «Вероятности кондиционалов», « Основы теории вероятностей, статистических выводов и статистических теорий науки: том I. Основы и философия эпистемических приложений теории вероятностей» , Серия Университета Западного Онтарио по философии Наука, Дордрехт: Springer Нидерланды, стр. 261–308, номер документа : 10.1007/978-94-010-1853-1_10, ISBN . 978-94-010-1853-1, получено 4 декабря 2021 г.
  10. ^ Галь, Ярин. «Парадокс Бореля – Колмогорова» (PDF) .
  11. ^ abc Драхайм, Дирк (2017). «Обобщенная кондиционализация Джеффри (частотная семантика частичной кондиционализации)». Спрингер . Проверено 19 декабря 2017 г.
  12. ^ Джеффри, Ричард К. (1983), Логика решения, 2-е издание, University of Chicago Press, ISBN 9780226395821
  13. ^ "Байесовская эпистемология". Стэнфордская энциклопедия философии. 2017 . Проверено 29 декабря 2017 г.
  14. ^ Казелла, Джордж; Бергер, Роджер Л. (2002). Статистические выводы . Даксбери Пресс. ISBN 0-534-24312-6.
  15. ^ «Условная вероятность и независимость» (PDF) . Проверено 22 декабря 2021 г.
  16. ^ Таймс, Хенк (2012). Понимание вероятности (3-е изд.). Кембридж: Издательство Кембриджского университета. дои : 10.1017/cbo9781139206990. ISBN 978-1-107-65856-1.
  17. ^ Пфайффер, Пол Э. (1978). Условная независимость в прикладной теории вероятности. Бостон, Массачусетс: Биркхойзер Бостон. ISBN 978-1-4612-6335-7. ОСЛК  858880328.
  18. ^ Паулос, Дж. А. (1988) Неумение считать: математическая неграмотность и ее последствия , Хилл и Ван. ISBN 0-8090-7447-8 (стр. 63 и далее
  19. ^ Ф. Томас Брусс Der Wyatt-Earp-Effekt oder die betörende Macht kleiner Wahrscheinlichkeiten (на немецком языке), Spektrum der Wissenschaft (немецкое издание журнала Scientific American), Том 2, 110–113, (2007).
  20. ^ Джордж Казелла и Роджер Л. Бергер (1990), Статистический вывод , Duxbury Press, ISBN 0-534-11958-1 (стр. 18 и след.
  21. ^ Введение Гринстеда и Снелла в вероятность, с. 134

Внешние ссылки