stringtranslate.com

Независимость (теория вероятностей)

Независимость — фундаментальное понятие в теории вероятностей , а также в статистике и теории случайных процессов . Два события являются независимыми , статистически независимыми или стохастически независимыми [1] , если, неформально говоря, появление одного не влияет на вероятность появления другого или, что то же самое, не влияет на шансы . Аналогично две случайные величины являются независимыми, если реализация одной не влияет на распределение вероятностей другой.

При работе с наборами из более чем двух событий необходимо различать два понятия независимости. События называются попарно независимыми, если любые два события в коллекции независимы друг от друга, тогда как взаимная независимость (или коллективная независимость ) событий означает, неформально говоря, что каждое событие не зависит от любой комбинации других событий в коллекции. Аналогичное понятие существует для наборов случайных величин. Взаимная независимость подразумевает попарную независимость, но не наоборот. В стандартной литературе по теории вероятностей, статистике и случайным процессам независимость без дополнительных уточнений обычно относится к взаимной независимости.

Определение

Для мероприятий

Два события

Два события и независимы (часто пишутся как или , где последний символ часто также используется для обозначения условной независимости ) тогда и только тогда, когда их совместная вероятность равна произведению их вероятностей: [2] : p. 29  [3] : с. 10 

указывает на то, что два независимых события имеют общие элементы в своем пространстве выборки , поэтому они не являются взаимоисключающими (взаимоисключающие, если только ). Почему это определяет независимость, становится ясно, если переписать условные вероятности как вероятность, с которой событие произойдет, при условии, что событие произошло или предполагается, что оно произошло:

и аналогично

Таким образом, появление не влияет на вероятность , и наоборот. Другими словами, и независимы друг от друга. Хотя производные выражения могут показаться более интуитивными, они не являются предпочтительным определением, поскольку условные вероятности могут быть неопределенными, если они равны или равны 0. Кроме того, предпочтительное определение ясно дает понять, что симметрия не зависит от , также не зависит от .

Шансы

С точки зрения шансов , два события независимы тогда и только тогда, когда отношение шансов и равно единице (1). Аналогично вероятности, это эквивалентно тому, что условные шансы равны безусловным:

или чтобы шансы на одно событие при условии, что другое событие были такими же, как и шансы на событие, при условии, что другое событие не произошло:

Отношение шансов можно определить как

или симметрично для шансов данного , и, таким образом, равно 1 тогда и только тогда, когда события независимы.

Более двух событий

Конечное множество событий попарно независимо, если каждая пара событий независима [4] — то есть, тогда и только тогда , когда для всех различных пар индексов

Конечное множество событий является взаимно независимым , если каждое событие не зависит от любого пересечения других событий [4] [3] : с. 11  — то есть тогда и только тогда, когда для каждого и для каждого k индексов ,

Это называется правилом умножения независимых событий. Это не единственное условие, включающее в себя только произведение всех вероятностей всех отдельных событий; оно должно быть справедливым для всех подмножеств событий.

Для более чем двух событий взаимно независимый набор событий (по определению) попарно независим; но обратное не обязательно верно. [2] : с. 30 

Вероятность регистрации и информационное содержание

С точки зрения логарифмической вероятности два события независимы тогда и только тогда, когда логарифмическая вероятность совместного события представляет собой сумму логарифмических вероятностей отдельных событий:

В теории информации вероятность отрицательного журнала интерпретируется как информационное содержание , и, таким образом, два события независимы тогда и только тогда, когда информационное содержание объединенного события равно сумме информационного содержания отдельных событий:

Подробности см. в разделе «Информационное содержание § Аддитивность независимых событий» .

Для действительных случайных величин

Две случайные величины

Две случайные величины и независимы тогда и только тогда, когда (и только тогда) независимы элементы порожденной ими π -системы ; то есть для каждого и события и являются независимыми событиями (как определено выше в уравнении 1 ). То есть и с кумулятивными функциями распределения и , независимы тогда и только тогда, когда объединенная случайная величина имеет совместную кумулятивную функцию распределения [3] : с. 15 

или, что то же самое, если существуют плотности вероятности и совместная плотность вероятности ,

Более двух случайных величин

Конечное множество случайных величин попарно независимо тогда и только тогда, когда каждая пара случайных величин независима. Даже если набор случайных величин попарно независим, он не обязательно является взаимно независимым , как определено ниже.

Конечный набор случайных величин является взаимно независимым тогда и только тогда, когда для любой последовательности чисел события являются взаимно независимыми событиями (как определено выше в уравнении 3 ). Это эквивалентно следующему условию для совместной кумулятивной функции распределения . Конечное множество случайных величин взаимно независимо тогда и только тогда, когда [3] : с. 16 

Обратите внимание, что здесь нет необходимости требовать, чтобы распределение вероятностей факторизовалось для всех возможных подмножеств -элементов , как в случае с событиями. Это не требуется, поскольку, например, подразумевается .

Сторонники теории меры могут предпочесть заменить события событиями в приведенном выше определении, где любое борелевское множество . Это определение в точности эквивалентно приведенному выше, когда значения случайных величин являются действительными числами . Его преимущество заключается в том, что он работает также со случайными величинами с комплексными значениями или со случайными величинами, принимающими значения в любом измеримом пространстве (которое включает топологические пространства, наделенные соответствующими σ-алгебрами).

Для действительных случайных векторов

Два случайных вектора и называются независимыми, если [5] : с. 187 

где и обозначают кумулятивные функции распределения, а и обозначают их совместную кумулятивную функцию распределения. Независимость от и часто обозначается . Записываются покомпонентно и называются независимыми, если

Для случайных процессов

Для одного случайного процесса

Определение независимости может быть расширено от случайных векторов до случайного процесса . Следовательно, для независимого случайного процесса требуется, чтобы случайные величины, полученные путем выборки процесса в любой момент времени , были независимыми случайными величинами для любого . [6] : с. 163 

Формально случайный процесс называется независимым тогда и только тогда, когда для всех и для всех

где . Независимость случайного процесса — это свойство внутри случайного процесса, а не между двумя случайными процессами.

Для двух случайных процессов

Независимость двух случайных процессов — это свойство двух случайных процессов, определенных в одном и том же вероятностном пространстве . Формально два случайных процесса и называются независимыми, если для всех и для всех случайные векторы и независимы, [7] : с. 515  то есть если

Независимые σ-алгебры

Оба определения, приведенные выше ( уравнение 1 и уравнение 2 ), обобщаются следующим определением независимости σ-алгебр . Пусть – вероятностное пространство и пусть и – две под-σ-алгебры . и называются независимыми, если, когда и ,

Аналогично, конечное семейство σ-алгебр , где – множество индексов , называется независимым тогда и только тогда, когда

и бесконечное семейство σ-алгебр называется независимым, если все его конечные подсемейства независимы.

Новое определение напрямую связано с предыдущими:

Используя это определение, легко показать, что если и являются случайными величинами и постоянны, то и независимы, поскольку σ-алгебра, порожденная постоянной случайной величиной, является тривиальной σ-алгеброй . События с нулевой вероятностью не могут повлиять на независимость, поэтому независимость также сохраняется, если только Pr- почти наверняка постоянна.

Характеристики

Самостоятельность

Обратите внимание, что событие независимо от самого себя тогда и только тогда, когда

Таким образом, событие независимо от самого себя тогда и только тогда, когда оно почти наверняка произойдет или его дополнение почти наверняка произойдет; этот факт полезен при доказательстве законов нуля и единицы . [8]

Ожидание и ковариация

Если и являются статистически независимыми случайными величинами, то оператор ожидания обладает свойством

[9] : с. 10 

и ковариация равна нулю, как следует из

Обратное неверно: если две случайные величины имеют ковариацию 0, они все равно не могут быть независимыми.

Аналогично для двух случайных процессов и : Если они независимы, то они некоррелированы . [10] : с. 151 

Характеристическая функция

Две случайные величины и независимы тогда и только тогда, когда характеристическая функция случайного вектора удовлетворяет условию

В частности, характеристическая функция их суммы является произведением их предельных характеристических функций:

хотя обратное импликация неверно. Случайные величины, удовлетворяющие последнему условию, называются субнезависимыми .

Примеры

Бросок кубиков

Событие выпадения 6 при первом броске кубика и событие выпадения 6 во второй раз независимы . Напротив, событие выпадения 6 при первом броске кубика и событие, когда сумма чисел, увиденных при первом и втором испытаниях, равна 8, не являются независимыми.

Вытягивание карт

Если из колоды карт взяты две карты с заменой, то события вытягивания красной карты при первой попытке и события вытягивания красной карты при второй попытке независимы . Напротив, если из колоды карт вытягиваются две карты без замены, события вытягивания красной карты в первой попытке и события вытягивания красной карты во второй попытке не являются независимыми, поскольку колода, в которой была красная карта, не является независимой. У удаленной карты пропорционально меньше красных карточек.

Парная и взаимная независимость

Попарно независимые, но не взаимно независимые события
Взаимонезависимые события

Рассмотрим два показанных вероятностных пространства. В обоих случаях и . Случайные величины в первом пространстве попарно независимы, поскольку , и ; но три случайные величины не являются взаимно независимыми. Случайные величины во втором пространстве являются как попарно независимыми, так и взаимно независимыми. Чтобы проиллюстрировать разницу, рассмотрим обусловленность двумя событиями. В попарно независимом случае, хотя любое одно событие не зависит от каждого из двух других в отдельности, оно не является независимым от пересечения двух других:

Однако во взаимно независимом случае

Тройная независимость, но нет попарной независимости

Можно создать пример с тремя событиями, в котором

и все же никакие два из трех событий не являются попарно независимыми (и, следовательно, набор событий не является взаимно независимым). [11] Этот пример показывает, что взаимная независимость включает требования к произведениям вероятностей всех комбинаций событий, а не только отдельных событий, как в этом примере.

Условная независимость

Для мероприятий

События и условно независимы при событии, когда

.

Для случайных величин

Интуитивно понятно, что две случайные величины и являются условно независимыми, если, как только они известны, значение не добавляет никакой дополнительной информации о . Например, два измерения одной и той же базовой величины не являются независимыми, но они являются условно независимыми (если только ошибки в двух измерениях не связаны каким-либо образом).

Формальное определение условной независимости основано на идее условных распределений . Если , , и являются дискретными случайными величинами , то мы определяем и быть условно независимыми, если

для всех , и такое то . С другой стороны, если случайные величины непрерывны и имеют совместную функцию плотности вероятности , то и условно независимы, если

для всех действительных чисел и таких , что .

Если дискретны и условно независимы при заданных , то

для любого и с . То есть условное распределение для данного и такое же, как и для данного в отдельности. Аналогичное уравнение справедливо для функций условной плотности вероятности в непрерывном случае.

Независимость можно рассматривать как особый вид условной независимости, поскольку вероятность можно рассматривать как разновидность условной вероятности при отсутствии событий.

История

До 1933 года независимость в теории вероятностей определялась устно. Например, де Муавр дал следующее определение: «Два события независимы, когда они не имеют связи одно с другим и что возникновение одного не ускоряет и не препятствует совершению другого». [12] Если существует n независимых событий, вероятность того, что все они произойдут, вычислялась как произведение вероятностей этих n событий. По-видимому, существовало убеждение, что эта формула является следствием приведенного определения. (Иногда это называли теоремой умножения.) Конечно, доказательство его утверждения не может работать без дальнейших, более формальных неявных предположений.

Определение независимости, данное в этой статье, стало стандартным определением (ныне используемым во всех книгах) после того, как оно появилось в 1933 году как часть аксиоматизации вероятности Колмогорова. [13] Колмогоров приписал это С. Н. Бернштейну и процитировал публикацию, вышедшую на русском языке в 1927 году. [14]

К сожалению, ни Бернштейн, ни Колмогоров не знали о работах Георга Больмана . Больман дал одно и то же определение для двух событий в 1901 году [15] и для n событий в 1908 году [16] . В последней статье он подробно изучил свое понятие. Например, он привел первый пример, показывающий, что попарная независимость не означает взаимной независимости. Даже сегодня Больмана цитируют редко. Дополнительную информацию о его работе можно найти в статье Ульриха Кренгеля «О вкладе Георга Больмана в теорию вероятностей ». [17]

Смотрите также

Рекомендации

  1. ^ Рассел, Стюарт; Норвиг, Питер (2002). Искусственный интеллект: современный подход . Прентис Холл . п. 478. ИСБН 0-13-790395-2.
  2. ^ аб Флореску, Ионут (2014). Вероятность и случайные процессы . Уайли. ISBN 978-0-470-62455-5.
  3. ^ abcd Галлагер, Роберт Г. (2013). Теория случайных процессов для приложений . Издательство Кембриджского университета. ISBN 978-1-107-03975-9.
  4. ^ Аб Феллер, W (1971). «Стохастическая независимость». Введение в теорию вероятностей и ее приложения . Уайли .
  5. ^ Папулис, Афанасиос (1991). Вероятность, случайные величины и случайные процессы . МакГроу Хилл. ISBN 0-07-048477-5.
  6. ^ Хвэй, Пяо (1997). Теория и проблемы вероятностей, случайных величин и случайных процессов . МакГроу-Хилл. ISBN 0-07-030644-3.
  7. ^ Амос Лапидот (8 февраля 2017 г.). Фонд цифровых коммуникаций. Издательство Кембриджского университета. ISBN 978-1-107-17732-1.
  8. ^ Дарретт, Ричард (1996). Вероятность: теория и примеры (Второе изд.).стр. 62
  9. ^ Э Джейкман. МОДЕЛИРОВАНИЕ КОЛЕБАНИЙ В РАССЕЯННЫХ ВОЛНАХ . ISBN 978-0-7503-1005-5.
  10. ^ Пак, Кун Иль (2018). Основы теории вероятности и случайных процессов с приложениями к средствам связи . Спрингер. ISBN 978-3-319-68074-3.
  11. ^ Джордж, Глин, «Проверка независимости трех событий», Mathematical Gazette 88, ноябрь 2004 г., 568. PDF
  12. ^ Цитируется по: «Введение в вероятность» Гринстеда и Снелла. В: Проект ШАНС. Версия от 4 июля 2006 г.
  13. ^ Колмогоров, Андрей (1933). Grundbegriffe der Wahrscheinlichkeitsrechnung (на немецком языке). Берлин: Юлиус Шпрингер. Перевод: Колмогоров, Андрей (1956). Перевод:Основы теории вероятностей (2-е изд.). Нью-Йорк: Челси. ISBN 978-0-8284-0023-7.
  14. С. Н. Бернштейн , Теория вероятностей (рус.), Москва, 1927 (4 издания, последнее 1946 г.)
  15. ^ Георг Больманн : Lebensversicherungsmathematik, Encyklop¨adie der mathematischen Wissenschaften, Bd I, Teil 2, Artikel ID 4b (1901), 852–917
  16. ^ Георг Больманн : Die Grundbegriffe der Wahrscheinlichkeitsrechnung в ihrer Anwendung auf die Lebensversichrung, Atti del IV. Конгресс Межд. деи Матем. Ром, Бд. III (1908), 244–278.
  17. ^ de: Ульрих Кренгель: О вкладе Георга Больмана в теорию вероятностей (PDF; 6,4 МБ), Электронный журнал истории вероятностей и статистики, 2011.

Внешние ссылки