stringtranslate.com

Совместное распределение вероятностей

Учитывая две случайные величины , которые определены в одном и том же вероятностном пространстве , [1] совместное распределение вероятностей представляет собой соответствующее распределение вероятностей для всех возможных пар выходных данных. Совместное распределение с тем же успехом можно рассматривать для любого заданного числа случайных величин. Совместное распределение кодирует маргинальные распределения , то есть распределения каждой из отдельных случайных величин и распределения условных вероятностей , которые имеют дело с тем, как распределяются выходные данные одной случайной величины, когда предоставляется информация о выходных данных другой случайной величины (ов). .

В формальной математической структуре теории меры совместное распределение задается мерой прямого действия , картой, полученной путем объединения в пары данных случайных величин, вероятностной меры выборочного пространства .

В случае вещественных случайных величин совместное распределение, как конкретное многомерное распределение, может быть выражено многомерной кумулятивной функцией распределения или многомерной функцией плотности вероятности вместе с многомерной функцией массы вероятности . В частном случае непрерывных случайных величин достаточно рассмотреть функции плотности вероятности, а в случае дискретных случайных величин достаточно рассмотреть функции массы вероятности.

Примеры

Рисует из урны

В каждой из двух урн содержится в два раза больше красных шаров, чем синих шаров, и никаких других, и из каждой урны случайным образом выбирается один шар, при этом два розыгрыша независимы друг от друга. Пусть и – дискретные случайные величины, связанные с результатами розыгрыша первой и второй урны соответственно. Вероятность вытащить красный шар из любой из урн равна 2/3, а вероятность вытащить синий шар – 1/3. Совместное распределение вероятностей представлено в следующей таблице:

Каждая из четырех внутренних ячеек показывает вероятность определенной комбинации результатов двух розыгрышей; эти вероятности представляют собой совместное распределение. В любой ячейке вероятность появления определенной комбинации равна (поскольку розыгрыши независимы) произведению вероятности указанного результата для A и вероятности указанного результата для B. Сумма вероятностей в этих четырех ячейках равна 1, как и все распределения вероятностей.

Более того, последняя строка и последний столбец дают предельное распределение вероятностей для A и предельное распределение вероятностей для B соответственно. Например, для A первая из этих ячеек дает сумму вероятностей того, что A будет красным, независимо от того, какая вероятность B в столбце над ячейкой возникает, как 2/3. Таким образом, предельное распределение вероятностей для дает безусловные вероятности на , на краю таблицы.

Подбрасывание монеты

Рассмотрим подбрасывание двух честных монет ; пусть и будут дискретными случайными величинами, связанными с результатами первого и второго подбрасывания монеты соответственно. Каждый подбрасывание монеты представляет собой испытание Бернулли и имеет распределение Бернулли . Если на монете изображен «орёл», то соответствующая случайная величина принимает значение 1, в противном случае — значение 0. Вероятность каждого из этих исходов равна 1/2, поэтому маргинальные (безусловные) функции плотности равны

Совместная функция массы вероятности и определяет вероятности для каждой пары результатов. Все возможные исходы

Поскольку каждый исход одинаково вероятен, совместная функция массы вероятности принимает вид

Поскольку подбрасывания монеты независимы, совместная функция массы вероятности является произведением маргинальных значений:

Бросок кости

Рассмотрим бросок честной кости и определим , если число четное (т. е. 2, 4 или 6), и в противном случае. Кроме того, пусть, если число простое (т. е. 2, 3 или 5) и в противном случае.

Тогда совместное распределение и , выраженное как функция массы вероятности, равно

Сумма этих вероятностей обязательно равна 1, поскольку вероятность некоторой комбинации и возникновения равна 1.

Маргинальное распределение вероятностей

Если в случайном эксперименте определено более одной случайной величины, важно различать совместное распределение вероятностей X и Y и распределение вероятностей каждой переменной в отдельности. Индивидуальное распределение вероятностей случайной величины называется ее предельным распределением вероятностей. В общем, предельное распределение вероятностей X можно определить из совместного распределения вероятностей X и других случайных величин.

Если совместная функция плотности вероятности случайной величины X и Y равна , предельная функция плотности вероятности X и Y, которая определяет предельное распределение , определяется выражением:


где первый интеграл рассчитан по всем точкам диапазона (X,Y), для которых X=x, а второй интеграл рассчитан по всем точкам диапазона (X,Y), для которых Y=y. [2]

Совместная кумулятивная функция распределения

Для пары случайных величин совместная кумулятивная функция распределения (CDF) определяется выражением [3] : с. 89 

где правая часть представляет вероятность того, что случайная величина примет значение меньше или равное, а также значение , меньшее или равное .

Для случайных величин совместный CDF определяется выражением

Интерпретация случайных величин как случайного вектора дает более короткие обозначения:

Функция плотности суставов или функция массы

Дискретный случай

Совместная массовая функция вероятности двух дискретных случайных величин :

или записано в терминах условных распределений

где вероятность того , что .

Обобщением предыдущего случая с двумя переменными является совместное распределение вероятностей дискретных случайных величин , которое имеет вид:

или эквивалентно

.

Это тождество известно как цепное правило вероятности .

Поскольку это вероятности, в случае двух переменных

который обобщается для дискретных случайных величин до

Непрерывный случай

Совместная функция плотности вероятности для двух непрерывных случайных величин определяется как производная совместной кумулятивной функции распределения (см. уравнение 1 ):

Это равно:

где и — условные распределения данного и данного соответственно, а и — предельные распределения для и соответственно.

Определение естественным образом распространяется на более чем две случайные величины:

Опять же, поскольку это распределения вероятностей, имеем

соответственно

Смешанный случай

«Смешанная плотность соединений» может быть определена, когда одна или несколько случайных величин являются непрерывными, а другие случайные величины являются дискретными. С одной переменной каждого типа

Один из примеров ситуации, в которой может потребоваться найти кумулятивное распределение одной случайной величины, которая является непрерывной, и другой случайной величины, которая является дискретной, возникает, когда кто-то хочет использовать логистическую регрессию для прогнозирования вероятности двоичного результата Y при условии, что ценность непрерывно распределяемого результата . При нахождении кумулятивного распределения этого двоичного результата необходимо использовать «смешанную» плотность соединений, поскольку входные переменные изначально были определены таким образом, что нельзя было коллективно присвоить им ни функцию плотности вероятности, ни функцию массы вероятности. Формально – функция плотности вероятности относительно меры произведения на соответствующих носителях и . Любое из этих двух разложений затем можно использовать для восстановления совместной кумулятивной функции распределения:

Определение обобщается на смесь произвольных чисел дискретных и непрерывных случайных величин.

Дополнительные свойства

Совместное распределение независимых переменных

В общем случае две случайные величины независимы тогда и только тогда, когда совместная кумулятивная функция распределения удовлетворяет условию

Две дискретные случайные величины , независимые тогда и только тогда, когда совместная функция массы вероятности удовлетворяет условию

для всех и .

По мере роста числа независимых случайных событий значение связанной с ними совместной вероятности быстро уменьшается до нуля по отрицательному экспоненциальному закону.

Аналогично, две абсолютно непрерывные случайные величины независимы тогда и только тогда, когда

для всех и . Это означает, что получение любой информации о значении одной или нескольких случайных величин приводит к условному распределению любой другой переменной, идентичному ее безусловному (предельному) распределению; таким образом, ни одна переменная не предоставляет никакой информации о любой другой переменной.

Совместное распределение условно зависимых переменных

Если подмножество переменных условно зависит от другого подмножества этих переменных, то функция массы вероятности совместного распределения равна . равно . Следовательно, это может быть эффективно представлено распределениями вероятностей меньшей размерности и . Такие отношения условной независимости могут быть представлены с помощью байесовской сети или функций копулы .

Ковариация

Когда в вероятностном пространстве определены две или более случайных величин, полезно описать, как они изменяются вместе; то есть полезно измерить взаимосвязь между переменными. Общей мерой связи между двумя случайными величинами является ковариация. Ковариация — это мера линейной связи между случайными величинами. Если взаимосвязь между случайными переменными нелинейна, ковариация может быть нечувствительна к взаимосвязи, а это означает, что она не связывает корреляцию между двумя переменными.

Ковариация между случайной величиной X и Y, обозначаемая как cov(X,Y), равна:

[4]

Корреляция

Существует еще одна мера связи между двумя случайными величинами, которую зачастую легче интерпретировать, чем ковариация.

Корреляция просто масштабирует ковариацию на произведение стандартного отклонения каждой переменной. Следовательно, корреляция представляет собой безразмерную величину, с помощью которой можно сравнивать линейные зависимости между парами переменных в разных единицах измерения. Если точки совместного распределения вероятностей X и Y, которые получают положительную вероятность, имеют тенденцию падать вдоль линии положительного (или отрицательного) наклона, ρ XY будет близок к +1 (или -1). Если ρ XY равно +1 или -1, можно показать, что точки совместного распределения вероятностей, получившие положительную вероятность, падают точно вдоль прямой линии. Говорят, что две случайные величины с ненулевой корреляцией коррелируют. Подобно ковариации, корреляция является мерой линейной связи между случайными величинами.

Корреляция между случайной величиной X и Y, обозначаемая как

Важные именованные дистрибутивы

Названные совместные распределения, которые часто возникают в статистике, включают многомерное нормальное распределение , многомерное стабильное распределение , полиномиальное распределение , отрицательное полиномиальное распределение , многомерное гипергеометрическое распределение и эллиптическое распределение .

Смотрите также

Рекомендации

  1. ^ Феллер, Уильям (1957). Введение в теорию вероятностей и ее приложения, том 1, 3-е издание . стр. 217–218. ISBN 978-0471257080.
  2. Монтгомери, Дуглас К. (19 ноября 2013 г.). Прикладная статистика и вероятность для инженеров . Рангер, Джордж К. (Шестое изд.). Хобокен, Нью-Джерси. ISBN 978-1-118-53971-2. ОКЛК  861273897.{{cite book}}: CS1 maint: location missing publisher (link)
  3. ^ Пак, Кун Иль (2018). Основы теории вероятности и случайных процессов с приложениями к средствам связи . Спрингер. ISBN 978-3-319-68074-3.
  4. Монтгомери, Дуглас К. (19 ноября 2013 г.). Прикладная статистика и вероятность для инженеров . Рангер, Джордж К. (Шестое изд.). Хобокен, Нью-Джерси. ISBN 978-1-118-53971-2. ОКЛК  861273897.{{cite book}}: CS1 maint: location missing publisher (link)

Внешние ссылки