stringtranslate.com

Ожидаемое значение

В теории вероятностей ожидаемое значение (также называемое ожиданием , ожиданием , оператором ожидания , математическим ожиданием , средним , ожидаемым значением или первым моментом ) является обобщением средневзвешенного значения . Неформально, ожидаемое значение — это среднее из возможных значений, которые может принимать случайная величина , взвешенное по вероятности этих результатов. Поскольку оно получается с помощью арифметики, ожидаемое значение иногда может даже не быть включено в набор данных выборки; это не то значение, которое вы «ожидаете» получить в реальности.

Ожидаемое значение случайной величины с конечным числом исходов является взвешенным средним всех возможных исходов. В случае континуума возможных исходов ожидание определяется интеграцией . В аксиоматической основе вероятности, предоставляемой теорией меры , ожидание задается интеграцией Лебега .

Ожидаемое значение случайной величины X часто обозначается как E( X ) , E[ X ] или E X , при этом E также часто стилизуется как или E . [1] [2] [3]

История

Идея ожидаемого значения возникла в середине 17 века из изучения так называемой проблемы очков , которая стремится справедливо разделить ставки между двумя игроками, которые должны закончить свою игру до того, как она будет должным образом закончена. [4] Эта проблема обсуждалась на протяжении столетий. За эти годы было предложено много противоречивых предложений и решений, когда французский писатель и математик-любитель Шевалье де Мере предложил ее Блезу Паскалю в 1654 году. Мере утверждал, что эта проблема не может быть решена и что она показывает, насколько несовершенна математика, когда дело доходит до ее применения в реальном мире. Паскаль, будучи математиком, был спровоцирован и полон решимости решить эту проблему раз и навсегда.

Он начал обсуждать эту проблему в знаменитой серии писем Пьеру де Ферма . Вскоре они оба независимо друг от друга пришли к решению. Они решили проблему разными вычислительными способами, но их результаты были идентичны, поскольку их вычисления основывались на одном и том же фундаментальном принципе. Принцип заключается в том, что ценность будущего выигрыша должна быть прямо пропорциональна шансу его получить. Этот принцип, казалось, пришел к ним обоим естественным образом. Они были очень довольны тем фактом, что нашли по сути одно и то же решение, и это, в свою очередь, сделало их абсолютно убежденными в том, что они окончательно решили проблему; однако они не опубликовали свои выводы. Они только сообщили об этом небольшому кругу общих научных друзей в Париже. [5]

В книге голландского математика Христиана Гюйгенса он рассмотрел проблему точек и представил решение, основанное на том же принципе, что и решения Паскаля и Ферма. Гюйгенс опубликовал свой трактат в 1657 году (см. Гюйгенс (1657)) " De ratiociniis in ludo aleæ " по теории вероятностей сразу после посещения Парижа. Книга расширила концепцию ожидания, добавив правила для расчета ожиданий в более сложных ситуациях, чем исходная задача (например, для трех и более игроков), и может рассматриваться как первая успешная попытка заложить основы теории вероятностей .

В предисловии к своему трактату Гюйгенс писал:

Следует также сказать, что в течение некоторого времени некоторые из лучших математиков Франции занимались этим видом исчисления, так что никто не должен приписывать мне честь первого изобретения. Это не принадлежит мне. Но эти ученые, хотя и подвергали друг друга испытанию, предлагая друг другу много трудноразрешимых вопросов, скрыли свои методы. Поэтому мне пришлось самому исследовать и глубоко вникать в этот вопрос, начиная с элементов, и по этой причине я не могу утверждать, что я даже начал с того же принципа. Но в конце концов я обнаружил, что мои ответы во многих случаях не отличаются от их ответов.

—  Эдвардс (2002)

В середине девятнадцатого века Пафнутий Чебышев стал первым человеком, который мыслил систематически в терминах ожиданий случайных величин . [6]

Этимология

Ни Паскаль, ни Гюйгенс не использовали термин «ожидание» в его современном смысле. В частности, Гюйгенс пишет: [7]

Что любой шанс или ожидание выиграть что-либо стоит ровно такую ​​сумму, какую можно было бы получить при том же шансе и ожидании в честной игре. ... Если я ожидаю a или b и имею равные шансы их выиграть, то мое ожидание стоит (a+b)/2.

Более ста лет спустя, в 1814 году, Пьер-Симон Лаплас опубликовал свой трактат « Аналитическая теория вероятностей », где понятие ожидаемого значения было определено явно: [8]

... это преимущество в теории случая есть произведение ожидаемой суммы на вероятность ее получения; это частичная сумма, которая должна получиться, когда мы не хотим подвергаться риску события, предполагая, что деление производится пропорционально вероятностям. Это деление является единственно справедливым, когда все странные обстоятельства устранены; потому что равная степень вероятности дает равное право на ожидаемую сумму. Мы назовем это преимущество математической надеждой.

Обозначения

Использование буквы E для обозначения «ожидаемого значения» восходит к WA Whitworth в 1901 году. [9] С тех пор этот символ стал популярным среди английских писателей. В немецком языке E означает Erwartungswert , в испанском — esperanza matemática , а во французском — espérance mathématique. [10]

Когда «E» используется для обозначения «ожидаемого значения», авторы прибегают к различным стилистикам: оператор ожидания может быть стилизован как E (прямой), E (курсив) или ( жирный шрифт ), в то время как используются различные обозначения в квадратных скобках (например, E( X ) , E[ X ] и E X ).

Другое популярное обозначение — μ X , тогда как X , Xav и обычно используются в физике [11] , а M( X ) — в русскоязычной литературе.

Определение

Как обсуждалось выше, существует несколько контекстно-зависимых способов определения ожидаемого значения. Самое простое и оригинальное определение касается случая конечного числа возможных результатов, например, подбрасывания монеты. С помощью теории бесконечных рядов это можно распространить на случай счетного числа возможных результатов. Также очень часто рассматривают особый случай случайных величин, продиктованных (кусочно)непрерывными функциями плотности вероятности , поскольку они возникают во многих естественных контекстах. Все эти конкретные определения можно рассматривать как частные случаи общего определения, основанного на математических инструментах теории меры и интегрирования Лебега , которые обеспечивают эти различные контексты аксиоматическим фундаментом и общим языком.

Любое определение ожидаемого значения может быть расширено для определения ожидаемого значения многомерной случайной величины, т. е. случайного вектора X. Он определяется покомпонентно, как E[ X ] i = E[ X i ] . Аналогично можно определить ожидаемое значение случайной матрицы X с компонентами X ij как E[ X ] ij = E[ X ij ] .

Случайные величины с конечным числом результатов

Рассмотрим случайную величину X с конечным списком x 1 , ..., x k возможных результатов, каждый из которых (соответственно) имеет вероятность p 1 , ..., p k появления. Ожидание X определяется как [12]

Поскольку вероятности должны удовлетворять условию p 1 + ⋅⋅⋅ + p k = 1 , естественно интерпретировать E[ X ] как взвешенное среднее значений x i , причем веса задаются их вероятностями p i .

В частном случае, когда все возможные результаты равновероятны (то есть p 1 = ⋅⋅⋅ = p k ), средневзвешенное значение определяется стандартным средним значением . В общем случае ожидаемое значение учитывает тот факт, что некоторые результаты более вероятны, чем другие.

Примеры

Иллюстрация сходимости последовательности средних значений бросков игральной кости к ожидаемому значению 3,5 по мере увеличения числа бросков (попыток)

Случайные величины с бесконечным счетным множеством результатов

Неформально, ожидание случайной величины со счетно бесконечным множеством возможных результатов определяется аналогично как взвешенное среднее всех возможных результатов, где веса задаются вероятностями реализации каждого данного значения. Это означает, что где x 1 , x 2 , ... являются возможными результатами случайной величины X , а p 1 , p 2 , ... являются их соответствующими вероятностями. Во многих нематематических учебниках это представлено как полное определение ожидаемых значений в этом контексте. [13]

Однако существуют некоторые тонкости с бесконечным суммированием, поэтому приведенная выше формула не подходит в качестве математического определения. В частности, теорема Римана о рядах математического анализа иллюстрирует, что значение некоторых бесконечных сумм, включающих положительные и отрицательные слагаемые, зависит от порядка, в котором даны слагаемые. Поскольку результаты случайной величины не имеют естественно заданного порядка, это создает трудности в точном определении ожидаемого значения.

По этой причине многие математические учебники рассматривают только случай, когда бесконечная сумма, указанная выше, сходится абсолютно , что подразумевает, что бесконечная сумма является конечным числом, независимым от порядка слагаемых. [14] В альтернативном случае, когда бесконечная сумма не сходится абсолютно, говорят, что случайная величина не имеет конечного математического ожидания. [14]

Примеры

Случайные величины с плотностью

Теперь рассмотрим случайную величину X , которая имеет функцию плотности вероятности, заданную функцией f на действительной числовой прямой . Это означает, что вероятность того, что X примет значение в любом заданном открытом интервале, задается интегралом f по этому интервалу. Тогда ожидание X задается интегралом [15] Общая и математически точная формулировка этого определения использует теорию меры и интегрирование Лебега , а соответствующая теория абсолютно непрерывных случайных величин описана в следующем разделе. Функции плотности многих общих распределений являются кусочно-непрерывными , и как таковая теория часто разрабатывается в этой ограниченной обстановке. [16] Для таких функций достаточно рассмотреть только стандартное интегрирование Римана . Иногда непрерывные случайные величины определяются как соответствующие этому специальному классу плотностей, хотя этот термин используется по-разному разными авторами.

Аналогично счетно-бесконечному случаю выше, есть тонкости с этим выражением из-за бесконечной области интегрирования. Такие тонкости можно увидеть конкретно, если распределение X задано распределением Коши Коши (0, π) , так что f ( x ) = ( x 2 + π 2 ) −1 . В этом случае легко вычислить, что Предела этого выражения при a → −∞ и b → ∞ не существует: если пределы взяты так, что a = − b , то предел равен нулю, в то время как если взято ограничение 2 a = − b , то предел равен ln(2) .

Чтобы избежать подобных двусмысленностей, в математических учебниках принято требовать, чтобы заданный интеграл сходился абсолютно , в противном случае E[ X ] остается неопределенным. [17] Однако теоретико-мерные понятия, приведенные ниже, можно использовать для того, чтобы дать систематическое определение E[ X ] для более общих случайных величин X .

Произвольные действительные случайные величины

Все определения ожидаемого значения могут быть выражены на языке теории меры . В общем случае, если X — это действительно значимая случайная величина, определенная на вероятностном пространстве (Ω, Σ, P) , то ожидаемое значение X , обозначаемое как E[ X ] , определяется как интеграл Лебега [18]. Несмотря на новую абстрактную ситуацию, это определение чрезвычайно похоже по своей природе на самое простое определение ожидаемых значений, данное выше, как некоторые взвешенные средние. Это связано с тем, что в теории меры значение интеграла Лебега X определяется через взвешенные средние приближений X , которые принимают конечное число значений. [19] Более того, если дана случайная величина с конечным или счетным числом возможных значений, теория ожидания Лебега идентична формулам суммирования, приведенным выше. Однако теория Лебега проясняет область действия теории функций плотности вероятности. Случайная величина X называется абсолютно непрерывной, если выполняется любое из следующих условий:

Все эти условия эквивалентны, хотя это нетривиально установить. [20] В этом определении f называется функцией плотности вероятности X (относительно меры Лебега). Согласно формуле замены переменных для интегрирования Лебега [21] в сочетании с законом бессознательного статистика [ 22 ] следует, что для любой абсолютно непрерывной случайной величины X . Таким образом, приведенное выше обсуждение непрерывных случайных величин является частным случаем общей теории Лебега из-за того, что каждая кусочно-непрерывная функция измерима.

Ожидаемое значение μ и медиана 𝑚
Ожидаемое значение μ и медиана 𝑚

Ожидаемое значение любой действительной случайной величины также может быть определено на графике ее кумулятивной функции распределения близким равенством площадей. Фактически, с действительным числом тогда и только тогда, когда две поверхности в - -плоскости, описываемые соответственно, имеют одинаковую конечную площадь, т.е. если и оба несобственных интеграла Римана сходятся. Наконец, это эквивалентно представлению также со сходящимися интегралами. [23]

Бесконечные ожидаемые значения

Ожидаемые значения, как определено выше, автоматически являются конечными числами. Однако во многих случаях принципиально важно иметь возможность рассматривать ожидаемые значения ±∞ . Это интуитивно понятно, например, в случае парадокса Санкт-Петербурга , в котором рассматривается случайная величина с возможными результатами x i = 2 i , с соответствующими вероятностями p i = 2 i , для i , пробегающего все положительные целые числа. Согласно формуле суммирования в случае случайных величин со счетным числом результатов, естественно сказать, что ожидаемое значение равно +∞ .

В основе таких идей лежит строгая математическая теория, которая часто рассматривается как часть определения интеграла Лебега. [19] Первое фундаментальное наблюдение заключается в том, что, какое бы из приведенных выше определений ни использовалось, любой неотрицательной случайной величине может быть присвоено однозначное ожидаемое значение; всякий раз, когда абсолютная сходимость не выполняется, ожидаемое значение можно определить как +∞ . Второе фундаментальное наблюдение заключается в том, что любую случайную величину можно записать как разность двух неотрицательных случайных величин. Для случайной величины X положительную и отрицательную части определяют как X + = max( X , 0) и X = −min( X , 0) . Это неотрицательные случайные величины, и можно напрямую проверить, что X = X +X . Поскольку E[ X + ] и E[ X ] оба определяются либо как неотрицательные числа, либо как +∞ , то естественно определить:

Согласно этому определению, E[ X ] существует и является конечным тогда и только тогда, когда E[ X + ] и E[ X ] оба конечны. В силу формулы | X | = X + + X , это имеет место тогда и только тогда, когда E| X | является конечным, и это эквивалентно условиям абсолютной сходимости в определениях выше. Таким образом, настоящие соображения не определяют конечные ожидаемые значения в каких-либо случаях, не рассмотренных ранее; они полезны только для бесконечных ожиданий.

Ожидаемые значения общих распределений

В следующей таблице приведены ожидаемые значения некоторых часто встречающихся распределений вероятностей . В третьем столбце приведены ожидаемые значения как в форме, непосредственно заданной определением, так и в упрощенной форме, полученной путем вычисления из него. Подробности этих вычислений, которые не всегда просты, можно найти в указанных ссылках.

Характеристики

Основные свойства ниже (и их названия выделены жирным шрифтом) копируют или непосредственно следуют из свойств интеграла Лебега . Обратите внимание, что буквы "as" обозначают " почти наверняка " — центральное свойство интеграла Лебега. По сути, говорят, что неравенство типа верно почти наверняка, когда мера вероятности приписывает нулевую массу дополнительному событию

Неравенства

Неравенства концентрации контролируют вероятность того, что случайная величина принимает большие значения. Неравенство Маркова является одним из самых известных и простых для доказательства: для неотрицательной случайной величины X и любого положительного числа a оно утверждает, что [37]

Если X — любая случайная величина с конечным ожиданием, то неравенство Маркова можно применить к случайной величине | X − E[ X ]| 2, чтобы получить неравенство Чебышева , где Varдисперсия . [37] Эти неравенства важны из-за почти полного отсутствия условных предположений. Например, для любой случайной величины с конечным ожиданием неравенство Чебышева подразумевает, что существует по крайней мере 75% вероятность того, что результат будет находиться в пределах двух стандартных отклонений от ожидаемого значения. Однако в особых случаях неравенства Маркова и Чебышева часто дают гораздо более слабую информацию, чем та, которая доступна в противном случае. Например, в случае невзвешенной игральной кости неравенство Чебышева гласит, что вероятность выпадения числа от 1 до 6 составляет по крайней мере 53%; в действительности эта вероятность, конечно, составляет 100%. [38] Неравенство Колмогорова расширяет неравенство Чебышева на контекст сумм случайных величин. [39]

Следующие три неравенства имеют фундаментальное значение в области математического анализа и его приложений к теории вероятностей.

Неравенства Гёльдера и Минковского могут быть расширены на общие мерные пространства и часто приводятся в этом контексте. Напротив, неравенство Йенсена является специальным для случая вероятностных пространств.

Ожидания при сходимости случайных величин

В общем случае это не так, даже если поточечно. Таким образом, нельзя поменять местами пределы и ожидание, без дополнительных условий на случайные величины. Чтобы увидеть это, пусть будет случайной величиной, равномерно распределенной на Для определим последовательность случайных величин с являющейся индикаторной функцией события Тогда, следует, что поточечно. Но, для каждого Следовательно,

Аналогично, для общей последовательности случайных величин оператор ожидаемого значения не является -аддитивным, т.е.

Пример легко получить, установив и для , где как в предыдущем примере.

Ряд результатов конвергенции определяют точные условия, которые позволяют менять пределы и ожидания, как указано ниже.

Связь с характеристической функцией

Функция плотности вероятности скалярной случайной величины связана с ее характеристической функцией формулой обращения:

Для ожидаемого значения (где — функция Бореля ) мы можем использовать эту формулу обращения, чтобы получить

Если конечно, то, меняя порядок интегрирования, получаем в соответствии с теоремой Фубини–Тонелли , где — преобразование Фурье от Выражение для также следует непосредственно из теоремы Планшереля .

Использование и применение

Ожидание случайной величины играет важную роль в различных контекстах.

В статистике , где ищутся оценки неизвестных параметров на основе имеющихся данных, полученных из выборок , выборочное среднее служит оценкой для ожидания и само по себе является случайной величиной. В таких условиях выборочное среднее считается соответствующим желаемому критерию для «хорошей» оценки, будучи несмещенным ; то есть ожидаемое значение оценки равно истинному значению базового параметра.

Другой пример: в теории принятия решений часто предполагается, что агент, делающий оптимальный выбор в условиях неполной информации, максимизирует ожидаемое значение своей функции полезности .

Можно построить ожидаемое значение, равное вероятности события, взяв ожидание индикаторной функции , которая равна единице, если событие произошло, и нулю в противном случае. Это соотношение можно использовать для перевода свойств ожидаемых значений в свойства вероятностей, например, используя закон больших чисел для обоснования оценки вероятностей по частотам .

Ожидаемые значения степеней X называются моментами X ; моменты относительно среднего значения X являются ожидаемыми значениями степеней X − E[ X ] . Моменты некоторых случайных величин можно использовать для задания их распределений с помощью их функций генерации моментов .

Чтобы эмпирически оценить ожидаемое значение случайной величины, нужно многократно измерять наблюдения переменной и вычислять среднее арифметическое результатов. Если ожидаемое значение существует, эта процедура оценивает истинное ожидаемое значение беспристрастным образом и обладает свойством минимизации суммы квадратов остатков ( суммы квадратов разностей между наблюдениями и оценкой). Закон больших чисел показывает (при довольно мягких условиях), что по мере увеличения размера выборки дисперсия этой оценки уменьшается.

Это свойство часто используется в самых разных приложениях, включая общие проблемы статистической оценки и машинного обучения , для оценки (вероятностных) интересующих величин с помощью методов Монте-Карло , поскольку большинство интересующих величин можно записать в терминах ожидания, например, где - индикаторная функция множества

Масса распределения вероятностей сбалансирована по ожидаемому значению, в данном случае это распределение Бета(α,β) с ожидаемым значением α/(α+β).

В классической механике центр масс — это аналогичное ожиданию понятие. Например, предположим, что X — это дискретная случайная величина со значениями x i и соответствующими вероятностями p i . Теперь рассмотрим невесомый стержень, на котором размещены грузы в точках x i вдоль стержня, имеющие массы p i (сумма которых равна единице). Точка, в которой стержень уравновешивается, — это E[ X ].

Ожидаемые значения также можно использовать для вычисления дисперсии с помощью вычислительной формулы для дисперсии

Очень важное применение математического ожидания имеет область квантовой механики . Математическое ожидание квантово-механического оператора, действующего на вектор квантового состояния , записывается как Неопределенность в может быть вычислена по формуле .

Смотрите также

Ссылки

  1. ^ "Ожидание | Среднее | Среднее". www.probabilitycourse.com . Получено 11.09.2020 .
  2. ^ Хансен, Брюс. "ВЕРОЯТНОСТЬ И СТАТИСТИКА ДЛЯ ЭКОНОМИСТОВ" (PDF) . Архивировано из оригинала (PDF) 2022-01-19 . Получено 2021-07-20 .
  3. ^ Вассерман, Ларри (декабрь 2010 г.). Вся статистика: краткий курс статистического вывода . Тексты Springer по статистике. стр. 47. ISBN 9781441923226.
  4. ^ История теории вероятностей и статистики и их применения до 1750 года . Wiley Series in Probability and Statistics. 1990. doi :10.1002/0471725161. ISBN 9780471725169.
  5. ^ Оре, Ойстейн (1960). «Оре, Паскаль и изобретение теории вероятностей». The American Mathematical Monthly . 67 (5): 409–419. doi :10.2307/2309286. JSTOR  2309286.
  6. ^ Джордж Макки (июль 1980 г.). «ГАРМОНИЧЕСКИЙ АНАЛИЗ КАК ЭКСПЛУАТАЦИЯ СИММЕТРИИ — ИСТОРИЧЕСКИЙ ОБЗОР». Бюллетень Американского математического общества . Новая серия. 3 (1): 549.
  7. ^ Гюйгенс, Кристиан. «Значение шансов в азартных играх. Английский перевод» (PDF) .
  8. ^ Лаплас, Пьер Симон, маркиз де, 1749-1827. (1952) [1951]. Философское эссе о вероятностях . Dover Publications. OCLC  475539.{{cite book}}: CS1 maint: multiple names: authors list (link) CS1 maint: numeric names: authors list (link)
  9. ^ Уитворт, WA (1901) Выбор и случай с тысячей упражнений. Пятое издание. Дейтон Белл, Кембридж. [Перепечатано Hafner Publishing Co., Нью-Йорк, 1959.]
  10. ^ «Ранние примеры использования символов в теории вероятностей и статистике».
  11. Феллер 1968, стр. 221.
  12. ^ Биллингсли 1995, стр. 76.
  13. ^ Росс 2019, Раздел 2.4.1.
  14. ^ ab Feller 1968, Раздел IX.2.
  15. ^ Папулис и Пиллаи 2002, Раздел 5-3; Росс 2019, Раздел 2.4.2.
  16. ^ Феллер 1971, Раздел I.2.
  17. Феллер 1971, стр. 5.
  18. ^ Биллингсли 1995, стр. 273.
  19. ^ ab Billingsley 1995, Раздел 15.
  20. ^ Биллингсли 1995, Теоремы 31.7 и 31.8 и стр. 422.
  21. ^ Биллинсли 1995, Теорема 16.13.
  22. ^ Биллинсли 1995, Теорема 16.11.
  23. ^ Уль, Роланд (2023). Charakterisierung des Erwartungswertes am Graphen der Verteilungsfunktion [ Характеристика ожидаемого значения на графике кумулятивной функции распределения ] (PDF) . Высшая техническая школа Бранденбурга. дои : 10.25933/opus4-2986 .стр. 2–4.
  24. ^ Casella & Berger 2001, стр. 89; Ross 2019, Пример 2.16.
  25. ^ Каселла и Бергер 2001, Пример 2.2.3; Росс 2019, Пример 2.17.
  26. ^ Биллингсли 1995, Пример 21.4; Каселла и Бергер 2001, стр. 92; Росс 2019, Пример 2.19.
  27. ^ Casella & Berger 2001, стр. 97; Ross 2019, пример 2.18.
  28. ^ Casella & Berger 2001, стр. 99; Ross 2019, пример 2.20.
  29. ^ Биллингсли 1995, Пример 21.3; Каселла и Бергер 2001, Пример 2.2.2; Росс 2019, Пример 2.21.
  30. ^ Casella & Berger 2001, стр. 103; Ross 2019, пример 2.22.
  31. ^ Биллингсли 1995, Пример 21.1; Каселла и Бергер 2001, стр. 103.
  32. ^ Джонсон, Коц и Балакришнан 1994, Глава 20.
  33. ^ Феллер 1971, Раздел II.4.
  34. ^ abc Weisstein, Eric W. "Expectation Value". mathworld.wolfram.com . Получено 11 сентября 2020 г. .
  35. ^ Феллер 1971, Раздел V.6.
  36. ^ Папулис и Пиллай 2002, Раздел 6-4.
  37. ^ ab Feller 1968, Раздел IX.6; Feller 1971, Раздел V.7; Papoulis & Pillai 2002, Раздел 5-4; Ross 2019, Раздел 2.8.
  38. Феллер 1968, Раздел IX.6.
  39. Феллер 1968, Раздел IX.7.
  40. ^ abcd Феллер 1971, Раздел V.8.
  41. Биллингсли 1995, стр. 81, 277.
  42. ^ Биллингсли 1995, Раздел 19.

Библиография