stringtranslate.com

Марковская собственность

Единичная реализация трехмерного броуновского движения для времен 0 ≤ t ≤ 2. Броуновское движение обладает марковским свойством, поскольку смещение частицы не зависит от ее прошлых смещений.

В теории вероятностей и статистике термин «марковское свойство» относится к свойству отсутствия памяти у стохастического процесса , что означает, что его будущая эволюция не зависит от его истории. Он назван в честь русского математика Андрея Маркова . [1] Термин «сильное марковское свойство» похож на «марковское свойство», за исключением того, что значение «настоящего» определяется в терминах случайной величины, известной как время остановки .

Термин «предположение Маркова» используется для описания модели, в которой предполагается выполнение свойства Маркова, например, скрытой марковской модели .

Марковское случайное поле распространяет это свойство на два или более измерений или на случайные величины, определенные для взаимосвязанной сети элементов. [2] Примером модели для такого поля является модель Изинга .

Случайный процесс с дискретным временем, удовлетворяющий марковскому свойству, называется цепью Маркова .

Введение

Стохастический процесс обладает свойством Маркова, если условное распределение вероятностей будущих состояний процесса (обусловленное как прошлыми, так и настоящими значениями) зависит только от настоящего состояния; то есть, учитывая настоящее, будущее не зависит от прошлого. Процесс с этим свойством называется марковским или марковским и известен как марковский процесс . Два известных класса марковского процесса — это цепь Маркова и броуновское движение .

Обратите внимание, что есть тонкий, часто упускаемый из виду и очень важный момент, который часто упускается в простом английском определении. А именно, что пространство состояний процесса постоянно во времени. Условное описание подразумевает фиксированную «полосу пропускания». Например, без этого ограничения мы могли бы расширить любой процесс до такого, который включает полную историю от заданного начального состояния, и он стал бы марковским. Но пространство состояний имело бы увеличивающуюся размерность со временем и не соответствовало бы определению.

История

Определение

Пусть будет вероятностным пространством с фильтрацией для некоторого ( полностью упорядоченного ) набора индексов ; и пусть будет измеримым пространством . Говорят, что -значный стохастический процесс, адаптированный к фильтрации, обладает свойством Маркова , если для каждого и каждого с ,

[3]

В случае, когда — дискретное множество с дискретной сигма-алгеброй и , это можно переформулировать следующим образом:

Альтернативные формулировки

Альтернативно свойство Маркова можно сформулировать следующим образом.

для всех и ограниченных и измеримых. [4]

Сильное свойство Маркова

Предположим, что — стохастический процесс на вероятностном пространстве с естественной фильтрацией . Тогда для любого времени остановки на можно определить

.

Тогда говорят, что имеет сильное марковское свойство, если для каждого времени остановки , зависящего от события , мы имеем, что для каждого не зависит от заданного .

Сильное марковское свойство подразумевает обычное марковское свойство, поскольку, взяв время остановки , можно вывести обычное марковское свойство. [5]

В прогнозировании

В области предиктивного моделирования и вероятностного прогнозирования свойство Маркова считается желательным, поскольку оно может позволить рассуждать и решать проблемы, которые в противном случае было бы невозможно решить из-за их неразрешимости . Такая модель известна как модель Маркова .

Примеры

Предположим, что в урне находятся два красных и один зеленый шар. Один шар был вытащен вчера, один шар был вытащен сегодня, а последний шар будет вытащен завтра. Все вытащены «без возвращения».

Предположим, вы знаете, что сегодняшний мяч был красным, но у вас нет информации о вчерашнем мяче. Вероятность того, что завтрашний мяч будет красным, составляет 1/2. Это потому, что для этого случайного эксперимента остаются только два результата:

С другой стороны, если вы знаете, что и сегодня, и вчера мячи были красными, то завтра вы гарантированно получите зеленый мяч.

Это расхождение показывает, что распределение вероятностей для завтрашнего цвета зависит не только от текущего значения, но также зависит от информации о прошлом. Этот стохастический процесс наблюдаемых цветов не обладает свойством Маркова. Используя тот же эксперимент выше, если выборку «без замены» заменить на выборку «с заменой», процесс наблюдаемых цветов будет обладать свойством Маркова. [6]

Применением марковского свойства в обобщенной форме являются вычисления Монте-Карло в цепях Маркова в контексте байесовской статистики .

Смотрите также

Ссылки

  1. ^ Марков, А.А. (1954). Теория алгоритмов . [Перевод Жака Дж. Шорр-Кона и сотрудников PST] Выходные данные Москва, Академия наук СССР, 1954 [Иерусалим, Израильская программа научных переводов, 1961; доступно в Office of Technical Services, United States Department of Commerce ] Добавлено tp в Russian Translation of Works of the Mathematical Institute, Academy of Sciences of the Soviet Union, v. 42. Оригинальное название: Teoriya algorithms . [QA248.M2943 Dartmouth College library. US Dept. of Commerce, Office of Technical Services, number OTS 60-51085.]
  2. ^ Додж, Ядола . (2006) Оксфордский словарь статистических терминов , Oxford University Press . ISBN  0-19-850994-4
  3. ^ Дарретт, Рик . Вероятность: теория и примеры . Четвертое издание. Cambridge University Press , 2010.
  4. ^ Оксендаль, Бернт К. (2003). Стохастические дифференциальные уравнения: Введение с приложениями . Springer, Берлин. ISBN 3-540-04758-1.
  5. ^ Этье, Стюарт Н. и Курц, Томас Г. Марковские процессы: характеристика и сходимость . Wiley Series in Probability and Mathematical Statistics, 1986, стр. 158.
  6. ^ "Пример стохастического процесса, не обладающего свойством Маркова". Stack Exchange . Получено 2020-07-07 .