В теории вероятностей и статистике термин «марковское свойство» относится к свойству отсутствия памяти у стохастического процесса , что означает, что его будущая эволюция не зависит от его истории. Он назван в честь русского математика Андрея Маркова . [1] Термин «сильное марковское свойство» похож на «марковское свойство», за исключением того, что значение «настоящего» определяется в терминах случайной величины, известной как время остановки .
Термин «предположение Маркова» используется для описания модели, в которой предполагается выполнение свойства Маркова, например, скрытой марковской модели .
Марковское случайное поле распространяет это свойство на два или более измерений или на случайные величины, определенные для взаимосвязанной сети элементов. [2] Примером модели для такого поля является модель Изинга .
Случайный процесс с дискретным временем, удовлетворяющий марковскому свойству, называется цепью Маркова .
Стохастический процесс обладает свойством Маркова, если условное распределение вероятностей будущих состояний процесса (обусловленное как прошлыми, так и настоящими значениями) зависит только от настоящего состояния; то есть, учитывая настоящее, будущее не зависит от прошлого. Процесс с этим свойством называется марковским или марковским и известен как марковский процесс . Два известных класса марковского процесса — это цепь Маркова и броуновское движение .
Обратите внимание, что есть тонкий, часто упускаемый из виду и очень важный момент, который часто упускается в простом английском определении. А именно, что пространство состояний процесса постоянно во времени. Условное описание подразумевает фиксированную «полосу пропускания». Например, без этого ограничения мы могли бы расширить любой процесс до такого, который включает полную историю от заданного начального состояния, и он стал бы марковским. Но пространство состояний имело бы увеличивающуюся размерность со временем и не соответствовало бы определению.
Пусть будет вероятностным пространством с фильтрацией для некоторого ( полностью упорядоченного ) набора индексов ; и пусть будет измеримым пространством . Говорят, что -значный стохастический процесс, адаптированный к фильтрации, обладает свойством Маркова , если для каждого и каждого с ,
В случае, когда — дискретное множество с дискретной сигма-алгеброй и , это можно переформулировать следующим образом:
Альтернативно свойство Маркова можно сформулировать следующим образом.
для всех и ограниченных и измеримых. [4]
Предположим, что — стохастический процесс на вероятностном пространстве с естественной фильтрацией . Тогда для любого времени остановки на можно определить
Тогда говорят, что имеет сильное марковское свойство, если для каждого времени остановки , зависящего от события , мы имеем, что для каждого не зависит от заданного .
Сильное марковское свойство подразумевает обычное марковское свойство, поскольку, взяв время остановки , можно вывести обычное марковское свойство. [5]
В области предиктивного моделирования и вероятностного прогнозирования свойство Маркова считается желательным, поскольку оно может позволить рассуждать и решать проблемы, которые в противном случае было бы невозможно решить из-за их неразрешимости . Такая модель известна как марковская модель .
Предположим, что в урне находятся два красных шара и один зеленый. Один шар был вытащен вчера, один шар был вытащен сегодня, а последний шар будет вытащен завтра. Все вытащены «без возвращения».
Предположим, вы знаете, что сегодняшний мяч был красным, но у вас нет информации о вчерашнем мяче. Вероятность того, что завтрашний мяч будет красным, составляет 1/2. Это потому, что для этого случайного эксперимента остаются только два результата:
С другой стороны, если вы знаете, что и сегодня, и вчера мячи были красными, то завтра вы гарантированно получите зеленый мяч.
Это расхождение показывает, что распределение вероятностей для завтрашнего цвета зависит не только от текущего значения, но также зависит от информации о прошлом. Этот стохастический процесс наблюдаемых цветов не обладает свойством Маркова. Используя тот же эксперимент выше, если выборку «без замены» заменить на выборку «с заменой», процесс наблюдаемых цветов будет обладать свойством Маркова. [6]
Применением марковского свойства в обобщенной форме являются вычисления Монте-Карло в цепях Маркова в контексте байесовской статистики .