В теории вероятностей и статистике термин «марковское свойство» относится к свойству отсутствия памяти у случайного процесса , что означает, что его будущая эволюция не зависит от его истории. Назван в честь российского математика Андрея Маркова . [1] Термин «сильное марковское свойство» аналогичен марковскому свойству, за исключением того, что значение слова «присутствует» определяется в терминах случайной величины, известной как время остановки .
Термин «допущение Маркова» используется для описания модели, в которой предполагается сохранение марковского свойства, например скрытой марковской модели .
Марковское случайное поле распространяет это свойство на два или более измерений или на случайные величины, определенные для взаимосвязанной сети элементов. [2] Примером модели такого месторождения является модель Изинга .
Случайный процесс с дискретным временем, удовлетворяющий свойству Маркова, известен как цепь Маркова .
Случайный процесс обладает марковским свойством, если условное распределение вероятностей будущих состояний процесса (условное как от прошлых, так и от текущих значений) зависит только от настоящего состояния; то есть, учитывая настоящее, будущее не зависит от прошлого. Процесс с этим свойством называется марковским или марковским и известен как марковский процесс . Двумя известными классами марковских процессов являются цепь Маркова и броуновское движение .
Обратите внимание, что есть тонкий, часто упускаемый из виду и очень важный момент, который часто упускается из виду в простом английском изложении определения. А именно, что пространство состояний процесса остается постоянным во времени. Условное описание предполагает фиксированную «пропускную способность». Например, без этого ограничения мы могли бы дополнить любой процесс таким, который включает полную историю из заданного начального состояния, и сделать его марковским. Но пространство состояний со временем будет иметь возрастающую размерность и не соответствует определению.
Пусть – вероятностное пространство с фильтрацией для некоторого ( полностью упорядоченного ) набора индексов ; и пусть это измеримое пространство . Говорят, что -значный случайный процесс, адаптированный к фильтрации, обладает марковским свойством, если для каждого и каждого с ,
В случае, когда – дискретное множество с дискретной сигма-алгеброй и это можно переформулировать следующим образом:
Альтернативно марковское свойство можно сформулировать следующим образом.
для всех , ограничен и измерим. [4]
Предположим, что это случайный процесс в вероятностном пространстве с естественной фильтрацией . Тогда для любого времени остановки на мы можем определить
Тогда говорят, что оно обладает сильным марковским свойством, если для каждого времени остановки , зависящего от события , мы имеем, что для каждого оно не зависит от заданного .
Из сильного марковского свойства следует обычное марковское свойство, поскольку, взяв время остановки , можно вывести обычное марковское свойство. [5]
В области прогнозного моделирования и вероятностного прогнозирования марковское свойство считается желательным, поскольку оно может позволить рассуждать и решать проблемы, которые в противном случае было бы невозможно решить из-за их неразрешимости . Такая модель известна как модель Маркова .
Предположим, что в урне лежат два красных и один зеленый шар. Один шар вытащили вчера, один шар вытащили сегодня, а последний шар выберут завтра. Все розыгрыши «без замены».
Предположим, вы знаете, что сегодняшний мяч был красным, но у вас нет информации о вчерашнем шаре. Вероятность того, что завтрашний шар будет красным, равна 1/2. Это потому, что в этом случайном эксперименте осталось только два результата:
С другой стороны, если вы знаете, что и сегодня, и вчерашние шары были красными, то завтра вы гарантированно получите зеленый шар.
Это несоответствие показывает, что распределение вероятностей цвета завтрашнего дня зависит не только от текущего значения, но также зависит от информации о прошлом. Этот стохастический процесс наблюдаемых цветов не обладает марковским свойством. Используя тот же эксперимент, описанный выше, если выборку «без замены» заменить на выборку «с заменой», процесс наблюдаемых цветов будет иметь марковское свойство. [6]
Применение свойства Маркова в обобщенной форме находится в вычислениях Монте-Карло цепей Маркова в контексте байесовской статистики .