В математической теории случайных процессов модели Маркова переменного порядка (VOM) представляют собой важный класс моделей, расширяющих хорошо известные модели цепей Маркова . В отличие от моделей цепей Маркова, где каждая случайная величина в последовательности с марковским свойством зависит от фиксированного числа случайных величин, в моделях VOM это количество обусловливающих случайных величин может варьироваться в зависимости от конкретной наблюдаемой реализации.
Эту последовательность реализации часто называют контекстом ; поэтому модели VOM также называются контекстными деревьями . [1] Модели VOM хорошо визуализируются с помощью раскрашенных вероятностных суффиксных деревьев (PST). [2] Гибкость количества обуславливающих случайных величин оказывается реальным преимуществом для многих приложений, таких как статистический анализ , классификация и прогнозирование . [3] [4] [5]
Рассмотрим, например, последовательность случайных величин , каждая из которых принимает значение из троичного алфавита { a , b , c } . В частности, рассмотрим строку, созданную из бесконечных конкатенаций подстроки aaabc : aaabcaaabcaaabcaaabc…aaabc .
Модель VOM максимального порядка 2 может аппроксимировать приведенную выше строку, используя только следующие пять компонентов условной вероятности : Pr( a | aa ) = 0,5 , Pr( b | aa ) = 0,5 , Pr( c | b ) = 1,0 , Pr( а | с ) = 1,0 , Пр( а | ca ) знак равно 1,0 .
В этом примере Pr( c | ab ) = Pr( c | b ) = 1,0 ; следовательно, более короткого контекста b достаточно для определения следующего символа. Аналогично, модель VOM максимального порядка 3 может генерировать строку точно, используя только пять компонентов условной вероятности, все из которых равны 1,0.
Чтобы построить цепь Маркова порядка 1 для следующего символа в этой строке, необходимо оценить следующие 9 компонентов условной вероятности: Pr( a | a ) , Pr( a | b ) , Pr( a | c ) , Pr( b а ) , Пр( б | б ) , Пр ( б | с ) , Пр ( с | а ) , Пр ( с | б ) , Пр ( с | с ) . Чтобы построить цепь Маркова порядка 2 для следующего символа, необходимо оценить 27 компонент условной вероятности: Pr( a | aa ) , Pr( a | ab ) , … , Pr( c | cc ) . А чтобы построить цепь Маркова третьего порядка для следующего символа, необходимо оценить следующую 81 компоненту условной вероятности: Pr( a | aaa ) , Pr( a | aab ) , … , Pr( c | ccc ) .
В практических условиях редко бывает достаточно данных для точной оценки экспоненциально растущего числа компонентов условной вероятности по мере увеличения порядка цепи Маркова.
Модель Маркова переменного порядка предполагает, что в реалистичных условиях существуют определенные реализации состояний (представленные контекстами), в которых некоторые прошлые состояния независимы от будущих состояний; соответственно, «можно добиться значительного сокращения количества параметров модели». [1]
Пусть A — пространство состояний (конечный алфавит ) размера .
Рассмотрим последовательность с марковским свойством n реализаций случайных величин , где – состояние (символ) в позиции i , а конкатенация состояний и обозначается .
Учитывая обучающий набор наблюдаемых состояний, алгоритм построения моделей VOM [3] [4] [5] изучает модель P , которая обеспечивает назначение вероятности для каждого состояния в последовательности с учетом его прошлого (ранее наблюдаемые символы) или будущего. состояния.
В частности, учащийся генерирует условное распределение вероятностей для символа с заданным контекстом , где знак * представляет собой последовательность состояний любой длины, включая пустой контекст.
Модели VOM пытаются оценить условные распределения формы , в которой длина контекста варьируется в зависимости от доступной статистики. Напротив, традиционные модели Маркова пытаются оценить эти условные распределения, предполагая фиксированную длину контекстов и, следовательно, могут рассматриваться как частные случаи моделей VOM.
Фактически, для данной обучающей последовательности обнаружено, что модели VOM обеспечивают лучшую параметризацию модели, чем модели Маркова фиксированного порядка , что приводит к лучшему компромиссу между дисперсией и смещением изученных моделей. [3] [4] [5]
Разработаны различные эффективные алгоритмы оценки параметров модели ВОМ. [4]
Модели VOM успешно применяются в таких областях, как машинное обучение , теория информации и биоинформатика , включая конкретные приложения, такие как кодирование и сжатие данных , [1] сжатие документов, [4] классификация и идентификация последовательностей ДНК и белков , [6] [ 1] [3] статистический контроль процессов , [5] фильтрация спама , [7] гаплотипирование , [8] распознавание речи, [9] анализ последовательностей в социальных науках , [2] и другие.