В статистике при выборе статистической модели для заданных данных относительное правдоподобие сравнивает относительные правдоподобия различных моделей-кандидатов или различных значений параметра одной модели.
Предположим, что нам даны некоторые данные x , для которых у нас есть статистическая модель с параметром θ . Предположим, что максимальная оценка правдоподобия для θ равна . Относительные правдоподобия других значений θ могут быть найдены путем сравнения правдоподобий этих других значений с правдоподобием . Относительное правдоподобие θ определяется как [1] [2] [3] [4] [5]
где обозначает функцию правдоподобия . Таким образом, относительное правдоподобие — это отношение правдоподобия с фиксированным знаменателем .
Функция
— это функция относительного правдоподобия .
Область правдоподобия — это множество всех значений θ , относительная вероятность которых больше или равна заданному порогу. В процентном отношении область правдоподобия p % для θ определяется как. [1] [3] [6]
Если θ — это один действительный параметр, область правдоподобия p % обычно будет включать интервал действительных значений. Если область включает интервал, то она называется интервалом правдоподобия . [1] [3] [7]
Интервалы правдоподобия и, в более общем смысле, области правдоподобия используются для оценки интервалов в статистике, основанной на правдоподобии (статистика «likelihoodist»): Они похожи на доверительные интервалы в частотной статистике и достоверные интервалы в байесовской статистике. Интервалы правдоподобия интерпретируются непосредственно в терминах относительного правдоподобия, а не в терминах вероятности покрытия (частотности) или апостериорной вероятности (байесианства).
При наличии модели интервалы правдоподобия можно сравнить с доверительными интервалами. Если θ — один действительный параметр, то при определенных условиях интервал правдоподобия 14,65% (вероятность около 1:7) для θ будет таким же, как доверительный интервал 95% (вероятность покрытия 19/20). [1] [6] В несколько иной формулировке, подходящей для использования логарифмических правдоподобий (см. теорему Уилкса ), тестовая статистика в два раза больше разницы в логарифмических правдоподобиях, а распределение вероятностей тестовой статистики приблизительно равно распределению хи -квадрат со степенями свободы (df), равными разнице в df-s между двумя моделями (следовательно, интервал правдоподобия e −2 такой же, как доверительный интервал 0,954; предполагая, что разница в df-s равна 1). [6] [7]
Определение относительного правдоподобия можно обобщить для сравнения различных статистических моделей . Это обобщение основано на AIC (критерий информации Акаике) или иногда на AICc (критерий информации Акаике с коррекцией).
Предположим, что для некоторых данных у нас есть две статистические модели, M 1 и M 2 . Также предположим, что AIC( M 1 ) ≤ AIC( M 2 ) . Тогда относительное правдоподобие M 2 по отношению к M 1 определяется следующим образом. [8]
Чтобы увидеть, что это обобщение более раннего определения, предположим, что у нас есть некоторая модель M с (возможно, многомерным) параметром θ . Затем для любого θ положим M 2 = M ( θ ) , а также положим M 1 = M ( ) . Общее определение теперь дает тот же результат, что и более раннее определение.