stringtranslate.com

Принцип Лапласа (теория больших отклонений)

В математике принцип Лапласа является основной теоремой в теории больших отклонений , которая похожа на лемму Варадхана . Она дает асимптотическое выражение для интеграла Лебега exp(− θφ ( x )) по фиксированному множеству A , когда θ становится большим. Такие выражения могут быть использованы, например, в статистической механике для определения предельного поведения системы при стремлении температуры к абсолютному нулю .

Заявление о результате

Пусть Aизмеримое по Лебегу подмножество d - мерного евклидова пространства R d , и пусть φ  :  R d  →  Rизмеримая функция с

Затем

где ess inf обозначает существенный инфимум . Эвристически это можно интерпретировать так, что для больших θ ,

Приложение

Принцип Лапласа можно применить к семейству вероятностных мер P θ, заданных формулой

чтобы дать асимптотическое выражение для вероятности некоторого события A, когда θ становится большим. Например, если X — стандартная нормально распределенная случайная величина на R , то

для каждого измеримого множества A.

Смотрите также

Ссылки