В математике принцип Лапласа является основной теоремой в теории больших отклонений , которая похожа на лемму Варадхана . Она дает асимптотическое выражение для интеграла Лебега exp(− θφ ( x )) по фиксированному множеству A , когда θ становится большим. Такие выражения могут быть использованы, например, в статистической механике для определения предельного поведения системы при стремлении температуры к абсолютному нулю .
Заявление о результате
Пусть A — измеримое по Лебегу подмножество d - мерного евклидова пространства R d , и пусть φ : R d → R — измеримая функция с
Затем
где ess inf обозначает существенный инфимум . Эвристически это можно интерпретировать так, что для больших θ ,
Приложение
Принцип Лапласа можно применить к семейству вероятностных мер P θ, заданных формулой
чтобы дать асимптотическое выражение для вероятности некоторого события A, когда θ становится большим. Например, если X — стандартная нормально распределенная случайная величина на R , то
для каждого измеримого множества A.
Смотрите также
Ссылки
- Дембо, Амир; Зейтуни, Офер (1998). Методы больших отклонений и их применение . Applications of Mathematics (Нью-Йорк) 38 (Второе изд.). Нью-Йорк: Springer-Verlag. стр. xvi+396. ISBN 0-387-98406-2. МР 1619036