Метрика, используемая в вероятности и статистике
В теории вероятности и статистике расстояние Хеллингера ( тесно связанное с расстоянием Бхаттачарьи, хотя и отличающееся от него ) используется для количественной оценки сходства между двумя распределениями вероятностей . Это разновидность f -дивергенции . Расстояние Хеллингера определяется с помощью интеграла Хеллингера , который был введен Эрнстом Хеллингером в 1909 году . [1] [2]
Иногда его называют расстоянием Джеффриса. [3] [4]
Определение
Теория меры
Чтобы определить расстояние Хеллингера в терминах теории меры , пусть и обозначают две вероятностные меры в пространстве с мерой , абсолютно непрерывные относительно вспомогательной меры . Такая мера всегда существует, например . Квадрат расстояния Хеллингера между и определяется как величина![{\displaystyle P}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\mathcal {X}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \lambda }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \lambda =(P+Q)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle P}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle H^{2}(P,Q)={\frac {1}{2}}\displaystyle \int _ {\mathcal {X}}\left({\sqrt {p(x)}}- {\sqrt {q(x)}}\right)^{2}\lambda (dx).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Здесь и , т.е. и – производные Радона–Никодима от P и Q соответственно по . Это определение не зависит от , т.е. расстояние Хеллингера между P и Q не меняется, если его заменить другой вероятностной мерой, относительно которой и P , и Q абсолютно непрерывны. Для компактности приведенную выше формулу часто записывают как![{\displaystyle P(dx)=p(x)\lambda (dx)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q(dx)=q(x)\lambda (dx)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ displaystyle p}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle q}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \lambda }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \lambda }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \lambda }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle H^{2}(P,Q)={\frac {1}{2}}\int _ {\mathcal {X}}\left({\sqrt {P(dx)}}-{\ sqrt {Q(dx)}}\right)^{2}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Теория вероятностей с использованием меры Лебега
Чтобы определить расстояние Хеллингера с точки зрения элементарной теории вероятностей, мы возьмем λ в качестве меры Лебега , так что dP / dλ и dQ / d λ являются просто функциями плотности вероятности . Если мы обозначим плотности как f и g соответственно, квадрат расстояния Хеллингера можно выразить как стандартный интеграл исчисления.
![{\displaystyle H^{2}(f,g)={\frac {1}{2}}\int \left({\sqrt {f(x)}}-{\sqrt {g(x)}} \right)^{2}\,dx=1-\int {\sqrt {f(x)g(x)}}\,dx,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
где вторую форму можно получить, разложив квадрат и воспользовавшись тем фактом, что интеграл от плотности вероятности по его области определения равен 1.
Расстояние Хеллингера H ( P , Q ) удовлетворяет свойству (выводимому из неравенства Коши – Шварца )
![{\displaystyle 0\leq H(P,Q)\leq 1.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Дискретные распределения
Для двух дискретных распределений вероятностей и их расстояние Хеллингера определяется как![{\displaystyle P=(p_{1},\ldots,p_{k})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q=(q_{1},\ldots,q_{k})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle H(P,Q)={\frac {1}{\sqrt {2}}}\;{\sqrt {\sum _{i=1}^{k}({\sqrt {p_{i }}}-{\sqrt {q_{i}}})^{2}}},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
что напрямую связано с евклидовой нормой разности векторов квадратных корней, т.е.
![{\displaystyle H(P,Q)={\frac {1}{\sqrt {2}}}\;{\bigl \|}{\sqrt {P}}-{\sqrt {Q}}{\bigr \|}_{2}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Также,![{\displaystyle 1-H^{2}(P,Q)=\sum _{i=1}^{k}{\sqrt {p_{i}q_{i}}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Характеристики
Расстояние Хеллингера образует ограниченную метрику в пространстве вероятностных распределений в данном вероятностном пространстве .
Максимальное расстояние 1 достигается, когда P присваивает нулевую вероятность каждому множеству, которому Q присваивает положительную вероятность, и наоборот.
Иногда множитель перед интегралом опускается, и в этом случае расстояние Хеллингера находится в диапазоне от нуля до квадратного корня из двух.![{\displaystyle 1/2}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Расстояние Хеллингера связано с коэффициентом Бхаттачарьи , поскольку его можно определить как![{\displaystyle BC(P,Q)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle H(P,Q)={\sqrt {1-BC(P,Q)}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Расстояния Хеллингера используются в теории последовательной и асимптотической статистики . [5] [6]
Квадрат расстояния Хеллингера между двумя нормальными распределениями составляет :![{\displaystyle P\sim {\mathcal {N}}(\mu _{1},\sigma _{1}^{2})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q\sim {\mathcal {N}}(\mu _{2},\sigma _{2}^{2})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle H^{2}(P,Q)=1- {\sqrt {\frac {2\sigma _{1}\sigma _{2}}{\sigma _{1}^{2}+\ сигма _{2}^{2}}}}\,e^{-{\frac {1}{4}}{\frac {(\mu _{1}-\mu _{2})^{2 }}{\sigma _{1}^{2}+\sigma _{2}^{2}}}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Квадрат расстояния Хеллингера между двумя многомерными нормальными распределениями и равен [7]![{\displaystyle P\sim {\mathcal {N}}(\mu _{1},\Sigma _{1})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q\sim {\mathcal {N}}(\mu _{2},\Sigma _{2})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle H^{2}(P,Q)=1- {\frac {\det(\Sigma _{1})^{1/4}\det(\Sigma _{2})^{1/ 4}}{\det \left({\frac {\Sigma _{1}+\Sigma _{2}}{2}}\right)^{1/2}}}\exp \left\{-{ \frac {1}{8}}(\mu _{1}-\mu _{2})^{T}\left({\frac {\Sigma _{1}+\Sigma _{2}}{ 2}}\right)^{-1}(\mu _{1}-\mu _{2})\right\}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Квадрат расстояния Хеллингера между двумя экспоненциальными распределениями составляет :![{\displaystyle P\sim \mathrm {Exp} (\alpha)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q\sim \mathrm {Exp} (\beta)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle H^{2}(P,Q)=1- {\frac {2{\sqrt {\alpha \beta }}}{\alpha +\beta }}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Квадрат расстояния Хеллингера между двумя распределениями Вейбулла и (где – общий параметр формы, а – параметры масштаба соответственно):![{\displaystyle P\sim \mathrm {W} (к,\альфа)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q\sim \mathrm {W} (к,\бета)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle k}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \альфа \,,\бета}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle H^{2}(P,Q)=1- {\frac {2(\alpha \beta)^{k/2}}{\alpha ^{k}+\beta ^{k}}} .}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Квадрат расстояния Хеллингера между двумя распределениями Пуассона с параметрами скорости и , так что и , равен:![{\displaystyle \альфа }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \бета }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ displaystyle P \ sim \ mathrm {Пуассон} (\ альфа)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q\sim \mathrm {Пуассон} (\бета)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle H^{2}(P,Q)=1-e^{- {\frac {1}{2}}({\sqrt {\alpha }}-{\sqrt {\beta }})^ {2}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Квадрат расстояния Хеллингера между двумя бета-распределениями составляет :![{\displaystyle P\sim {\text{Beta}}(a_{1},b_{1})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q\sim {\text{Beta}}(a_{2},b_{2})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle H^{2}(P,Q)=1- {\frac {B\left({\frac {a_{1}+a_{2}}{2}},{\frac {b_{1 }+b_{2}}{2}}\right)}{\sqrt {B(a_{1},b_{1})B(a_{2},b_{2})}}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
где бета- функция .![{\displaystyle B}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Квадрат расстояния Хеллингера между двумя гамма-распределениями составляет :![{\displaystyle P\sim {\text{Гамма}}(a_{1},b_{1})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Q\sim {\text{Gamma}}(a_{2},b_{2})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle H^{2}(P,Q)=1-\Gamma \left({\scriptstyle {\frac {a_{1}+a_{2}}{2}}}\right)\left({ \frac {b_{1}+b_{2}}{2}}\right)^{-(a_{1}+a_{2})/2}{\sqrt {\frac {b_{1}^{ a_{1}}b_{2}^{a_{2}}}{\Gamma (a_{1})\Gamma (a_{2})}}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
где гамма - функция .![{\displaystyle \Гамма}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Соединение с общим расстоянием изменения
Расстояние Хеллингера и полное вариационное расстояние (или статистическое расстояние) связаны следующим образом: [8]![{\ displaystyle H (P, Q)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \delta (P,Q)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle H^{2}(P,Q)\leq \delta (P,Q)\leq {\sqrt {2}}H(P,Q)\,.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Константы в этом неравенстве могут меняться в зависимости от того, какую перенормировку вы выберете ( или ).![{\displaystyle 1/2}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle 1/{\sqrt {2}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Эти неравенства непосредственно следуют из неравенств между 1-нормой и 2-нормой .
Смотрите также
Примечания
- ^ Никулин, М.С. (2001) [1994], «Расстояние Хеллингера», Математическая энциклопедия , EMS Press
- ^ Хеллингер, Эрнст (1909), "Neue Begründung der Theorie Quadatischer Formen von unendlichvielen Veränderlichen", Journal für die reine und angewandte Mathematik (на немецком языке), 1909 (136): 210–271, doi : 10.1515/crll.1909.136.210 , JFM 40.0393.01, S2CID 121150138
- ^ "Расстояние Джеффриса - Математическая энциклопедия" . энциклопедияofmath.org . Проверено 24 мая 2022 г.
- ^ Джеффрис, Гарольд (24 сентября 1946). «Инвариантная форма априорной вероятности в задачах оценки». Труды Лондонского королевского общества. Серия А. Математические и физические науки . 186 (1007): 453–461. Бибкод : 1946RSPSA.186..453J. дои : 10.1098/rspa.1946.0056 . ISSN 0080-4630. PMID 20998741. S2CID 19490929.
- ^ Торгерсон, Эрик (1991). «Сравнение статистических экспериментов». Энциклопедия математики . Том. 36. Издательство Кембриджского университета.
- ^ Лизе, Фридрих; Мишке, Клаус-Й. (2008). Статистическая теория принятия решений: оценка, тестирование и отбор . Спрингер. ISBN 978-0-387-73193-3.
- ^ Пардо, Л. (2006). Статистический вывод на основе мер расхождения . Нью-Йорк: Чепмен и Холл/CRC. п. 51. ИСБН 1-58488-600-5.
- ↑ Харша, Прахлад (23 сентября 2011 г.). «Конспекты лекций по сложности коммуникации» (PDF) .
Рекомендации
- Ян, Грейс Ло ; Ле Кам, Люсьен М. (2000). Асимптотика в статистике: некоторые основные понятия . Берлин: Шпрингер. ISBN 0-387-95036-2.
- Ваарт, А.В. ван дер (19 июня 2000 г.). Асимптотическая статистика (Кембриджская серия по статистической и вероятностной математике) . Кембридж, Великобритания: Издательство Кембриджского университета. ISBN 0-521-78450-6.
- Поллард, Дэвид Э. (2002). Руководство пользователя по измерению теоретической вероятности . Кембридж, Великобритания: Издательство Кембриджского университета. ISBN 0-521-00289-3.