Распределение вероятностей
В теории вероятностей распределения с тяжелыми хвостами — это распределения вероятностей , хвосты которых не ограничены экспоненциально: [1] то есть они имеют более тяжелые хвосты, чем экспоненциальное распределение . Во многих приложениях интерес представляет правый хвост распределения, но распределение может иметь тяжелый левый хвост или оба хвоста могут быть тяжелыми.
Существует три важных подкласса распределений с толстым хвостом: распределения с толстым хвостом , распределения с длинным хвостом и субэкспоненциальные распределения . На практике все часто используемые распределения с тяжелым хвостом относятся к субэкспоненциальному классу, введенному Йозефом Тойгельсом . [2]
До сих пор существуют некоторые разногласия по поводу использования термина « тяжелохвостый» . Используются еще два определения. Некоторые авторы используют этот термин для обозначения тех распределений, у которых не все степенные моменты конечны; и некоторые другие к тем распределениям, которые не имеют конечной дисперсии . Определение, данное в этой статье, является наиболее общим в использовании и включает в себя все распределения, охватываемые альтернативными определениями, а также такие распределения, как логарифмически нормальное , которые обладают всеми своими степенными моментами, но которые обычно считаются распределениями с тяжелым хвостом. . (Иногда термин «тяжелый хвост» используется для любого распределения, которое имеет более тяжелые хвосты, чем нормальное распределение.)
Определения
Определение распределения с тяжелым хвостом
Говорят, что распределение случайной величины X с функцией распределения F имеет тяжелый (правый) хвост, если производящая функция момента X , M X ( t ), бесконечна для всех t > 0. [3]
Это значит
[4]
Это также записывается в терминах хвостовой функции распределения
![{\displaystyle {\overline {F}}(x)\equiv \Pr[X>x]\,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
как
![{\displaystyle \lim _{x\to \infty }e^{tx}{\overline {F}}(x)=\infty \quad {\mbox{for all }}t>0.\,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Определение распределения с длинным хвостом
Говорят , что распределение случайной величины X с функцией распределения F имеет длинный правый хвост [1] , если для всех t > 0
![{\displaystyle \lim _ {x\to \infty } \ Pr[X>x+t\mid X>x]=1,\,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
или эквивалентно
![{\displaystyle {\overline {F}}(x+t)\sim {\overline {F}}(x)\quad {\mbox{as }}x\to \infty .\,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Это имеет интуитивную интерпретацию для правостороннего и длиннохвостого распределенного количества: если количество с длинным хвостом превышает некоторый высокий уровень, вероятность того, что оно превысит любой другой более высокий уровень, приближается к 1.
Все распределения с длинным хвостом имеют тяжелый хвост, но обратное неверно, и можно построить распределения с тяжелым хвостом, которые не являются длиннохвостыми.
Субэкспоненциальные распределения
Субэкспоненциальность определяется в терминах свертки вероятностных распределений . Для двух независимых, одинаково распределенных случайных величин с общей функцией распределения свертка с самой собой, записанная и называемая квадратом свертки, определяется с использованием интегрирования Лебега – Стилтьеса по формуле:![{\displaystyle X_{1},X_{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle F}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle F}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle F^{*2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Pr[X_{1}+X_{2}\leq x]=F^{*2}(x)=\int _{0}^{x}F(xy)\,dF(y) ,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
а n -кратная свертка определяется индуктивно по правилу:![{\displaystyle F^{*n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle F^{*n}(x)=\int _{0}^{x}F(xy)\,dF^{*n-1}(y).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Хвостовая функция распределения определяется как .![{\displaystyle {\overline {F}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\overline {F}}(x)=1-F(x)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Распределение на положительной полупрямой является субэкспоненциальным [1] [5] [2], если![{\displaystyle F}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\overline {F^{*2}}}(x)\sim 2{\overline {F}}(x)\quad {\mbox{as }}x\to \infty .}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Отсюда следует [6] , что для любого![{\displaystyle n\geq 1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\overline {F^{*n}}}(x)\sim n{\overline {F}}(x)\quad {\mbox{as }}x\to \infty .}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Вероятностная интерпретация [6] этого состоит в том , что для суммы независимых случайных величин с общим распределением
![{\displaystyle X_{1},\ldots,X_{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle F}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Pr[X_{1}+\cdots +X_{n}>x]\sim \Pr[\max(X_{1},\ldots,X_{n})>x]\quad {\text {as }}x\to \infty .}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Это часто называют принципом одного большого прыжка [7] или принципом катастрофы. [8]
Распределение на всей вещественной линии является субэкспоненциальным, если оно таково . [9] Вот индикаторная функция положительной полупрямой. Альтернативно, случайная величина , поддерживаемая действительной линией, является субэкспоненциальной тогда и только тогда, когда она субэкспоненциальна.![{\displaystyle F}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle FI([0,\infty))}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle I([0,\infty))}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X^{+}=\max(0,X)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Все субэкспоненциальные распределения являются длиннохвостыми, но можно построить примеры распределений с длинным хвостом, которые не являются субэкспоненциальными.
Распространенные распределения с тяжелым хвостом
Все широко используемые распределения с тяжелым хвостом являются субэкспоненциальными. [6]
К односторонним относятся:
К двусторонним относятся:
Связь с распределениями с толстым хвостом
Распределение с толстым хвостом — это распределение, для которого функция плотности вероятности при больших x стремится к нулю как степень . Поскольку такая степень всегда ограничена снизу функцией плотности вероятности экспоненциального распределения, распределения с толстым хвостом всегда имеют тяжелый хвост. Однако у некоторых распределений есть хвост, который стремится к нулю медленнее, чем экспоненциальная функция (то есть они имеют «тяжелый хвост»), но быстрее, чем степень (то есть они не имеют «толстый хвост»). Примером является логнормальное распределение [ противоречивое ] . Однако многие другие распределения с толстым хвостом, такие как логарифмическое распределение и распределение Парето , также имеют толстый хвост.![{\displaystyle x^{-a}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Оценка хвостового индекса
Существуют параметрический [6] и непараметрический [14] подходы к задаче оценки хвостового индекса. [ когда определено как? ]
Чтобы оценить хвостовой индекс с использованием параметрического подхода, некоторые авторы используют распределение GEV или распределение Парето ; они могут применить оценку максимального правдоподобия (MLE).
Оценщик индекса хвоста Пиканда
При случайной последовательности независимых и одинаковых функций плотности Область максимального притяжения [15] обобщенной плотности экстремальных значений , где . Если и , то оценка хвостового индекса Пикандса равна [6] [15]![{\displaystyle (X_{n},n\geq 1)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ displaystyle F \ in D (H (\ xi))}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle H}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \xi \in \mathbb {R}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ displaystyle \ lim _ {n \ to \ infty } k (n) = \ infty }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \lim _{n\to \infty }{\frac {k(n)}{n}}=0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \xi _{(k(n),n)}^{\text{Pickands}}={\frac {1}{\ln 2}}\ln \left({\frac {X_{(nk) (n)+1,n)}-X_{(n-2k(n)+1,n)}}{X_{(n-2k(n)+1,n)}-X_{(n-4k( n)+1,n)}}}\right),}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
где . Эта оценка сходится по вероятности к .![{\displaystyle X_{(nk(n)+1,n)}=\max \left(X_{nk(n)+1},\ldots,X_{n}\right)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \xi }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Оценщик хвостового индекса Хилла
Пусть – последовательность независимых и одинаково распределенных случайных величин с функцией распределения , максимальная область притяжения обобщенного распределения экстремальных значений , где . Путь выборки – это размер выборки. Если – последовательность промежуточного порядка, т. е . и , то оценщик индекса хвоста Хилла равен [16]![{\displaystyle (X_{t},t\geq 1)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle H}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \xi \in \mathbb {R}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {X_{t}:1\leq t\leq n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle п}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \{k(n)\}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle k(n)\in \{1,\ldots,n-1\},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ displaystyle k (n) \ to \ infty}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle k(n)/n\to 0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \xi _{(k(n),n)}^{\text{Hill}}=\left({\frac {1}{k(n)}}\sum _{i=nk(n) )+1}^{n}\ln(X_{(i,n)})-\ln(X_{(nk(n)+1,n)})\right)^{-1},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
где статистика -го порядка . _ Эта оценка сходится по вероятности к и является асимптотически нормальной при условии, что она ограничена на основе свойства регулярной вариации более высокого порядка [17]
. [18] Согласованность и асимптотическая нормальность распространяются на большой класс зависимых и гетерогенных последовательностей, [19] [20] независимо от того , наблюдается ли вычисленный остаток или отфильтрованные данные из большого класса моделей и оценок, включая неправильно заданные модели и модели с ошибками, которые являются зависимыми. [21] [22] [23] Обратите внимание, что и Пиканда, и Хилла оценки хвостового индекса обычно используют логарифм порядковой статистики. [24]![{\displaystyle X_{(i,n)}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle я}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X_{1},\dots,X_{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \xi }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ displaystyle k (n) \ to \ infty}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X_{t}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Оценка отношения хвостового индекса
Оценка отношения (RE-оценка) хвостового индекса была введена Голди и Смитом. [25]
Он построен аналогично оценщику Хилла, но использует неслучайный «параметр настройки».
Сравнение оценщиков типа Хилла и типа RE можно найти у Новака. [14]
Программное обеспечение
- aest Архивировано 25 ноября 2020 г. в Wayback Machine , инструмент C для оценки индекса тяжелого хвоста. [26]
Оценка плотности «тяжелых хвостов»
Непараметрические подходы к оценке функций плотности вероятности с тяжелым и сверхтяжелым хвостом были предложены Марковичем. [27] Это подходы, основанные на переменной полосе пропускания и ядрах с длинным хвостом; по предварительным данным преобразуют к новой случайной величине на конечных или бесконечных интервалах, что более удобно для оценки, а затем обратное преобразование полученной оценки плотности; и «подход объединения», который обеспечивает определенную параметрическую модель хвоста плотности и непараметрическую модель для аппроксимации моды плотности. Непараметрические оценщики требуют соответствующего выбора параметров настройки (сглаживания), таких как полоса пропускания ядерных оценщиков и ширина интервала гистограммы. Хорошо известными методами такого выбора, основанными на данных, являются перекрестная проверка и ее модификации, методы, основанные на минимизации среднеквадратичной ошибки (MSE), ее асимптотики и их верхних границ. [28] Метод неточности, который использует известные непараметрические статистики, такие как статистики Колмогорова-Смирнова, фон Мизеса и Андерсона-Дарлинга, в качестве метрики в пространстве функций распределения (ФР) и квантилей более поздних статистических данных в качестве известной неопределенности или несоответствия. значение можно найти в [27] . Bootstrap — это еще один инструмент для поиска параметров сглаживания с использованием аппроксимации неизвестной MSE с помощью различных схем повторного выбора выборки, см., например, [29]
Смотрите также
Рекомендации
- ^ abc Асмуссен, SR (2003). «Установившиеся свойства GI/G/1». Прикладная вероятность и очереди . Стохастическое моделирование и прикладная теория вероятности. Том. 51. С. 266–301. дои : 10.1007/0-387-21525-5_10. ISBN 978-0-387-00211-8.
- ^ аб Тойгельс, Йозеф Л. (1975). «Класс субэкспоненциальных распределений». Анналы вероятности . Лувенский университет . 3 (6). дои : 10.1214/aop/1176996225 . Проверено 7 апреля 2019 г.
- ^ Рольски, Шмидли, Шмидт, Тойгельс, Случайные процессы в страховании и финансах , 1999.
- ^ С. Фосс, Д. Коршунов, С. Закари, Введение в распределения с тяжелым хвостом и субэкспоненциальные распределения , Springer Science & Business Media, 21 мая 2013 г.
- ^ Чистяков, В.П. (1964). «Теорема о суммах независимых положительных случайных величин и ее приложения к ветвящимся случайным процессам». Исследовательские ворота . Проверено 7 апреля 2019 г.
- ^ abcde Эмбрехтс П.; Клюппельберг К.; Микош Т. (1997). Моделирование экстремальных событий для страхования и финансов . Стохастическое моделирование и прикладная теория вероятности. Том. 33. Берлин: Шпрингер. дои : 10.1007/978-3-642-33483-2. ISBN 978-3-642-08242-9.
- ^ Фосс, С.; Константинопулос, Т.; Закари, С. (2007). «Дискретные и непрерывные модулированные по времени случайные блуждания с приращениями с тяжелым хвостом» (PDF) . Журнал теоретической вероятности . 20 (3): 581. arXiv : math/0509605 . CiteSeerX 10.1.1.210.1699 . дои : 10.1007/s10959-007-0081-2. S2CID 3047753.
- ↑ Вирман, Адам (9 января 2014 г.). «Катастрофы, заговоры и субэкспоненциальные распределения (часть III)». Блог «Ригор + Релевантность» . RSRG, Калифорнийский технологический институт . Проверено 9 января 2014 г.
- ^ Виллекенс, Э. (1986). «Субэкспоненциальность на действительной линии». Технический отчет . КУ Левен.
- ^ Фальк М., Хюслер Дж. и Рейсс Р. (2010). Законы малых чисел: крайности и редкие события . Спрингер. п. 80. ИСБН 978-3-0348-0008-2.
{{cite book}}
: CS1 maint: multiple names: authors list (link) - ↑ Алвес, МИФ, де Хаан, Л. и Невес, К. (10 марта 2006 г.). «Статистический вывод для распределений с тяжелыми и сверхтяжелыми хвостами» (PDF) . Архивировано из оригинала (PDF) 23 июня 2007 года . Проверено 1 ноября 2011 г.
{{cite web}}
: CS1 maint: multiple names: authors list (link) - ^ Джон П. Нолан (2009). «Стабильные распределения: модели для данных с тяжелыми хвостами» (PDF) . Архивировано из оригинала (PDF) 17 июля 2011 г. Проверено 21 февраля 2009 г.
- ^ Стивен Лин (2009). «Асимметричное логнормальное каскадное распределение». Архивировано из оригинала 7 апреля 2014 г. Проверено 12 июня 2009 г.
- ^ аб Новак С.Ю. (2011). Методы экстремальной стоимости с применением в финансировании . Лондон: CRC. ISBN 978-1-43983-574-6.
- ^ аб Пикандс III, Джеймс (январь 1975 г.). «Статистический вывод с использованием статистики крайнего порядка». Анналы статистики . 3 (1): 119–131. дои : 10.1214/aos/1176343003 . JSTOR 2958083.
- ^ Хилл Б.М. (1975) Простой общий подход к выводу о хвосте распределения. Анна. Стат., т. 3, 1163–1174.
- ^ Холл, П. (1982) О некоторых оценках показателя регулярной вариации. JR Стат. Соц. Сер. Б., т. 44, 37–42.
- ^ Хойслер, Э. и Дж. Л. Тойгельс (1985) Об асимптотической нормальности оценки Хилла для показателя регулярной вариации. Анна. Стат., т. 13, 743–756.
- ^ Хсинг, Т. (1991) Об оценке индекса хвоста с использованием зависимых данных. Анна. Стат., т. 19, 1547–1569.
- ^ Хилл, Дж. (2010) Об оценке индекса хвоста для зависимых гетерогенных данных. Эконометрический Th., т. 26, 1398–1436.
- ^ Резник С. и Старица К. (1997). Асимптотическое поведение оценки Хилла для данных авторегрессии. Комм. Статист. Стохастические модели 13, 703–721.
- ^ Линг, С. и Пэн, Л. (2004). Оценка Хилла хвостового индекса модели ARMA. Дж. Статист. План. Вывод 123, 279–293.
- ^ Хилл, Дж. Б. (2015). Оценка хвостового индекса для отфильтрованного зависимого временного ряда. Стат. Грех. 25, 609–630.
- ^ Ли, Сеюн; Ким, Джозеф Х.Т. (2019). «Возведенное в степень обобщенное распределение Парето: свойства и приложения к теории экстремальных значений». Коммуникации в статистике - теория и методы . 48 (8): 2014–2038. arXiv : 1708.01686 . дои : 10.1080/03610926.2018.1441418. S2CID 88514574.
- ^ Голди CM, Смит RL (1987) Медленное изменение с остатком: теория и приложения. Кварта. Дж. Математика. Оксфорд, т. 38, 45–71.
- ^ Кровелла, Мэн; Такку, М.С. (1999). «Оценка индекса тяжелого хвоста на основе свойств масштабирования». Методология и вычисления в прикладной теории вероятности . 1 : 55–79. дои : 10.1023/А: 1010012224103. S2CID 8917289.
- ^ аб Маркович Н.М. (2007). Непараметрический анализ одномерных данных с тяжелыми хвостами: исследования и практика . Читестер: Уайли. ISBN 978-0-470-72359-3.
- ^ Wand MP, Jones MC (1995). Сглаживание ядра . Нью-Йорк: Чепмен и Холл. ISBN 978-0412552700.
- ^ Холл П. (1992). Расширение Bootstrap и Edgeworth . Спрингер. ISBN 9780387945088.