Статистический тест
Тест Андерсона -Дарлинга — это статистический тест того, получена ли данная выборка данных из заданного распределения вероятностей . В своей базовой форме тест предполагает, что в тестируемом распределении нет параметров, подлежащих оценке, и в этом случае тест и его набор критических значений не зависят от распределения. Однако тест чаще всего используется в контексте, когда тестируется семейство распределений, и в этом случае необходимо оценить параметры этого семейства и принять это во внимание при корректировке либо тестовой статистики, либо ее критических значений. Применительно к проверке того, адекватно ли нормальное распределение описывает набор данных, оно является одним из самых мощных статистических инструментов для обнаружения большинства отклонений от нормальности . [1] [2] Критерии Андерсона–Дарлинга с K- выборкой доступны для проверки того, можно ли смоделировать несколько наборов наблюдений как исходящие из одной совокупности, где не требуется указывать функцию распределения .
Помимо использования в качестве теста соответствия распределений, его можно использовать при оценке параметров в качестве основы для процедуры оценки минимального расстояния .
Тест назван в честь Теодора Уилбура Андерсона (1918–2016) и Дональда А. Дарлинга (1915–2014), которые изобрели его в 1952 году. [3]
Одновыборочный тест
Статистика Андерсона-Дарлинга и Крамера-фон Мизеса относится к классу квадратичных статистик EDF (тесты, основанные на эмпирической функции распределения ). [2] Если гипотетическое распределение равно , а эмпирическая (выборочная) кумулятивная функция распределения равна , то квадратичная статистика EDF измеряет расстояние между и![{\displaystyle F}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle F_{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle F}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle F_{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ displaystyle n \ int _ {- \ infty } ^ {\ infty } (F _ {n} (x) - F (x)) ^ {2} \, w (x) \, dF (x),}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
где – количество элементов в выборке, – весовая функция. Когда весовая функция равна , статистика является статистикой Крамера-фон Мизеса . Тест Андерсона–Дарлинга (1954) [4] основан на расстоянии![{\displaystyle п}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ displaystyle w (x)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ displaystyle w (x) = 1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A^{2}=n\int _{-\infty }^{\infty }{\frac {(F_{n}(x)-F(x))^{2}}{F(x )\;(1-F(x))}}\,dF(x),}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
что получается, когда весовая функция равна . Таким образом, по сравнению с расстоянием Крамера – фон Мизеса , расстояние Андерсона – Дарлинга придает больший вес наблюдениям в хвостах распределения.![{\displaystyle w(x)=[F(x)\;(1-F(x))]^{- 1}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Базовая статистика теста
Тест Андерсона-Дарлинга оценивает, происходит ли выборка из указанного распределения. Он использует тот факт, что при наличии гипотетического основного распределения и предположении, что данные действительно возникают из этого распределения, можно предположить, что кумулятивная функция распределения (CDF) данных следует равномерному распределению . Затем данные можно проверить на единообразие с помощью дистанционного теста (Шапиро, 1980). Формула тестовой статистики для оценки того, поступают ли данные (обратите внимание, что данные должны быть упорядочены) из CDF :![{\displaystyle А}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \{Y_{1}<\cdots <Y_{n}\}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle F}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A^{2}=-nS\,,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
где
![{\displaystyle S=\sum _{i=1}^{n}{\frac {2i-1}{n}}\left[\ln(F(Y_{i}))+\ln \left(1 -F(Y_{n+1-i})\вправо)\вправо].}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Затем статистику теста можно сравнить с критическими значениями теоретического распределения. В этом случае никакие параметры не оцениваются по отношению к кумулятивной функции распределения .![{\displaystyle F}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Тесты для семейств дистрибутивов
По сути, одна и та же тестовая статистика может использоваться при проверке соответствия семейства распределений, но затем ее необходимо сравнить с критическими значениями, соответствующими этому семейству теоретических распределений и зависящими также от метода, используемого для оценки параметров.
Тест на нормальность
Эмпирическое тестирование показало [5] , что тест Андерсона-Дарлинга не так хорош, как тест Шапиро-Уилка , но лучше, чем другие тесты. Стивенс [1] обнаружил , что это одна из лучших эмпирических статистических функций распределения для обнаружения большинства отклонений от нормальности.![{\displaystyle A^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Вычисления различаются в зависимости от того, что известно о распределении: [6]
- Случай 0: известны среднее значение и дисперсия .
![{\displaystyle \mu }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma ^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
- Случай 1: Дисперсия известна, но среднее значение неизвестно.
![{\displaystyle \sigma ^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mu }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
- Случай 2: Среднее значение известно, но дисперсия неизвестна.
![{\displaystyle \mu }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma ^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
- Случай 3: Среднее значение и дисперсия неизвестны.
![{\displaystyle \mu }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma ^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
n наблюдений , for , переменной должны быть отсортированы таким образом, чтобы и последующие обозначения предполагают, что X i представляет упорядоченные наблюдения. Позволять![{\displaystyle X_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle я = 1,\ldots n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle X_{1}\leq X_{2}\leq ...\leq X_{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\hat {\mu }}={\begin{cases}\mu ,&{\text{если известно среднее значение.}} \\{\bar {X}}={\frac {1} {n}}\sum _{i=1}^{n}X_{i},&{\text{иначе.}}\end{cases}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\hat {\sigma }}^{2}={\begin{cases}\sigma ^{2},&{\text{если дисперсия известна.}}\\{\frac {1} {n}}\sum _{i=1}^{n}(X_{i}-\mu )^{2},&{\text{если дисперсия неизвестна, но известно среднее значение.}}\ \{\frac {1}{n-1}}\sum _{i=1}^{n}(X_{i}-{\bar {X}})^{2},&{\text{иначе .}}\end{случаи}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Значения стандартизируются для создания новых значений , заданных формулой![{\displaystyle X_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Y_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Y_{i}={\frac {X_{i}-{\hat {\mu }}}{\hat {\sigma }}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
При использовании стандартного нормального CDF рассчитывается с использованием![{\displaystyle \Фи}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A^{2}=-n-{\frac {1}{n}}\sum _{i=1}^{n}(2i-1)(\ln \Phi (Y_{i}) +\ln(1-\Phi (Y_{n+1-i}))).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Альтернативное выражение, в котором на каждом этапе суммирования учитывается только одно наблюдение:
![{\displaystyle A^{2}=-n-{\frac {1}{n}}\sum _{i=1}^{n}\left[(2i-1)\ln \Phi (Y_{i })+(2(ni)+1)\ln(1-\Phi (Y_{i}))\right].}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Модифицированную статистику можно рассчитать с помощью
![{\displaystyle A^{*2}={\begin{cases}A^{2}\left(1+{\frac {4}{n}}-{\frac {25}{n^{2}} }\right),&{\text{если дисперсия и среднее значение неизвестны.}}\\A^{2},&{\text{иначе.}}\end{cases}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Если или превышает заданное критическое значение, то гипотеза нормальности отвергается с некоторым уровнем значимости. Критические значения приведены в таблице ниже для значений . [1] [7]![{\displaystyle A^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A^{*2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A^{*2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Примечание 1: Если = 0 или любое (0 или 1), то вычисление невозможно и оно не определено.![{\displaystyle {\hat {\sigma }}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Phi (Y_{i})=}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Примечание 2: Приведенная выше формула корректировки взята из Shorack & Wellner (1986, стр. 239). При сравнении различных источников требуется осторожность, поскольку часто не указывается конкретная формула корректировки.
Примечание 3: Стивенс [1] отмечает, что тест становится лучше, когда параметры вычисляются на основе данных, даже если они известны.
Примечание 4: Марсалья и Марсалья [7] дают более точные результаты для случая 0 — 85% и 99%.
Альтернативно, для случая 3, приведенного выше (как среднее значение, так и дисперсия неизвестны), Д'Агостино (1986) [6] в таблице 4.7 на стр. 123 и на страницах 372–373 приводится скорректированная статистика:
![{\displaystyle A^{*2}=A^{2}\left(1+{\frac {0,75}{n}}+{\frac {2,25}{n^{2}}}\right).}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
нормальность отвергается, если превышает 0,631, 0,754, 0,884, 1,047 или 1,159 на уровнях значимости 10%, 5%, 2,5%, 1% и 0,5% соответственно; процедура действительна для размера выборки не менее n=8. Формулы расчета р -значений для других значений приведены в таблице 4.9 на с. 127 в той же книге.![{\displaystyle A^{*2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A^{*2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Тесты для других дистрибутивов
Выше предполагалось, что переменная проверяется на нормальное распределение. Любое другое семейство распределений можно протестировать, но тест для каждого семейства реализуется с использованием различных модификаций базовой тестовой статистики, и это относится к критическим значениям, специфичным для этого семейства распределений. Модификации статистики и таблицы критических значений приведены Стивенсом (1986) [2] для экспоненциального распределения, распределения экстремальных значений, распределения Вейбулла, гамма-распределения, логистического распределения, распределения Коши и фон Мизеса. Тесты на (двухпараметрическое) логарифмически нормальное распределение можно реализовать путем преобразования данных с помощью логарифма и использования приведенного выше теста на нормальность. Подробности необходимых модификаций тестовой статистики и критических значений для нормального и экспоненциального распределения были опубликованы Пирсоном и Хартли (1972, таблица 54). Подробности об этих распределениях, с добавлением распределения Гамбеля , также даны Шораком и Веллнером (1986, стр. 239). Подробности логистического распределения даны Стивенсом (1979). Тест для распределения Вейбулла (с двумя параметрами) можно получить, воспользовавшись тем фактом, что логарифм переменной Вейбулла имеет распределение Гамбеля .![{\displaystyle X_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Непараметрические тесты k -выборки
Фриц Шольц и Майкл А. Стивенс (1987) обсуждают тест, основанный на мере согласия Андерсона-Дарлинга между распределениями, для определения того, могло ли несколько случайных выборок с возможно разными размерами выборки возникнуть из одного и того же распределения, где это распределение неопределенные. [8] Пакет R kSamples и пакет Python Scipy реализуют этот ранговый тест для сравнения k выборок среди нескольких других подобных ранговых тестов. [9] [10]
Для выборок статистику можно вычислить следующим образом в предположении, что функция распределения -й выборки непрерывна.![{\displaystyle k}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle F_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle я}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A_{kN}^{2}={\frac {1}{N}}\sum _{i=1}^{k}{\frac {1}{n_{i}}}\sum _ {j=1}^{N-1}{\frac {(NM_{ij}-jn_{i})^{2}}{j(Nj)}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
где
количество наблюдений в -й выборке![{\displaystyle я}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
общее количество наблюдений во всех выборках
это объединенная упорядоченная выборка
– количество наблюдений в -й выборке, не превышающих . [8]![{\displaystyle я}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle Z_{j}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Реализации
- Phitter [11] : онлайн-программное обеспечение, подходящее для распространения.
Смотрите также
Рекомендации
- ^ abcd Стивенс, Массачусетс (1974). «Статистика EDF по точности соответствия и некоторые сравнения». Журнал Американской статистической ассоциации . 69 (347): 730–737. дои : 10.2307/2286009. JSTOR 2286009.
- ^ abc MA Стивенс (1986). «Тесты на основе статистики EDF». В Д'Агостино, РБ; Стивенс, Массачусетс (ред.). Методы согласия . Нью-Йорк: Марсель Деккер. ISBN 0-8247-7487-6.
- ^ Андерсон, ТВ ; Дарлинг, Д.А. (1952). «Асимптотическая теория некоторых критериев согласия», основанная на случайных процессах». Анналы математической статистики . 23 (2): 193–212. дои : 10.1214/aoms/1177729437 .
- ^ Андерсон, ТВ; Дарлинг, Д.А. (1954). «Проверка пригодности». Журнал Американской статистической ассоциации . 49 (268): 765–769. дои : 10.2307/2281537. JSTOR 2281537.
- ^ Разали, Норнадия; Вау, Яп Би (2011). «Сравнение мощности тестов Шапиро-Уилка, Колмогорова-Смирнова, Лиллифорса и Андерсона-Дарлинга». Журнал статистического моделирования и аналитики . 2 (1): 21–33.
- ^ аб Ральф Б. Д'Агостино (1986). «Тесты нормального распределения». В Д'Агостино, РБ; Стивенс, Массачусетс (ред.). Методы согласия . Нью-Йорк: Марсель Деккер. ISBN 0-8247-7487-6.
- ^ аб Марсалья, Г. (2004). «Оценка распределения Андерсона-Дарлинга». Журнал статистического программного обеспечения . 9 (2): 730–737. CiteSeerX 10.1.1.686.1363 . дои : 10.18637/jss.v009.i02 .
- ^ аб Шольц, ФРВ; Стивенс, Массачусетс (1987). «К-образец Тесты Андерсона – Дарлинга». Журнал Американской статистической ассоциации . 82 (399): 918–924. дои : 10.1080/01621459.1987.10478517.
- ^ «kSamples: тесты ранга K-выборки и их комбинации» . Р-проект .
- ^ "Тест Андерсона-Дарлинга для k-образцов. Пакет Scipy" .
- ^ "Фиттер". 03.10.2023.
дальнейшее чтение
- Кордер, Г.В., Форман, Д.И. (2009). Непараметрическая статистика для нестатистов: пошаговый подход Wiley, ISBN 978-0-470-45461-9
- Мехта, С. (2014) ISBN статистических тем 978-1499273533
- Пирсон Э.С., Хартли, Х.О. (редакторы) (1972) Таблицы биометрики для статистиков , Том II. ЧАШКА. ISBN 0-521-06937-8 .
- Шапиро, СС (1980) Как проверить нормальность и другие предположения о распределении. В: Основные ссылки ASQC по контролю качества: статистические методы 3, стр. 1–78.
- Шорак, Г. Р. , Веллнер, Дж. А. (1986) Эмпирические процессы с применением к статистике , Уайли. ISBN 0-471-86725-X .
- Стивенс, Массачусетс (1979) Критерий соответствия логистическому распределению на основе эмпирической функции распределения , Биометрика, 66(3), 591–5.
Внешние ссылки
- Справочник по статистике NIST США