В статистике проверка гипотез «почти наверняка» или проверка гипотез «как» использует почти верную сходимость для определения обоснованности статистической гипотезы с вероятностью один. Это означает, что всякий раз, когда нулевая гипотеза верна, то проверка гипотезы «как» не сможет отвергнуть нулевую гипотезу wp 1 для всех достаточно больших выборок. Аналогично, всякий раз, когда альтернативная гипотеза верна, то проверка гипотезы «как» отвергнет нулевую гипотезу с вероятностью один для всех достаточно больших выборок. Подобным же образом доверительный интервал «как» в конечном итоге содержит интересующий параметр с вероятностью один. Дембо и Перес (1994) доказали существование проверок гипотез «почти наверняка».
Для простоты предположим, что у нас есть последовательность независимых и одинаково распределенных нормальных случайных величин, , со средним значением , и единичной дисперсией. Предположим, что природа или моделирование выбрали истинное среднее значение , тогда функция распределения вероятностей среднего значения, , задается как
где была использована скобка Айверсона . Наивный подход к оценке этой функции распределения заключался бы в замене истинного среднего значения в правой части на оценку, например, выборочное среднее значение, но
что означает, что приближение к истинной функции распределения будет отклоняться на 0,5 при истинном среднем значении. Однако, является не более чем односторонним 50% доверительным интервалом; в более общем случае, пусть будет критическим значением, используемым в одностороннем доверительном интервале, тогда
Если мы положим , то погрешность аппроксимации уменьшится с 0,5 до 0,05, что составляет коэффициент 10. Конечно, если мы положим , то
Однако это показывает только то, что ожидание близко к предельному значению. Нааман (2016) показал, что установка уровня значимости при приводит к конечному числу ошибок типа I и типа II wp1 при довольно мягких условиях регулярности. Это означает, что для каждого существует , такой что для всех ,
где справедливо равенство wp 1. Таким образом, индикаторная функция одностороннего доверительного интервала является хорошим приближением к истинной функции распределения.
Например, предположим, что исследователь провел эксперимент с размером выборки 10 и не нашел статистически значимого результата. Затем предположим, что он решил добавить еще одно наблюдение и повторить тестирование, продолжая этот процесс до тех пор, пока не будет найден значимый результат. В этом сценарии, учитывая, что начальная партия из 10 наблюдений дала незначимый результат, вероятность того, что эксперимент будет остановлен при некотором конечном размере выборки, , может быть ограничена с помощью неравенства Буля
где . Это выгодно отличается от тестирования с фиксированным уровнем значимости, которое имеет конечное время остановки с вероятностью единица; однако эта граница не будет иметь смысла для всех последовательностей уровня значимости, поскольку указанная выше сумма может быть больше единицы (настройка будет одним из примеров). Но даже при использовании этой полосы пропускания, если тестирование проводилось партиями по 10, то
что приводит к относительно большой вероятности того, что этот процесс никогда не закончится.
В качестве другого примера мощи этого подхода, если академический журнал принимает только статьи со значениями p менее 0,05, то примерно 1 из 20 независимых исследований того же эффекта обнаружит значимый результат, когда его нет. Однако, если журнал требует минимальный размер выборки 100, а максимальный уровень значимости задан как , то можно ожидать, что примерно 1 из 250 исследований обнаружит эффект, когда его нет (если минимальный размер выборки 30, это все равно будет 1 из 60). Если максимальный уровень значимости задан как (что будет иметь лучшую производительность для небольшой выборки в отношении ошибки типа I, когда множественные сравнения являются проблемой), можно ожидать, что примерно 1 из 10000 исследований обнаружит эффект, когда его нет (если минимальный размер выборки 30, это будет 1 из 900). Кроме того, проверка гипотезы AS устойчива к множественным сравнениям.
Парадокс Линдли возникает, когда
Однако парадокс не применим к проверке гипотез. Байесовский и частотный в конечном итоге придут к одному и тому же выводу.