В статистике мешающим параметром является любой параметр , который не указан [1], но который необходимо учитывать при проверке гипотез интересующих параметров.
Классический пример мешающего параметра исходит из нормального распределения , члена семейства распределение-масштаб . Для по крайней мере одного нормального распределения дисперсия ( s), σ 2 часто не указана или не известна, но желательно проверить гипотезу на среднем значении (средних значениях). Другим примером может быть линейная регрессия с неизвестной дисперсией в объясняющей переменной (независимой переменной): ее дисперсия является мешающим параметром, который необходимо учитывать для получения точной интервальной оценки наклона регрессии , вычисления p-значений , проверки гипотезы на значении наклона; см. разбавление регрессии .
Мешающие параметры часто являются масштабными параметрами , но не всегда; например, в моделях с ошибками в переменных неизвестное истинное местоположение каждого наблюдения является мешающим параметром. Параметр также может перестать быть «мешающим», если он становится объектом исследования, оценивается по данным или известен.
Общая обработка мешающих параметров может быть в целом схожей между частотным и байесовским подходами к теоретической статистике. Она основана на попытке разбить функцию правдоподобия на компоненты, представляющие информацию об интересующих параметрах и информацию о других (мешающих) параметрах. Это может включать идеи о достаточной статистике и вспомогательной статистике . Когда это разбиение может быть достигнуто, может оказаться возможным завершить байесовский анализ для интересующих параметров, определив их совместное апостериорное распределение алгебраически. Разбиение позволяет частотной теории разрабатывать общие подходы к оценке в присутствии мешающих параметров. Если разбиение не может быть достигнуто, все еще может быть возможным использовать приблизительное разбиение.
В некоторых особых случаях можно сформулировать методы, которые обходят наличие мешающих параметров. T-тест обеспечивает практически полезный тест, поскольку тестовая статистика не зависит от неизвестной дисперсии, а только от выборочной дисперсии. Это случай, когда можно использовать основную величину . Однако в других случаях такой обход неизвестен.
Практические подходы к статистическому анализу несколько по-разному трактуют мешающие параметры в частотных и байесовских методологиях.
Общий подход в частотном анализе может быть основан на тестах максимального отношения правдоподобия . Они обеспечивают как тесты значимости , так и доверительные интервалы для интересующих параметров, которые приблизительно действительны для выборок среднего и большого размера и которые учитывают наличие мешающих параметров. См. Basu (1977) для некоторого общего обсуждения и Spall и Garner (1990) для некоторого обсуждения относительно идентификации параметров в линейных динамических моделях (т. е. представление пространства состояний ).
В байесовском анализе общеприменимый подход создает случайные выборки из совместного апостериорного распределения всех параметров: см. Марковская цепь Монте-Карло . Учитывая это, совместное распределение только интересующих параметров может быть легко найдено путем маргинализации по мешающим параметрам. Однако этот подход не всегда может быть вычислительно эффективным, если некоторые или все мешающие параметры могут быть устранены на теоретической основе.