Смешанная модель , модель со смешанными эффектами или модель со смешанными компонентами ошибок — это статистическая модель , содержащая как фиксированные эффекты , так и случайные эффекты . [1] [2] Эти модели полезны в самых разных дисциплинах физических, биологических и социальных наук. Они особенно полезны в условиях, когда повторяющиеся измерения проводятся на одних и тех же статистических единицах (см. также продольное исследование ) или когда измерения проводятся на группах связанных статистических единиц. [2] Смешанные модели часто предпочтительнее традиционного анализа моделей дисперсионной регрессии, поскольку они не полагаются на предположение независимых наблюдений. Кроме того, они обладают гибкостью в работе с пропущенными значениями и неравномерным интервалом повторных измерений. [3] Анализ смешанной модели позволяет явно моделировать измерения с использованием более широкого спектра корреляций и дисперсии - ковариации , избегая предвзятых оценок. структуры.
На этой странице будут обсуждаться в основном линейные модели смешанных эффектов, а не обобщенные линейные модели смешанных эффектов или нелинейные модели смешанных эффектов . [4]
Линейные смешанные модели (LMM) — это статистические модели , которые включают фиксированные и случайные эффекты для точного представления ненезависимых структур данных. LMM является альтернативой дисперсионному анализу . Часто ANOVA предполагает независимость наблюдений внутри каждой группы, однако это предположение может не выполняться для ненезависимых данных, таких как многоуровневые/ иерархические , продольные или коррелированные наборы данных.
Ненезависимые наборы — это наборы, в которых изменчивость результатов обусловлена корреляциями внутри групп или между группами. Смешанные модели правильно учитывают гнездовые структуры/иерархические структуры данных, где на наблюдения влияют их вложенные ассоциации. Например, при изучении методов обучения с участием нескольких школ необходимо учитывать несколько уровней переменных. Индивидуальный уровень/нижний уровень включает отдельных учащихся или учителей школы. Наблюдения, полученные от этого ученика/учителя, вложены в его школу. Например, Учащийся А — это единица в Школе А. Следующий более высокий уровень — это школа. На более высоком уровне в школе есть несколько отдельных учеников и учителей. Уровень школы влияет на наблюдения, полученные от учеников и учителей. Например, школа A и школа B — это более высокие уровни, каждая со своим набором учеников A и B соответственно. Это представляет собой иерархическую схему данных. Решением моделирования иерархических данных является использование линейных смешанных моделей.
LMM позволяют нам понять важные эффекты между уровнями и внутри них, в то же время внося поправки на стандартные ошибки из-за независимости, встроенные в структуру данных. [4] [5]
Фиксированные эффекты инкапсулируют тенденции/тенденции, которые являются последовательными на уровнях основного интереса. Эти эффекты считаются фиксированными, поскольку они неслучайны и предполагаются постоянными для изучаемой популяции. [5] Например, при изучении образования фиксированный эффект может представлять собой общие эффекты на уровне школы, которые одинаковы для всех школ.
Хотя иерархия набора данных обычно очевидна, необходимо указать конкретные фиксированные эффекты, влияющие на средние ответы для всех испытуемых. Некоторых коэффициентов с фиксированным эффектом достаточно без соответствующих случайных эффектов, тогда как другие фиксированные коэффициенты представляют собой только среднее значение, в котором отдельные единицы являются случайными. Они могут быть определены путем включения случайных точек пересечения и наклонов . [6] [7] [8]
В большинстве ситуаций рассматриваются несколько связанных моделей и принимается модель, которая лучше всего представляет собой универсальную модель.
Ключевым компонентом смешанной модели является объединение случайных эффектов с фиксированным эффектом. Фиксированные эффекты часто используются для представления базовой модели. В линейных смешанных моделях истинная регрессия популяции является линейной, β. Фиксированные данные устанавливаются на самом высоком уровне. Случайные эффекты приводят к статистической изменчивости на разных уровнях иерархии данных. Они объясняют неизмеренные источники отклонений, которые влияют на определенные группы данных. Например, различия между учеником 1 и учеником 2 в одном классе или различия между классом 1 и классом 2 в одной школе. [6] [7] [8]
Рональд Фишер представил модели случайных эффектов для изучения корреляции значений признаков между родственниками. [9] В 1950-х годах Чарльз Рой Хендерсон предоставил лучшие линейные несмещенные оценки фиксированных эффектов и лучшие линейные несмещенные прогнозы случайных эффектов. [10] [11] [12] [13] Впоследствии смешанное моделирование стало основной областью статистических исследований, включая работу по вычислению оценок максимального правдоподобия, нелинейных моделей смешанных эффектов, недостающих данных в моделях смешанных эффектов и байесовских моделей. оценка моделей смешанных эффектов. Смешанные модели применяются во многих дисциплинах, где для каждой интересующей единицы проводится несколько коррелированных измерений. Они широко используются в исследованиях с участием людей и животных в самых разных областях — от генетики до маркетинга, а также в бейсболе [14] и промышленной статистике. [15] Ассоциация смешанной линейной модели позволила улучшить предотвращение ложноположительных ассоциаций. Популяции глубоко взаимосвязаны, и структуру родства динамики популяций чрезвычайно сложно смоделировать без использования смешанных моделей. Однако линейные смешанные модели могут быть не единственным решением. В LMM используется допущение о постоянной остаточной дисперсии , которое иногда нарушается при учете глубоко связанных непрерывных и бинарных признаков. [16]
В матричной записи линейную смешанную модель можно представить как
где
Например, если каждое наблюдение может принадлежать к любому нулю или более из k категорий, тогда Z , который имеет одну строку на каждое наблюдение, может быть выбран так, чтобы иметь k столбцов, где значение 1 для матричного элемента Z указывает, что наблюдение является известно, что наблюдение принадлежит к какой-либо категории, а значение 0 указывает на то, что наблюдение, как известно, не принадлежит к какой-либо категории. Выведенное значение u для категории тогда является перехватом для конкретной категории . Если Z имеет дополнительные столбцы, где ненулевые значения вместо этого являются значением независимой переменной для наблюдения, то соответствующее выведенное значение u представляет собой наклон для этой независимой переменной, специфичный для категории . Отношения между точками пересечения категорий и наклонами количественно оцениваются с помощью ковариационной матрицы G.
Совместную плотность и можно записать как: . Предполагая нормальность , и , а также максимизируя плотность соединений по и , получаем «уравнения смешанной модели» Хендерсона (MME) для линейных смешанных моделей: [10] [12] [17]
где, например, X ' — это транспонированная матрица X , а R -1 — это матрица , обратная R.
Решениями MME и являются лучшие линейные несмещенные оценки и предикторы для и соответственно. Это следствие теоремы Гаусса-Маркова, когда условная дисперсия результата не масштабируется до единичной матрицы. Когда условная дисперсия известна, то оценка методом наименьших квадратов, взвешенная с обратной дисперсией, является лучшей линейной несмещенной оценкой. Однако условная дисперсия редко, если вообще когда-либо, известна. Поэтому желательно совместно оценивать дисперсию и оценки взвешенных параметров при решении MME.
Одним из методов, используемых для подбора таких смешанных моделей, является метод алгоритма ожидания-максимизации (EM), в котором компоненты дисперсии рассматриваются как ненаблюдаемые мешающие параметры в совместной вероятности. [18] В настоящее время этот метод реализован в статистическом программном обеспечении, таком как Python (пакет statsmodels) и SAS (смешанный процесс), и в качестве начального шага только в пакете R nlme lme(). Решение уравнений смешанной модели представляет собой оценку максимального правдоподобия, когда распределение ошибок нормальное. [19] [20]
Существует несколько других методов подбора смешанных моделей, включая первоначальное использование MEM, а затем метода Ньютона-Рафсона (используемого пакетом R nlme [21] lme()), штрафных наименьших квадратов, чтобы получить профилированное логарифмическое правдоподобие только в зависимости от (низкоразмерные) параметры дисперсии-ковариации , т. е. его матрицы cov , а затем современная прямая оптимизация для этой приведенной целевой функции (используется пакетом lme4 [22] R lmer() и пакетом Julia MixedModels.jl) и прямая оптимизация вероятности (используется, например, в glmmTMB R ). Примечательно, что хотя каноническая форма, предложенная Хендерсоном, полезна для теории, многие популярные пакеты программного обеспечения используют другую формулировку для численных вычислений, чтобы воспользоваться преимуществами методов разреженной матрицы (например, lme4 и MixedModels.jl).
{{cite book}}
: CS1 maint: multiple names: authors list (link){{cite book}}
: CS1 maint: multiple names: authors list (link){{cite book}}
: CS1 maint: multiple names: authors list (link)