В теории вероятностей и статистике частичная корреляция измеряет степень связи между двумя случайными величинами , при этом влияние набора контролирующих случайных величин удалено. При определении числовой связи между двумя интересующими переменными использование их коэффициента корреляции даст вводящие в заблуждение результаты , если есть другая смешивающая переменная , которая численно связана с обеими интересующими переменными. Эту вводящую в заблуждение информацию можно избежать, контролируя смешивающую переменную, что делается путем вычисления частичного коэффициента корреляции. Именно это и является мотивацией для включения других переменных правой стороны в множественную регрессию ; но хотя множественная регрессия дает непредвзятые результаты для размера эффекта , она не дает числового значения меры силы связи между двумя интересующими переменными.
Например, учитывая экономические данные о потреблении, доходе и богатстве различных людей, рассмотрим взаимосвязь между потреблением и доходом. Неспособность контролировать богатство при вычислении коэффициента корреляции между потреблением и доходом даст вводящий в заблуждение результат, поскольку доход может быть численно связан с богатством, которое, в свою очередь, может быть численно связано с потреблением; измеренная корреляция между потреблением и доходом может фактически быть загрязнена этими другими корреляциями. Использование частичной корреляции позволяет избежать этой проблемы.
Как и коэффициент корреляции, коэффициент частной корреляции принимает значение в диапазоне от –1 до 1. Значение –1 передает идеальную отрицательную корреляцию, контролирующую некоторые переменные (то есть точную линейную связь, в которой более высокие значения одной переменной связаны с более низкими значениями другой); значение 1 передает идеальную положительную линейную связь, а значение 0 сообщает об отсутствии линейной связи.
Частная корреляция совпадает с условной корреляцией , если случайные величины совместно распределены как многомерное нормальное , другое эллиптическое , многомерное гипергеометрическое , многомерное отрицательное гипергеометрическое , полиномиальное или распределение Дирихле , но не в общем случае. [1]
Формально, частная корреляция между X и Y при заданном наборе n управляющих переменных Z = { Z 1 , Z 2 , ..., Z n }, записанная как ρ XY · Z , является корреляцией между остатками e X и e Y , полученными в результате линейной регрессии X с Z и Y с Z , соответственно . Частная корреляция первого порядка ( т . е . когда n = 1 ) является разницей между корреляцией и произведением устранимых корреляций, деленной на произведение коэффициентов отчуждения устранимых корреляций. Коэффициент отчуждения и его связь с совместной дисперсией через корреляцию доступны в Guilford (1973, стр. 344–345). [2]
Простой способ вычисления выборочной частной корреляции для некоторых данных — решить две связанные задачи линейной регрессии и вычислить корреляцию между остатками. Пусть X и Y — случайные величины, принимающие действительные значения, а Z — n -мерная векторная случайная величина. Пусть x i , y i и z i обозначают i -е из наблюдений iid из некоторого совместного распределения вероятностей над действительными случайными величинами X , Y , и Z , причем z i было дополнено на 1, чтобы разрешить постоянный член в регрессии. Решение задачи линейной регрессии сводится к нахождению ( n +1)-мерных векторов коэффициентов регрессии и таких, что
где — число наблюдений, а — скалярное произведение векторов и .
Остатки тогда
и тогда выборочная частная корреляция определяется по обычной формуле для выборочной корреляции , но между этими новыми полученными значениями:
В первом выражении все три члена после знака минус равны 0, поскольку каждый из них содержит сумму остатков от обычной регрессии наименьших квадратов .
Рассмотрим следующие данные по трем переменным X , Y и Z :
Вычисление коэффициента корреляции Пирсона между переменными X и Y дает приблизительно 0,970, тогда как вычисление частной корреляции между X и Y с использованием приведенной выше формулы дает частичную корреляцию 0,919. Вычисления были выполнены с использованием R со следующим кодом.
> X <- c ( 2 , 4 , 15 , 20 ) > Y <- c ( 1 , 2 , 3 , 4 ) > Z <- c ( 0 , 0 , 1 , 1 ) > mm1 <- lm ( X ~ Z ) > res1 <- мм1 $ остатки > мм2 <- lm ( Y ~ Z ) > res2 <- мм2 $ остатки > cor ( res1 , res2 ) [1] 0,919145 > cor ( X , Y ) [1] 0,9695016 > GeneralCorr :: parcorMany ( cbind ( X , Y , Z )) nami namj partij partji rijMrji [1,] "X" "Y" "0,8844" "1" "-0,1156" [2,] "X" "Z" "0,1581" "1" "-0,8419"
Нижняя часть кода выше сообщает, что обобщенный нелинейный частный коэффициент корреляции между X и Y после удаления нелинейного эффекта Z равен 0,8844. Кроме того, обобщенный нелинейный частный коэффициент корреляции между X и Z после удаления нелинейного эффекта Y равен 0,1581. Подробности см. в пакете R `generalCorr' и его виньетках. Моделирование и другие подробности см. в Vinod (2017) "Generalized Correlation and kernel causality with applications in development economics," Communications in Statistics - Simulation and Computation, vol. 46, [4513, 4534], доступно онлайн: 29 декабря 2015 г., URL https://doi.org/10.1080/03610918.2015.1122048.
Решение задач линейной регрессии может быть вычислительно затратным. На самом деле, частная корреляция n -го порядка (т.е. с | Z | = n ) может быть легко вычислена из трех частных корреляций ( n - 1)-го порядка. Частная корреляция нулевого порядка ρ XY ·Ø определяется как регулярный коэффициент корреляции ρ XY .
Это справедливо для любого, что [3]
Наивная реализация этого вычисления как рекурсивного алгоритма дает экспоненциальную временную сложность . Однако это вычисление имеет свойство перекрывающихся подзадач , так что использование динамического программирования или простое кэширование результатов рекурсивных вызовов дает сложность .
Обратите внимание, что в случае, когда Z — единственная переменная, это сводится к: [ необходима ссылка ]
Частичная корреляция также может быть записана в терминах матрицы совместной точности. Рассмотрим набор случайных величин мощности n . Мы хотим получить частичную корреляцию между двумя переменными и при всех остальных, т. е . . Предположим, что (совместная/полная) ковариационная матрица положительно определена и , следовательно, обратима . Если матрица точности определена как , то
Для вычисления этого требуется , обратная матрица ковариации , которая выполняется во времени (используя выборочную ковариационную матрицу для получения выборочной частичной корреляции). Обратите внимание, что требуется только одна инверсия матрицы, чтобы получить все частичные корреляции между парами переменных в .
Чтобы доказать уравнение ( 1 ), вернитесь к предыдущей записи (т.е. ) и начните с определения частичной корреляции: ρ XY · Z — это корреляция между остатками e X и e Y , полученными в результате линейной регрессии X с Z и Y с Z соответственно.
Во-первых, предположим, что являются коэффициентами для линейной регрессии, то есть,
Запишите совместную ковариационную матрицу для вектора как
где Тогда стандартная формула линейной регрессии дает
Следовательно, остатки можно записать как
Обратите внимание, что имеет нулевое ожидание из-за включения члена-перехвата в . Вычисление ковариации теперь дает
Далее запишем матрицу точности в аналогичной блочной форме:
Тогда, по формуле Шура для блочно-матричного обращения ,
Элементы матрицы с правой стороны — это в точности ковариации, ранее вычисленные в ( 2 ), что дает
Использование формулы для обратной матрицы 2×2 дает
Итак, действительно, частичная корреляция
как утверждается в ( 1 ).
Пусть три переменные X , Y , Z (где Z — «контрольная» или «дополнительная переменная») выбраны из совместного распределения вероятностей по n переменным V. Далее, пусть v i , 1 ≤ i ≤ N , будут N n -мерными iid наблюдениями, взятыми из совместного распределения вероятностей по V . Геометрическая интерпретация происходит из рассмотрения N -мерных векторов x (образованных последовательными значениями X по наблюдениям), y (образованных значениями Y ) и z (образованных значениями Z ).
Можно показать, что остатки e X,i, возникающие из линейной регрессии X на Z , если их также рассматривать как N -мерный вектор e X (обозначенный r X в сопроводительном графике), имеют нулевое скалярное произведение с вектором z, порожденным Z. Это означает, что вектор остатков лежит на ( N –1)-мерной гиперплоскости S z , которая перпендикулярна z .
То же самое относится и к остаткам e Y,i, генерирующим вектор e Y . Тогда искомая частная корреляция — это косинус угла φ между проекциями e X и e Y точек x и y , соответственно, на гиперплоскость, перпендикулярную z . [4] : гл. 7
При предположении, что все вовлеченные переменные являются многомерными гауссовыми , частная корреляция ρ XY · Z равна нулю тогда и только тогда, когда X условно независим от Y при заданном Z. [1] Это свойство не выполняется в общем случае .
Чтобы проверить , подразумевает ли выборочная частная корреляция , что истинная частная корреляция популяции отличается от 0, можно использовать z-преобразование Фишера частной корреляции :
Нулевая гипотеза должна быть проверена против альтернативы с двумя хвостами . может быть отклонена, если
где — кумулятивная функция распределения Гаусса с нулевым средним и единичным стандартным отклонением , — уровень значимости , а — размер выборки . Это z -преобразование является приблизительным, и фактическое распределение выборочного (частного) коэффициента корреляции не является простым. Однако доступен точный t-тест, основанный на комбинации частного коэффициента регрессии, частного коэффициента корреляции и частных дисперсий. [5]
Распределение выборочной частичной корреляции было описано Фишером. [6]
Статистика получастичной (или частичной) корреляции похожа на статистику частичной корреляции; обе сравнивают вариации двух переменных после того, как определенные факторы контролируются. Однако для вычисления получастичной корреляции третья переменная сохраняется постоянной либо для X, либо для Y , но не для обоих; тогда как для частичной корреляции третья переменная сохраняется постоянной для обоих. [7] Получастичная корреляция сравнивает уникальную вариацию одной переменной (удалив вариацию, связанную с переменной(ыми) Z )) с неотфильтрованной вариацией другой, в то время как частичная корреляция сравнивает уникальную вариацию одной переменной с уникальной вариацией другой.
Получастную корреляцию можно рассматривать как более значимую с практической точки зрения, «потому что она масштабируется по отношению к (т.е. относительно) общей изменчивости зависимой (ответной) переменной». [8] И наоборот, она менее полезна с теоретической точки зрения, поскольку она менее точна в отношении роли уникального вклада независимой переменной.
Абсолютное значение получастной корреляции X с Y всегда меньше или равно значению частичной корреляции X с Y . Причина в следующем: предположим, что корреляция X с Z была удалена из X , что дало остаточный вектор e x . При вычислении получастной корреляции Y по-прежнему содержит как уникальную дисперсию, так и дисперсию из-за ее связи с Z . Но e x , будучи некоррелированным с Z , может объяснить только часть уникальной части дисперсии Y , а не часть, связанную с Z . Напротив, при частичной корреляции необходимо объяснить только e y (часть дисперсии Y , которая не связана с Z ), поэтому дисперсии того типа, которую e x не может объяснить , меньше .
В анализе временных рядов частная автокорреляционная функция ( иногда «частичная корреляционная функция») временного ряда определяется для лага как [ необходима ссылка ]
Эта функция используется для определения подходящей длины лага для авторегрессии .