stringtranslate.com

Коэффициент корреляции Пирсона

Примеры диаграмм рассеяния с различными значениями коэффициента корреляции ( ρ )
Несколько наборов точек ( xy ) с коэффициентом корреляции x и y для каждого набора. Корреляция отражает силу и направление линейной связи (верхний ряд), но не наклон этой связи (средний) и не многие аспекты нелинейных связей (нижний). Примечание: фигура в центре имеет наклон 0, но в этом случае коэффициент корреляции не определен, поскольку дисперсия Y равна нулю.

В статистике коэффициент корреляции Пирсона ( PCC ) [a] — это коэффициент корреляции , который измеряет линейную корреляцию между двумя наборами данных. Это отношение между ковариацией двух переменных и произведением их стандартных отклонений ; таким образом, это по сути нормализованное измерение ковариации, так что результат всегда имеет значение между −1 и 1. Как и сама ковариация, эта мера может отражать только линейную корреляцию переменных и игнорирует многие другие типы взаимосвязей или корреляций. В качестве простого примера можно было бы ожидать, что возраст и рост выборки детей из начальной школы будут иметь коэффициент корреляции Пирсона значительно больше 0, но меньше 1 (поскольку 1 будет представлять собой нереалистично идеальную корреляцию).

Наименование и история

Он был разработан Карлом Пирсоном на основе родственной идеи, выдвинутой Фрэнсисом Гальтоном в 1880-х годах, и для которой математическая формула была выведена и опубликована Огюстом Браве в 1844 году. [b] [6] [7] [8] [9] Таким образом, наименование коэффициента является примером закона Стиглера .

Определение

Коэффициент корреляции Пирсона — это ковариация двух переменных, деленная на произведение их стандартных отклонений. Форма определения включает в себя «момент продукта», то есть среднее значение (первый момент относительно начала) произведения случайных величин, скорректированных по среднему; отсюда и модификатор « момент продукта» в названии. [ требуется проверка ]

Для населения

Коэффициент корреляции Пирсона, применяемый к популяции , обычно обозначается греческой буквой ρ (ро) и может называться коэффициентом корреляции популяции или коэффициентом корреляции Пирсона популяции . При наличии пары случайных величин (например, роста и веса) формула для ρ [10] выглядит следующим образом [11]

где

Формула для может быть выражена через среднее значение и математическое ожидание . Поскольку [10]

формулу для можно также записать как

где

Формулу для можно выразить через нецентрированные моменты. Так как

формулу для можно также записать как

Для образца

Коэффициент корреляции Пирсона, применяемый к выборке , обычно представляется и может называться коэффициентом корреляции выборки или коэффициентом корреляции Пирсона выборки . Мы можем получить формулу для , подставив оценки ковариаций и дисперсий на основе выборки в формулу выше. Приведенные парные данные , состоящие из пар, определяются как

где

Перестановка дает нам эту [10] формулу для :

где определены, как указано выше.

Повторная перестановка дает нам следующую формулу :

где определены, как указано выше.

Эта формула предлагает удобный однопроходный алгоритм для расчета выборочных корреляций, хотя в зависимости от используемых чисел он иногда может быть численно нестабильным .

Эквивалентное выражение дает формулу для среднего значения произведений стандартных баллов следующим образом:

где

Также доступны альтернативные формулы для . Например, можно использовать следующую формулу для :

где

Для совместно гауссовых распределений

Если является совместно гауссовым , со средним значением нулевым и дисперсией , то .

Практические вопросы

В условиях сильного шума извлечение коэффициента корреляции между двумя наборами стохастических переменных является нетривиальной задачей, в частности, когда канонический корреляционный анализ сообщает об ухудшенных значениях корреляции из-за сильного шума. Обобщение подхода дано в другом месте. [12]

В случае отсутствия данных Гаррен вывел оценку максимального правдоподобия . [13]

Некоторые распределения (например, устойчивые распределения , отличные от нормального распределения ) не имеют определенной дисперсии.

Математические свойства

Значения коэффициентов корреляции Пирсона как выборки, так и популяции находятся на уровне или между −1 и 1. Корреляции, равные +1 или −1, соответствуют точкам данных, лежащим точно на линии (в случае выборочной корреляции), или двумерному распределению, полностью поддерживаемому на линии (в случае популяционной корреляции). Коэффициент корреляции Пирсона симметричен: corr( X , Y ) = corr( Y , X ).

Ключевым математическим свойством коэффициента корреляции Пирсона является то, что он инвариантен при отдельных изменениях местоположения и масштаба двух переменных. То есть, мы можем преобразовать X в a + bX и преобразовать Y в c + dY , где a , b , c , и d являются константами с b , d > 0 , не меняя коэффициент корреляции. (Это справедливо как для коэффициентов корреляции Пирсона для совокупности, так и для выборки.) Более общие линейные преобразования действительно изменяют корреляцию: см. § Декорреляция n случайных величин для применения этого.

Интерпретация

Коэффициент корреляции варьируется от −1 до 1. Абсолютное значение, равное ровно 1, подразумевает, что линейное уравнение идеально описывает связь между X и Y , при этом все точки данных лежат на одной линии . Знак корреляции определяется наклоном регрессии : значение +1 подразумевает, что все точки данных лежат на линии, для которой Y увеличивается по мере увеличения X , тогда как значение -1 подразумевает линию, на которой Y увеличивается, а X уменьшается. [14] Значение 0 подразумевает, что между переменными нет линейной зависимости. [15]

В более общем смысле ( X iX )( Y iY ) положительно тогда и только тогда, когда X i и Y i лежат по одну сторону от своих соответствующих средних значений. Таким образом, коэффициент корреляции положителен, если X i и Y i имеют тенденцию быть одновременно больше или одновременно меньше своих соответствующих средних значений. Коэффициент корреляции отрицателен ( антикорреляция ), если X i и Y i имеют тенденцию лежать по разные стороны от своих соответствующих средних значений. Более того, чем сильнее любая из тенденций, тем больше абсолютное значение коэффициента корреляции.

Роджерс и Нисуондер [16] каталогизировали тринадцать способов интерпретации корреляции или ее простых функций:

Геометрическая интерпретация

Линии регрессии для y = g X ( x ) [ красный ] и x = g Y ( y ) [ синий ]

Для нецентрированных данных существует связь между коэффициентом корреляции и углом φ между двумя линиями регрессии, y = g X ( x ) и x = g Y ( y ) , полученными путем регрессии y по x и x по y соответственно. (Здесь φ измеряется против часовой стрелки в пределах первого квадранта, образованного вокруг точки пересечения линий, если r > 0 , или против часовой стрелки от четвертого до второго квадранта, если r < 0 .) Можно показать [17] , что если стандартные отклонения равны, то r = sec φ − tan φ , где sec и tan являются тригонометрическими функциями .

Для центрированных данных (т.е. данных, которые были смещены на выборочные средние значения соответствующих переменных так, чтобы среднее значение для каждой переменной было равно нулю) коэффициент корреляции также можно рассматривать как косинус угла θ между двумя наблюдаемыми векторами в N -мерном пространстве (для N наблюдений каждой переменной). [18]

Для набора данных можно определить как нецентрированные (не соответствующие Пирсону), так и центрированные коэффициенты корреляции. В качестве примера предположим, что обнаружено, что пять стран имеют валовой национальный продукт в размере 1, 2, 3, 5 и 8 миллиардов долларов соответственно. Предположим, что эти же пять стран (в том же порядке) имеют 11%, 12%, 13%, 15% и 18% бедности. Тогда пусть x и y будут упорядоченными 5-элементными векторами, содержащими указанные выше данные: x = (1, 2, 3, 5, 8) и y = (0,11, 0,12, 0,13, 0,15, 0,18) .

По обычной процедуре нахождения угла θ между двумя векторами (см. скалярное произведение ) нецентрированный коэффициент корреляции равен

Этот нецентрированный коэффициент корреляции идентичен косинусному сходству . Вышеприведенные данные были намеренно выбраны так, чтобы они были идеально коррелированы: y = 0,10 + 0,01 x . Поэтому коэффициент корреляции Пирсона должен быть равен единице. Центрирование данных (сдвиг x на ℰ( x ) = 3,8 и y на ℰ( y ) = 0,138 ) дает x = (−2,8, −1,8, −0,8, 1,2, 4,2) и y = (−0,028, −0,018, −0,008, 0,012, 0,042) , откуда

как и ожидалось.

Интерпретация величины корреляции

Этот рисунок дает представление о том, как полезность корреляции Пирсона для прогнозирования значений меняется в зависимости от ее величины. При условии совместного нормального X , Y с корреляцией ρ , (показанной здесь как функция ρ ) является фактором, на который заданный интервал прогнозирования для Y может быть уменьшен при соответствующем значении X . Например, если ρ = 0,5, то 95% интервал прогнозирования Y | X будет примерно на 13% меньше 95% интервала прогнозирования Y .

Несколько авторов предложили руководящие принципы для интерпретации коэффициента корреляции. [19] [20] Однако все такие критерии в некотором роде произвольны. [20] Интерпретация коэффициента корреляции зависит от контекста и целей. Корреляция 0,8 может быть очень низкой, если проверяется физический закон с использованием высококачественных инструментов, но может считаться очень высокой в ​​социальных науках, где может быть больший вклад усложняющих факторов.

Вывод

Статистический вывод, основанный на коэффициенте корреляции Пирсона, часто фокусируется на одной из следующих двух целей:

Ниже рассматриваются методы достижения одной или обеих этих целей.

Использование теста перестановки

Тесты перестановки обеспечивают прямой подход к выполнению проверок гипотез и построению доверительных интервалов. Тест перестановки для коэффициента корреляции Пирсона включает следующие два шага:

  1. Используя исходные парные данные ( x iy i ), случайным образом переопределите пары для создания нового набора данных ( x iy i′ ), где i′ являются перестановкой набора {1,..., n }. Перестановка i′ выбирается случайным образом, с равными вероятностями, помещенными на все n ! возможных перестановок. Это эквивалентно выбору i′ случайным образом без замены из набора {1,..., n }. В бутстреппинге , тесно связанном подходе, i и i′ равны и берутся с заменой из {1,..., n };
  2. Постройте коэффициент корреляции r из рандомизированных данных.

Для выполнения теста перестановки повторите шаги (1) и (2) большое количество раз. Значение p для теста перестановки — это доля значений r , полученных на шаге (2), которые больше коэффициента корреляции Пирсона, рассчитанного на основе исходных данных. Здесь «больше» может означать либо то, что значение больше по величине, либо больше по знаковому значению, в зависимости от того, требуется ли двусторонний или односторонний тест.

Использование бутстрапа

Бутстрап может использоваться для построения доверительных интервалов для коэффициента корреляции Пирсона. В «непараметрическом» бутстрапе n пар ( x iy i ) повторно выбираются «с заменой» из наблюдаемого набора из n пар, а коэффициент корреляции r рассчитывается на основе повторно выбранных данных. Этот процесс повторяется большое количество раз, и эмпирическое распределение повторно выбранных значений r используется для аппроксимации выборочного распределения статистики. 95% доверительный интервал для ρ может быть определен как интервал, охватывающий от 2,5-го до 97,5-го процентиля повторно выбранных значений r .

Стандартная ошибка

Если и являются случайными величинами с простой линейной зависимостью между ними и аддитивным нормальным шумом (т.е. y= a + bx + e), то стандартная ошибка, связанная с корреляцией, равна

где — корреляция и размер выборки. [21] [22]

Тестирование с использованием Student'sт-распределение

Критические значения коэффициента корреляции Пирсона, которые должны быть превышены, чтобы считаться значимо отличными от нуля на уровне 0,05

Для пар из некоррелированного двумерного нормального распределения выборочное распределение стьюдентизированного коэффициента корреляции Пирсона следует t -распределению Стьюдента со степенями свободы n  − 2. В частности, если базовые переменные имеют двумерное нормальное распределение, переменная

имеет распределение Стьюдента в нулевом случае (нулевая корреляция). [23] Это справедливо приблизительно в случае ненормальных наблюдаемых значений, если размеры выборки достаточно велики. [24] Для определения критических значений для r необходима обратная функция:

В качестве альтернативы можно использовать асимптотические подходы с большой выборкой.

В другой ранней статье [25] приводятся графики и таблицы для общих значений ρ для небольших размеров выборки, а также обсуждаются вычислительные подходы.

В случае, когда базовые переменные не являются нормальными, выборочное распределение коэффициента корреляции Пирсона следует распределению Стьюдента , но степени свободы уменьшаются. [26]

Используя точное распределение

Для данных, которые следуют двумерному нормальному распределению , точная функция плотности f ( r ) для выборочного коэффициента корреляции r нормального двумерного распределения равна [27] [28] [29]

где — гамма-функция , а — гипергеометрическая функция Гаусса .

В частном случае, когда (нулевая корреляция популяции), точная функция плотности f ( r ) может быть записана как

где — бета-функция , которая является одним из способов записи плотности t-распределения Стьюдента для коэффициента корреляции стьюдентизированной выборки, как указано выше.

Используя точное распределение уверенности

Доверительные интервалы и тесты можно рассчитать из доверительного распределения . Точная доверительная плотность для ρ равна [30]

где — гипергеометрическая функция Гаусса и .

Использование преобразования Фишера

На практике доверительные интервалы и проверки гипотез, касающихся ρ , обычно выполняются с использованием преобразования, стабилизирующего дисперсию , преобразования Фишера :

F ( r ) приблизительно следует нормальному распределению с

    и стандартная ошибка

где n — размер выборки. Ошибка аппроксимации наименьшая для большого размера выборки и малого и увеличивается в противном случае.

Используя аппроксимацию, z-оценка равна

при нулевой гипотезе , что , учитывая предположение, что пары выборок независимы и одинаково распределены и следуют двумерному нормальному распределению . Таким образом, приблизительное p-значение может быть получено из нормальной таблицы вероятностей. Например, если наблюдается z  = 2,2 и требуется двустороннее p-значение для проверки нулевой гипотезы, что , p-значение равно 2 Φ(−2,2) = 0,028 , где Φ — стандартная нормальная кумулятивная функция распределения .

Чтобы получить доверительный интервал для ρ, сначала вычислим доверительный интервал для F ( ):

Обратное преобразование Фишера возвращает интервал к шкале корреляции.

Например, предположим, что мы наблюдаем r  = 0,7 с размером выборки n = 50 и хотим получить 95% доверительный интервал для  ρ . Преобразованное значение равно , поэтому доверительный интервал на преобразованной шкале равен , или (0,5814, 1,1532). Преобразование обратно в шкалу корреляции дает (0,5237, 0,8188).

В регрессионном анализе по методу наименьших квадратов

Квадрат коэффициента корреляции выборки обычно обозначается r 2 и является частным случаем коэффициента детерминации . В этом случае он оценивает долю дисперсии в Y , которая объясняется X в простой линейной регрессии . Таким образом, если у нас есть наблюдаемый набор данных и подобранный набор данных , то в качестве отправной точки общая вариация в Y i вокруг их среднего значения может быть разложена следующим образом

где — подобранные значения из регрессионного анализа. Это можно переставить, чтобы получить

Два слагаемых выше представляют собой долю дисперсии в Y , которая объясняется X (справа) и которая не объясняется X (слева).

Далее мы применяем свойство моделей регрессии наименьших квадратов , что выборочная ковариация между и равна нулю. Таким образом, выборочный коэффициент корреляции между наблюдаемыми и подобранными значениями отклика в регрессии может быть записан (расчет выполняется с учетом ожидания, предполагается гауссовская статистика)

Таким образом

где — доля дисперсии Y, объясняемая линейной функцией X.

В приведенном выше выводе тот факт, что

можно доказать, заметив, что частные производные остаточной суммы квадратов ( RSS ) по β 0 и β 1 равны 0 в модели наименьших квадратов, где

.

В конечном итоге уравнение можно записать как

где

Символ называется регрессионной суммой квадратов, также называемой объясненной суммой квадратов , и представляет собой общую сумму квадратов (пропорциональную дисперсии данных ).

Чувствительность к распределению данных

Существование

Коэффициент корреляции Пирсона популяции определяется в терминах моментов и, следовательно, существует для любого двумерного распределения вероятностей , для которого определена ковариация популяции и определены предельные дисперсии популяции и они не равны нулю. Некоторые распределения вероятностей, такие как распределение Коши , имеют неопределенную дисперсию, и, следовательно, ρ не определено, если X или Y следуют такому распределению. В некоторых практических приложениях, таких как те, которые включают данные, предположительно следующие распределению с тяжелым хвостом , это является важным соображением. Однако существование коэффициента корреляции обычно не вызывает беспокойства; например, если диапазон распределения ограничен, ρ всегда определен.

Размер выборки

Надежность

Как и многие обычно используемые статистики, выборочная статистика r не является надежной [ 32], поэтому ее значение может вводить в заблуждение, если присутствуют выбросы . [33] [34] В частности, PMCC не является ни надежной в плане распределения [35], ни устойчивой к выбросам [32] (см. Надежная статистика § Определение ). Проверка диаграммы рассеяния между X и Y обычно выявляет ситуацию, когда отсутствие надежности может быть проблемой, и в таких случаях может быть целесообразно использовать надежную меру ассоциации. Однако следует отметить, что, хотя большинство надежных оценок ассоциации каким-то образом измеряют статистическую зависимость , они, как правило, не интерпретируются в той же шкале, что и коэффициент корреляции Пирсона.

Статистический вывод для коэффициента корреляции Пирсона чувствителен к распределению данных. Точные тесты и асимптотические тесты, основанные на преобразовании Фишера, могут применяться, если данные распределены приблизительно нормально, но в противном случае могут вводить в заблуждение. В некоторых ситуациях бутстрап может применяться для построения доверительных интервалов, а тесты перестановки могут применяться для проведения проверок гипотез. Эти непараметрические подходы могут давать более значимые результаты в некоторых ситуациях, когда двумерная нормальность не выполняется. Однако стандартные версии этих подходов полагаются на взаимозаменяемость данных, что означает, что нет упорядочения или группировки анализируемых пар данных, которые могли бы повлиять на поведение оценки корреляции.

Стратифицированный анализ — это один из способов либо приспособиться к отсутствию двумерной нормальности, либо изолировать корреляцию, возникающую из-за одного фактора, контролируя другой. Если W представляет собой членство в кластере или другой фактор, который желательно контролировать, мы можем стратифицировать данные на основе значения W , а затем вычислить коэффициент корреляции в пределах каждой страты. Затем оценки на уровне страты можно объединить для оценки общей корреляции, контролируя W . [36]

Варианты

Вариации коэффициента корреляции могут быть рассчитаны для разных целей. Вот несколько примеров.

Скорректированный коэффициент корреляции

Коэффициент корреляции выборки r не является несмещенной оценкой ρ . Для данных, которые следуют двумерному нормальному распределению , ожидание E[ r ] для коэффициента корреляции выборки r нормального двумерного распределения равно [37]

поэтому r является смещенной оценкой

Уникальная несмещенная оценка минимальной дисперсии r adj определяется по формуле [38]

где:

Приблизительно несмещенную оценку r adj можно получить [ требуется ссылка ] путем усечения E[ r ] и решения этого усеченного уравнения:

Приближенное решение [ требуется ссылка ] уравнения ( 2 ) имеет вид

где в ( 3 )

Другой предложенный [10] скорректированный коэффициент корреляции — [ требуется ссылка ]

r adjr для больших значений  n .

Взвешенный коэффициент корреляции

Предположим, что коррелируемые наблюдения имеют различную степень важности, которая может быть выражена с помощью весового вектора w . Чтобы вычислить корреляцию между векторами x и y с весовым вектором w (все имеют длину  n ), [39] [40]

Коэффициент корреляции рефлексивный

Рефлективная корреляция — это вариант корреляции Пирсона, в котором данные не центрированы вокруг своих средних значений. [ необходима ссылка ] Рефлективная корреляция населения — это

Рефлективная корреляция симметрична, но она не инвариантна относительно трансляции:

Выборочная отражательная корреляция эквивалентна косинусному сходству :

Взвешенная версия выборочной рефлексивной корреляции:

Коэффициент масштабированной корреляции

Масштабированная корреляция — это вариант корреляции Пирсона, в котором диапазон данных ограничивается намеренно и контролируемым образом, чтобы выявить корреляции между быстрыми компонентами во временных рядах . [41] Масштабированная корреляция определяется как средняя корреляция по коротким сегментам данных.

Пусть — число сегментов, которые могут поместиться в общую длину сигнала для данного масштаба :

Затем масштабированная корреляция по всем сигналам вычисляется как

где — коэффициент корреляции Пирсона для сегмента .

При выборе параметра диапазон значений сокращается, а корреляции на длинной временной шкале отфильтровываются, выявляются только корреляции на короткой временной шкале. Таким образом, вклады медленных компонентов удаляются, а вклады быстрых компонентов сохраняются.

Расстояние Пирсона

Метрика расстояния для двух переменных X и Y, известная как расстояние Пирсона, может быть определена из их коэффициента корреляции как [42]

Учитывая, что коэффициент корреляции Пирсона попадает в диапазон [−1, +1], расстояние Пирсона лежит в диапазоне [0, 2]. Расстояние Пирсона использовалось в кластерном анализе и обнаружении данных для связи и хранения с неизвестным усилением и смещением. [43]

Определенное таким образом «расстояние» Пирсона присваивает расстояние больше 1 отрицательным корреляциям. В действительности, как сильная положительная корреляция, так и отрицательная корреляция имеют смысл, поэтому необходимо соблюдать осторожность при использовании «расстояния» Пирсона для алгоритма ближайшего соседа, поскольку такой алгоритм будет включать только соседей с положительной корреляцией и исключать соседей с отрицательной корреляцией. В качестве альтернативы можно применить абсолютное значение расстояния, которое будет учитывать как положительные, так и отрицательные корреляции. Информацию о положительной и отрицательной ассоциации можно извлечь отдельно позже.

Коэффициент круговой корреляции

Для переменных X = { x 1 ,..., x n } и Y = { y 1 ,..., y n }, которые определены на единичной окружности [0, 2π) , можно определить круговой аналог коэффициента Пирсона. [44] Это делается путем преобразования точек данных в X и Y с помощью синусоидальной функции таким образом, что коэффициент корреляции задается как:

где и — круговые средние значения X и Y.  Эта мера может быть полезна в таких областях, как метеорология, где важно угловое направление данных.

Частичная корреляция

Если совокупность или набор данных характеризуется более чем двумя переменными, коэффициент частичной корреляции измеряет силу зависимости между парой переменных, которая не учитывается тем, как они обе изменяются в ответ на изменения в выбранном подмножестве других переменных.

Коэффициент корреляции Пирсона в квантовых системах

Для двух наблюдаемых и в двухчастичной квантовой системе коэффициент корреляции Пирсона определяется как [45] [46]

где

симметрична, т.е. , и ее абсолютное значение инвариантно относительно аффинных преобразований.

Декорреляциянслучайные величины

Всегда возможно удалить корреляции между всеми парами произвольного числа случайных величин с помощью преобразования данных, даже если связь между переменными нелинейна. Представление этого результата для распределений населения дано Коксом и Хинкли. [47]

Соответствующий результат существует для сведения выборочных корреляций к нулю. Предположим, что вектор из n случайных величин наблюдается m раз. Пусть X будет матрицей, где j - я переменная наблюдения i . Пусть будет квадратной матрицей m на m с каждым элементом 1. Тогда D — это данные, преобразованные таким образом, что каждая случайная величина имеет нулевое среднее значение, а T — это данные, преобразованные таким образом, что все переменные имеют нулевое среднее значение и нулевую корреляцию со всеми другими переменными — выборочная корреляционная матрица T будет единичной матрицей. Ее необходимо дополнительно разделить на стандартное отклонение, чтобы получить единичную дисперсию. Преобразованные переменные будут некоррелированными, даже если они не являются независимыми .

где показатель степени +12 представляет квадратный корень матрицы обратной матрицы . Корреляционная матрица T будет единичной матрицей. Если новое наблюдение данных x является вектором-строкой из n элементов, то то же самое преобразование можно применить к x , чтобы получить преобразованные векторы d и t :

Эта декорреляция связана с анализом главных компонент для многомерных данных.

Реализации программного обеспечения

Смотрите также

Сноски

  1. ^ Также известен как r Пирсона , коэффициент корреляции Пирсона ( PPMCC ), двумерная корреляция [1] или просто безусловный коэффициент корреляции [2]
  2. ^ Еще в 1877 году Гальтон использовал термин «реверсия» и символ « r » для того, что впоследствии стало «регрессией». [3] [4] [5]

Ссылки

  1. ^ «Учебники SPSS: Корреляция Пирсона».
  2. ^ "Коэффициент корреляции: простое определение, формула, легкие шаги". Статистика Как .
  3. Гальтон, Ф. (5–19 апреля 1877 г.). «Типичные законы наследственности». Nature . 15 (388, 389, 390): 492–495, 512–514, 532–533. Bibcode : 1877Natur..15..492.. doi : 10.1038/015492a0 . S2CID  4136393.В «Приложении» на странице 532 Гальтон использует термин «реверсия» и символ r .
  4. Гальтон, Ф. (24 сентября 1885 г.). «Британская ассоциация: Секция II, Антропология: Вступительное слово Фрэнсиса Гальтона, члена Королевского общества и т. д., президента Антропологического института, президента секции». Nature . 32 (830): 507–510.
  5. ^ Гальтон, Ф. (1886). «Регрессия к посредственности в наследственном росте». Журнал Антропологического института Великобритании и Ирландии . 15 : 246–263. doi :10.2307/2841583. JSTOR  2841583.
  6. Пирсон, Карл (20 июня 1895 г.). «Заметки о регрессии и наследовании в случае двух родителей». Труды Лондонского королевского общества . 58 : 240–242. Библиографический код : 1895RSPS...58..240P.
  7. ^ Стиглер, Стивен М. (1989). «Рассказ Фрэнсиса Гальтона об изобретении корреляции». Статистическая наука . 4 (2): 73–79. doi : 10.1214/ss/1177012580 . JSTOR  2245329.
  8. ^ «Математический анализ вероятностей ошибок ситуации в точке» . Память акад. Рой. наук. Инст. Франция . наук. Математика и физика. (на французском языке). 9 : 255–332. 1844 г. - через Google Книги.
  9. ^ Райт, С. (1921). «Корреляция и причинно-следственная связь». Журнал сельскохозяйственных исследований . 20 (7): 557–585.
  10. ^ abcde Real Statistics Using Excel, «Основные концепции корреляции», получено 22 февраля 2015 г.
  11. ^ Weisstein, Eric W. "Статистическая корреляция". Wolfram MathWorld . Получено 22 августа 2020 г.
  12. ^ Мория, Н. (2008). «Связанный с шумом многомерный оптимальный совместный анализ в продольных стохастических процессах». В Ян, Фэншань (ред.). Прогресс в прикладном математическом моделировании . Nova Science Publishers, Inc. стр. 223–260. ISBN 978-1-60021-976-4.
  13. ^ Гаррен, Стивен Т. (15 июня 1998 г.). «Оценка максимального правдоподобия коэффициента корреляции в двумерной нормальной модели с отсутствующими данными». Statistics & Probability Letters . 38 (3): 281–288. doi :10.1016/S0167-7152(98)00035-2.
  14. ^ "2,6 - (Пирсон) Коэффициент корреляции r". STAT 462 . Получено 10 июля 2021 г. .
  15. ^ "Вводная бизнес-статистика: коэффициент корреляции r". opentextbc.ca . Получено 21 августа 2020 г. .
  16. ^ Роджерс; Найсвандер (1988). «Тринадцать способов взглянуть на коэффициент корреляции» (PDF) . Американский статистик . 42 (1): 59–66. doi :10.2307/2685263. JSTOR  2685263.
  17. ^ Шмид, Джон младший (декабрь 1947 г.). «Отношение между коэффициентом корреляции и углом, заключенным между линиями регрессии». Журнал образовательных исследований . 41 (4): 311–313. doi :10.1080/00220671.1947.10881608. JSTOR  27528906.
  18. ^ Раммель, Р. Дж. (1976). «Понимание корреляции». гл. 5 (как проиллюстрировано для особого случая в следующем абзаце).
  19. ^ Буда, Анджей; Яриновский, Анджей (декабрь 2010 г.). Время жизни корреляций и его приложения . Видавництво Незалежне. стр. 5–21. ISBN 9788391527290.
  20. ^ Коэн, Дж. (1988). Статистический анализ мощности для поведенческих наук (2-е изд.).
  21. ^ Боули, AL (1928). «Стандартное отклонение коэффициента корреляции». Журнал Американской статистической ассоциации . 23 (161): 31–34. doi :10.2307/2277400. ISSN  0162-1459. JSTOR  2277400.
  22. ^ "Вывод стандартной ошибки для коэффициента корреляции Пирсона". Перекрестная проверка . Получено 30 июля 2021 г.
  23. ^ Рахман, Н.А. (1968) Курс теоретической статистики , Чарльз Гриффин и компания, 1968
  24. ^ Кендалл, MG, Стюарт, A. (1973) Продвинутая теория статистики, том 2: Вывод и взаимосвязь , Гриффин. ISBN 0-85264-215-6 (Раздел 31.19) 
  25. ^ Сопер, Х. Э .; Янг, А. В.; Кейв, Б. М.; Ли, А.; Пирсон, К. (1917). «О распределении коэффициента корреляции в малых выборках. Приложение II к статьям «Стьюдента» и Р. А. Фишера. Совместное исследование». Biometrika . 11 (4): 328–413. doi :10.1093/biomet/11.4.328.
  26. ^ Дэйви, Кэтрин Э.; Грейден, Дэвид Б.; Эган, Гэри Ф.; Джонстон, Ли А. (январь 2013 г.). «Фильтрация вызывает корреляцию в данных состояния покоя фМРТ». NeuroImage . 64 : 728–740. doi :10.1016/j.neuroimage.2012.08.022. hdl : 11343/44035 . PMID  22939874. S2CID  207184701.
  27. ^ Хотеллинг, Гарольд (1953). «Новый свет на коэффициент корреляции и его преобразования». Журнал Королевского статистического общества . Серия B (Методологическая). 15 (2): 193–232. doi :10.1111/j.2517-6161.1953.tb00135.x. JSTOR  2983768.
  28. ^ Кенни, Дж. Ф.; Киппинг, Э. С. (1951). Математика статистики . Т. Часть 2 (2-е изд.). Принстон, Нью-Джерси: Van Nostrand.
  29. ^ Вайсштейн, Эрик В. «Коэффициент корреляции — двумерное нормальное распределение». Wolfram MathWorld .
  30. ^ Таральдсен, Гуннар (2020). «Уверенность в корреляции». дои : 10.13140/RG.2.2.23673.49769 . {{cite journal}}: Цитировать журнал требует |journal=( помощь )
  31. ^ Лай, Чун Син; Тао, Иншань; Сюй, Фанюань; Нг, Винг Вай; Цзя, Ювэй; Юань, Хаолян; Хуан, Чао; Лай, Лой Лэй; Сюй, Чжао; Локателли, Джорджио (январь 2019 г.). «Надежная структура корреляционного анализа для несбалансированных и дихотомических данных с неопределенностью» (PDF) . Информационные науки . 470 : 58–77. doi :10.1016/j.ins.2018.08.017. S2CID  52878443.
  32. ^ ab Wilcox, Rand R. (2005). Введение в надежную оценку и проверку гипотез . Academic Press.
  33. ^ Девлин, Сьюзен Дж.; Гнанадесикан, Р.; Кеттенринг Дж. Р. (1975). «Надежная оценка и обнаружение выбросов с коэффициентами корреляции». Biometrika . 62 (3): 531–545. doi :10.1093/biomet/62.3.531. JSTOR  2335508.
  34. ^ Хубер, Питер Дж. (2004). Надежная статистика . Wiley.[ нужна страница ]
  35. ^ Ваарт, А. В. ван дер (13 октября 1998 г.). Асимптотическая статистика. Cambridge University Press. doi :10.1017/cbo9780511802256. ISBN 978-0-511-80225-6.
  36. ^ Кац., Митчелл Х. (2006) Многомерный анализ – практическое руководство для врачей . 2-е издание. Cambridge University Press. ISBN 978-0-521-54985-1 . ISBN 0-521-54985-X  
  37. ^ Хотеллинг, Х. (1953). «Новый свет на коэффициент корреляции и его преобразования». Журнал Королевского статистического общества. Серия B (Методологическая) . 15 (2): 193–232. doi :10.1111/j.2517-6161.1953.tb00135.x. JSTOR  2983768.
  38. ^ Олкин, Ингрэм; Пратт, Джон У. (март 1958 г.). «Непредвзятая оценка некоторых коэффициентов корреляции». Анналы математической статистики . 29 (1): 201–211. doi : 10.1214/aoms/1177706717 . JSTOR  2237306..
  39. ^ "Re: Вычисление взвешенной корреляции". sci.tech-archive.net .
  40. ^ «Взвешенная корреляционная матрица – Обмен файлами – MATLAB Central».
  41. ^ Николич, Д.; Муресан, Р. К.; Фэн, В.; Сингер, В. (2012). «Масштабированный корреляционный анализ: лучший способ вычисления кросс-коррелограммы» (PDF) . European Journal of Neuroscience . 35 (5): 1–21. doi :10.1111/j.1460-9568.2011.07987.x. PMID  22324876. S2CID  4694570.
  42. ^ Фулекар (ред.), МХ (2009) Биоинформатика: применение в науках о жизни и окружающей среде , Springer (стр. 110) ISBN 1-4020-8879-5 
  43. ^ Immink, K. Schouhamer; Weber, J. (октябрь 2010 г.). «Обнаружение минимального расстояния Пирсона для многоуровневых каналов с несоответствием усиления и/или смещения». IEEE Transactions on Information Theory . 60 (10): 5966–5974. CiteSeerX 10.1.1.642.9971 . doi :10.1109/tit.2014.2342744. S2CID  1027502 . Получено 11 февраля 2018 г. . 
  44. ^ Джаммаламадака, С. Рао; СенГупта, А. (2001). Темы в круговой статистике. Нью-Джерси: World Scientific. стр. 176. ISBN 978-981-02-3778-3. Получено 21 сентября 2016 г.
  45. Reid, MD (1 июля 1989 г.). «Демонстрация парадокса Эйнштейна-Подольского-Розена с использованием невырожденного параметрического усиления». Physical Review A. 40 ( 2): 913–923. doi :10.1103/PhysRevA.40.913.
  46. ^ Maccone, L.; Dagmar, B.; Macchiavello, C. (1 апреля 2015 г.). «Комплементарность и корреляции». Physical Review Letters . 114 (13): 130401. arXiv : 1408.6851 . doi : 10.1103/PhysRevLett.114.130401.
  47. ^ Кокс, DR; Хинкли, DV (1974). Теоретическая статистика . Чапман и Холл. Приложение 3. ISBN 0-412-12420-3.

Внешние ссылки