stringtranslate.com

Автокорреляция

Выше: График серии из 100 случайных чисел, скрывающий функцию синуса . Ниже: Функция синуса, выявленная в коррелограмме, полученной с помощью автокорреляции.
Визуальное сравнение свертки, кросс-корреляции и автокорреляции . Для операций, включающих функцию f , и предполагая, что высота f равна 1,0, значение результата в 5 различных точках указано затененной областью под каждой точкой. Кроме того, симметрия f является причиной и в этом примере они идентичны.

Автокорреляция , иногда называемая последовательной корреляцией в случае дискретного времени , представляет собой корреляцию сигнала с задержанной копией самого себя как функцию задержки. Неформально, это сходство между наблюдениями случайной величины как функция временной задержки между ними. Анализ автокорреляции представляет собой математический инструмент для поиска повторяющихся закономерностей , таких как наличие периодического сигнала, скрытого шумом , или определение отсутствующей основной частоты в сигнале, подразумеваемой его гармоническими частотами. Он часто используется в обработке сигналов для анализа функций или рядов значений, таких как сигналы во временной области .

Различные области исследований определяют автокорреляцию по-разному, и не все эти определения эквивалентны. В некоторых областях этот термин используется взаимозаменяемо с автоковариацией .

Процессы единичного корня , процессы со стационарным трендом , процессы авторегрессии и процессы скользящего среднего являются частными формами процессов с автокорреляцией.

Автокорреляция случайных процессов

В статистике автокорреляция реального или сложного случайного процесса — это корреляция Пирсона между значениями процесса в разные моменты времени как функция двух моментов времени или временного лага. Пусть — случайный процесс, а — любая точка во времени ( может быть целым числом для дискретного процесса или действительным числом для непрерывного процесса). Тогда — это значение (или реализация ), полученное заданным запуском процесса в момент времени . Предположим, что процесс имеет среднее значение и дисперсию в момент времени для каждого . Тогда определение функции автокорреляции между моментами времени и равно [1] : стр.388  [2] : стр.165 

где — оператор ожидаемого значения , а черта представляет комплексное сопряжение . Обратите внимание, что ожидание может быть не совсем определено .

Вычитание среднего значения перед умножением дает функцию автоковариации между временами и : [1] : стр.392  [2] : стр.168 

Обратите внимание, что это выражение не является хорошо определенным для всех временных рядов или процессов, поскольку среднее значение может не существовать, или дисперсия может быть равна нулю (для постоянного процесса) или бесконечности (для процессов с распределением, не имеющим хорошо ведущих себя моментов, таких как определенные типы степенного закона ).

Определение стационарного случайного процесса в широком смысле

Если — стационарный процесс в широком смысле , то среднее значение и дисперсия не зависят от времени, и далее функция автоковариации зависит только от лага между и : автоковариация зависит только от временного расстояния между парой значений, но не от их положения во времени. Это далее подразумевает, что автоковариация и автокорреляция могут быть выражены как функция лага во времени, и что это будет четная функция лага . Это дает более знакомые формы для функции автокорреляции [1] : стр.395 

и автоковариационная функция :

В частности, обратите внимание, что

Нормализация

В некоторых дисциплинах (например, в статистике и анализе временных рядов ) общепринятой практикой является нормализация функции автоковариации для получения зависящего от времени коэффициента корреляции Пирсона . Однако в других дисциплинах (например, в инженерии) нормализация обычно опускается, а термины «автокорреляция» и «автоковариация» используются взаимозаменяемо.

Определение коэффициента автокорреляции случайного процесса: [2] : стр.169 

Если функция хорошо определена, ее значение должно лежать в диапазоне , где 1 указывает на идеальную корреляцию, а −1 указывает на идеальную антикорреляцию .

Для стационарного в широком смысле процесса (WSS) определение следующее:

.

Нормализация важна как потому, что интерпретация автокорреляции как корреляции обеспечивает независимую от масштаба меру силы статистической зависимости , так и потому, что нормализация влияет на статистические свойства оцененных автокорреляций.

Характеристики

Свойство симметрии

Тот факт, что функция автокорреляции является четной функцией, можно сформулировать следующим образом [2] : стр.171  соответственно для процесса WSS: [2] : стр.173 

Максимум при нуле

Для процесса WSS: [2] : стр.174  Обратите внимание, что это всегда реально.

Неравенство Коши–Шварца

Неравенство Коши –Шварца , неравенство для случайных процессов: [1] : стр.392 

Автокорреляция белого шума

Автокорреляция непрерывного во времени сигнала белого шума будет иметь выраженный пик (представленный дельта-функцией Дирака ) при и будет точно такой же для всех остальных .

Теорема Винера–Хинчина

Теорема Винера –Хинчина связывает автокорреляционную функцию со спектральной плотностью мощности посредством преобразования Фурье :

Для действительных функций симметричная автокорреляционная функция имеет действительное симметричное преобразование, поэтому теорему Винера–Хинчина можно переписать только через действительные косинусы:

Автокорреляция случайных векторов

(Потенциально зависящая от времени) автокорреляционная матрица (также называемая вторым моментом) (потенциально зависящего от времени) случайного вектора — это матрица, содержащая в качестве элементов автокорреляции всех пар элементов случайного вектора . Автокорреляционная матрица используется в различных алгоритмах цифровой обработки сигналов .

Для случайного вектора, содержащего случайные элементы , чье ожидаемое значение и дисперсия существуют, автокорреляционная матрица определяется следующим образом: [3] : стр.190  [1] : стр.334 

где обозначает транспонированную матрицу размерностей .

Написано покомпонентно:

Если — сложный случайный вектор , то матрица автокорреляции определяется как

Здесь обозначает эрмитово транспонирование .

Например, если — случайный вектор, то — матрица, -й элемент которой равен .

Свойства автокорреляционной матрицы

Автокорреляция детерминированных сигналов

В обработке сигналов приведенное выше определение часто используется без нормализации, то есть без вычитания среднего значения и деления на дисперсию. Когда автокорреляционная функция нормализована по среднему значению и дисперсии, ее иногда называют коэффициентом автокорреляции [4] или функцией автоковариации.

Автокорреляция непрерывного во времени сигнала

При наличии сигнала непрерывная автокорреляция чаще всего определяется как непрерывный интеграл взаимной корреляции с самим собой при задержке . [1] : стр.411 

где представляет собой комплексное сопряжение . Обратите внимание, что параметр в интеграле является фиктивной переменной и необходим только для вычисления интеграла. Он не имеет конкретного значения.

Автокорреляция дискретного по времени сигнала

Дискретная автокорреляция при задержке для дискретного по времени сигнала равна

Приведенные выше определения работают для сигналов, которые являются квадратно-интегрируемыми или квадратно-суммируемыми, то есть, с конечной энергией. Сигналы, которые "длятся вечно", рассматриваются вместо этого как случайные процессы, в этом случае необходимы другие определения, основанные на ожидаемых значениях. Для широко-смысловых стационарных случайных процессов автокорреляции определяются как

Для процессов, которые не являются стационарными , это также будут функции , или .

Для процессов, которые также являются эргодическими , ожидание может быть заменено пределом среднего времени. Автокорреляция эргодического процесса иногда определяется как или приравнивается к [4]

Преимущество этих определений заключается в том, что они дают разумные, четко определенные однопараметрические результаты для периодических функций, даже если эти функции не являются результатом стационарных эргодических процессов.

В качестве альтернативы сигналы, которые длятся вечно, можно обработать с помощью анализа функции кратковременной автокорреляции, используя конечные временные интегралы. (См. кратковременное преобразование Фурье для получения информации о соответствующем процессе.)

Определение периодических сигналов

Если — непрерывная периодическая функция периода , то интегрирование от до заменяется интегрированием по любому интервалу длины :

что эквивалентно

Характеристики

Далее мы опишем свойства только одномерных автокорреляций, поскольку большинство свойств легко переносятся из одномерного случая в многомерные. Эти свойства сохраняются для стационарных процессов в широком смысле . [5]

Многомерная автокорреляция

Многомерная автокорреляция определяется аналогично. Например, в трех измерениях автокорреляция квадратично-суммируемого дискретного сигнала будет

Когда перед вычислением функции автокорреляции из сигналов вычитаются средние значения, результирующая функция обычно называется функцией автоковариации.

Эффективные вычисления

Для данных, выраженных в виде дискретной последовательности, часто необходимо вычислить автокорреляцию с высокой вычислительной эффективностью . Метод грубой силы, основанный на определении обработки сигнала, может быть использован, когда размер сигнала мал. Например, чтобы вычислить автокорреляцию реальной последовательности сигнала (т. е. , и для всех других значений i ) вручную, мы сначала осознаем, что только что данное определение такое же, как и «обычное» умножение, но со сдвигами вправо, где каждое вертикальное сложение дает автокорреляцию для определенных значений лага:

Таким образом, требуемая последовательность автокорреляции равна , где и автокорреляция для других значений лага равна нулю. В этом вычислении мы не выполняем операцию переноса во время сложения, как это обычно происходит при обычном умножении. Обратите внимание, что мы можем вдвое сократить количество требуемых операций, используя внутреннюю симметрию автокорреляции. Если сигнал оказывается периодическим, то мы получаем круговую автокорреляцию (похожую на круговую свертку ), где левый и правый хвосты предыдущей последовательности автокорреляции будут перекрываться и давать , которая имеет тот же период, что и последовательность сигнала . Процедуру можно рассматривать как применение свойства свертки Z-преобразования дискретного сигнала.

В то время как алгоритм грубой силы имеет порядок n 2 , существует несколько эффективных алгоритмов, которые могут вычислять автокорреляцию в порядке n log( n ) . Например, теорема Винера–Хинчина позволяет вычислять автокорреляцию из необработанных данных X ( t ) с двумя быстрыми преобразованиями Фурье (БПФ): [6] [ нужна страница ]

где IFFT обозначает обратное быстрое преобразование Фурье . Звездочка обозначает комплексно-сопряженное .

В качестве альтернативы, множественная τ- корреляция может быть выполнена с использованием расчета методом грубой силы для низких значений τ , а затем постепенного объединения данных X ( t ) с логарифмической плотностью для вычисления более высоких значений, что приводит к той же эффективности n log( n ) , но с меньшими требованиями к памяти. [7] [8]

Оценка

Для дискретного процесса с известным средним значением и дисперсией, для которого мы наблюдаем наблюдения , оценка коэффициента автокорреляции может быть получена как

для любого положительного целого числа . Когда известны истинное среднее и дисперсия , эта оценка является несмещенной . Если истинное среднее и дисперсия процесса неизвестны, есть несколько возможностей:

Преимущество оценок последнего типа заключается в том, что набор оцененных автокорреляций, как функция от , затем формирует функцию, которая является допустимой автокорреляцией в том смысле, что можно определить теоретический процесс, имеющий именно эту автокорреляцию. Другие оценки могут страдать от проблемы, что если они используются для вычисления дисперсии линейной комбинации 's, то вычисленная дисперсия может оказаться отрицательной. [11]

Регрессионный анализ

В регрессионном анализе с использованием данных временных рядов автокорреляция в интересующей переменной обычно моделируется либо с помощью модели авторегрессии (AR), модели скользящего среднего (MA), их комбинации в виде модели авторегрессии-скользящего среднего (ARMA) или расширения последней, называемой моделью авторегрессии с интегрированным скользящим средним (ARIMA). С несколькими взаимосвязанными рядами данных используется векторная авторегрессия (VAR) или ее расширения.

В обычном методе наименьших квадратов (OLS) адекватность спецификации модели может быть частично проверена путем установления наличия автокорреляции остатков регрессии . Проблемная автокорреляция ошибок, которые сами по себе не наблюдаются, обычно может быть обнаружена, поскольку она производит автокорреляцию в наблюдаемых остатках. (Ошибки также известны как «члены ошибки» в эконометрике .) Автокорреляция ошибок нарушает предположение обычного метода наименьших квадратов о том, что члены ошибки не коррелируют, что означает, что теорема Гаусса-Маркова неприменима, и что оценки OLS больше не являются наилучшими линейными несмещенными оценками ( BLUE ). Хотя это не смещает оценки коэффициентов OLS, стандартные ошибки имеют тенденцию быть недооцененными (а t-оценки переоценены), когда автокорреляции ошибок при малых лагах положительны.

Традиционным тестом на наличие автокорреляции первого порядка является статистика Дарбина-Уотсона или, если объясняющие переменные включают зависимую переменную с лагом, статистика Дарбина h . Однако Дарбина-Уотсона можно линейно сопоставить с корреляцией Пирсона между значениями и их лагами. [12] Более гибким тестом, охватывающим автокорреляцию более высоких порядков и применимым независимо от того, включают ли регрессоры лаги зависимой переменной, является тест Бреуша-Годфри . Он включает вспомогательную регрессию, в которой остатки, полученные при оценке интересующей модели, регрессируются на (a) исходные регрессоры и (b) k лаги остатков, где «k» — порядок теста. Простейшая версия тестовой статистики из этой вспомогательной регрессии — TR 2 , где T — размер выборки, а R 2коэффициент детерминации . При нулевой гипотезе об отсутствии автокорреляции эта статистика асимптотически распределена как с k степенями свободы.

Реакции на ненулевую автокорреляцию включают обобщенные наименьшие квадраты и оценку HAC Ньюи-Уэста (гетероскедастичность и согласованность автокорреляции). [13]

При оценке модели скользящего среднего (MA) функция автокорреляции используется для определения соответствующего числа запаздывающих членов ошибки, которые следует включить. Это основано на том факте, что для процесса MA порядка q мы имеем , для , и , для .

Приложения

Способность автокорреляции находить повторяющиеся закономерности в данных открывает множество возможностей для ее применения, в том числе:

Серийная зависимость

Последовательная зависимость тесно связана с понятием автокорреляции, но представляет собой отдельную концепцию (см. Корреляция и зависимость ). В частности, возможна последовательная зависимость, но без (линейной) корреляции. Однако в некоторых областях эти два термина используются как синонимы.

Временной ряд случайной величины имеет последовательную зависимость, если значение в какой-то момент времени в ряду статистически зависит от значения в другой момент времени . Ряд является последовательно независимым, если нет зависимости между любой парой.

Если временной ряд является стационарным , то статистическая зависимость между парой будет означать, что существует статистическая зависимость между всеми парами значений с одинаковым лагом .

Смотрите также

Ссылки

  1. ^ abcdefg Губнер, Джон А. (2006). Вероятность и случайные процессы для инженеров-электриков и компьютерщиков . Cambridge University Press. ISBN 978-0-521-86470-1.
  2. ^ abcdef Кун Иль Пак, Основы теории вероятностей и стохастических процессов с приложениями к коммуникациям, Springer, 2018, ISBN 978-3-319-68074-3 
  3. ^ abc Папулис, Афанасий, Вероятность, случайные величины и стохастические процессы , McGraw-Hill, 1991
  4. ^ ab Dunn, Patrick F. (2005). Измерение и анализ данных для инженерии и науки . Нью-Йорк: McGraw–Hill. ISBN 978-0-07-282538-1.
  5. ^ Прокис, Джон (31 августа 2001 г.). Communication Systems Engineering (2-е издание) (2-е изд.). Pearson. стр. 168. ISBN 978-0130617934.
  6. ^ Бокс, GEP; Дженкинс, GM; Рейнсел, GC (1994). Анализ временных рядов: прогнозирование и управление (3-е изд.). Верхняя Сэддл-Ривер, Нью-Джерси: Prentice–Hall. ISBN 978-0130607744.
  7. ^ Френкель, Д.; Смит, Б. (2002). "глава 4.4.2". Понимание молекулярного моделирования (2-е изд.). Лондон: Academic Press. ISBN 978-0122673511.
  8. ^ Colberg, P.; Höfling, F. (2011). «Высокоускоренное моделирование динамики стекла с использованием графических процессоров: предостережения об ограниченной точности с плавающей точкой». Comput. Phys. Commun. 182 (5): 1120–1129. arXiv : 0912.3824 . Bibcode :2011CoPhC.182.1120C. doi :10.1016/j.cpc.2011.01.009. S2CID  7173093.
  9. ^ Пристли, МБ (1982). Спектральный анализ и временные ряды . Лондон, Нью-Йорк: Academic Press. ISBN 978-0125649018.
  10. ^ Персиваль, Дональд Б.; Эндрю Т. Уолден (1993). Спектральный анализ для физических приложений: многоконтурные и обычные одномерные методы . Cambridge University Press. стр. 190–195. ISBN 978-0-521-43541-3.
  11. ^ Персиваль, Дональд Б. (1993). «Три любопытных свойства выборочной дисперсии и автоковариации для стационарных процессов с неизвестным средним». Американский статистик . 47 (4): 274–276. doi :10.1080/00031305.1993.10475997.
  12. ^ "Методы последовательной корреляции". Статистические идеи . 26 мая 2014 г.
  13. ^ Баум, Кристофер Ф. (2006). Введение в современную эконометрику с использованием Stata . Stata Press. ISBN 978-1-59718-013-9.
  14. ^ Элсон, Эллиот Л. (декабрь 2011 г.). «Флуоресцентная корреляционная спектроскопия: прошлое, настоящее, будущее». Biophysical Journal . 101 (12): 2855–2870. Bibcode :2011BpJ...101.2855E. doi :10.1016/j.bpj.2011.11.012. PMC 3244056 . PMID  22208184. 
  15. ^ Холыст, Роберт; Поневьерский, Анджей; Чжан, Сюйчжу (2017). «Аналитическая форма функции автокорреляции для спектроскопии корреляции флуоресценции». Soft Matter . 13 (6): 1267–1275. Bibcode :2017SMat...13.1267H. doi : 10.1039/C6SM02643E . ISSN  1744-683X. PMID  28106203.
  16. ^ Ван Сикл, Ян (2008). GPS для землемеров (третье изд.). CRC Press. стр. 18–19. ISBN 978-0-8493-9195-8.
  17. ^ Калвани, Пайам Раджаби; Джахангири, Али Реза; Шапури, Саманех; Сари, Амирхоссейн; Джалили, Юсеф Сейед (август 2019 г.). «Многомодовый АСМ-анализ тонких пленок оксида цинка, легированного алюминием, распыленных при различных температурах подложки для оптоэлектронных приложений». Сверхрешетки и микроструктуры . 132 : 106173. doi : 10.1016/j.spmi.2019.106173. S2CID  198468676.
  18. ^ Тиранджил, Джош (2009-02-05). "Автонастройка: почему поп-музыка звучит идеально". Time . Архивировано из оригинала 10 февраля 2009 г.
  19. ^ Kasztenny, Bogdan (март 2016 г.). "Новый метод быстрого измерения частоты для приложений защиты" (PDF) . Schweitzer Engineering Laboratories. Архивировано (PDF) из оригинала 2022-10-09 . Получено 28 мая 2022 г. .

Дальнейшее чтение