Взаимнокорреляционная функция. Функция взаимной корреляции. Функция автокорреляции

В этой главе понятия, введенные в гл. 5 и 6 (вып. 1), распространяются на случай пары временных рядов и случайных процессов. Первым таким обобщением, приведенным в разд. 8.1, является взаимная корреляционная функция двумерного стационарного случайного процесса. Эта функция характеризует корреляцию двух процессов при различных запаздываниях. Второе обобщение представляет собой двумерный линейный процесс, образуемый с помощью линейных операций над двумя источниками белого шума. Важными частными случаями такого процесса являются двумерный процесс авторегрессии и двумерный процесс скользящего среднего.

В разд. 8.2 мы обсудим вопрос об оценивании взаимной корреляционной функции. Мы покажем, что если не применять к обоим рядам фильтрации, переводящей их в белый шум, то при оценивании могут возникать ложные завышенные значения взаимной корреляции. В разд. 8.3 вводится третье обобщение - взаимный спектр стационарного двумерного процесса. Взаимный спектр содержит два различных вида информации, характеризующей зависимость между двумя процессами. Информация первого типа содержится в спектре когерентности, являющемся эффективной мерой корреляции двух процессов на каждой из частот. Информация второго типа дается фазовым спектром, характеризующим разность фаз двух процессов на каждой из частот. В разд. 8.4 оба эти типа информации иллюстрируются на простых примерах.

8.1. ФУНКЦИЯ ВЗАИМНОЙ КОРРЕЛЯЦИИ

8.1.1. Введение

В этой главе мы будем заниматься вопросами описания пары временных рядов, или двумерного временного ряда. Используемые при этом способы являются обобщением способов, применявшихся в гл. 5, 6, и поэтому все относящиеся к временным рядам общие положения, изложенные в разд. 5.1, применимы и в этом случае. В разд. 5.1 под заголовком «Многомерные временные

ряды» кратко упоминалось о том, что отдельные временные ряды, образующие многомерный ряд, могут быть неравноправны по отношению друг к другу. Рассмотрим, например, систему, показанную на рис. 8.1, которая имеет два входа и два выхода

Рис. 8.1. Физическая система с двумя входами и двумя выходами.

Можно различать две ситуации. В первом случае два ряда находятся в одинаковом положении по отношению друг к другу, как, например, два входа на рис. 8.1.

Рис. 8.2. Синфазный и сдвинутый по фазе токи на выходе турбогенератора.

В этом случае могут быть двумя коррелированными переменными управления, взаимодействие которых мы хотим изучить. Пример пары временных рядов, попадающих в эту категорию, приведен на рис. 8.2,

где приведены записи синфазного и сдвинутого по фазе входных токов турбогенератора.

Во втором случае два временных ряда причинно связаны, например вход на рис. 8.1 и зависящий от него выход . В такой ситуации обычно требуется оценить свойства системы в такой форме, чтобы было удобно предсказывать выход по входу. Пример пары временных рядов такого типа приведен на рис. 8.3, где показана скорость впуска газа и концентрация двуокиси углерода на выходе газовой печи.

Рис. 8.3. Сигналы на входе и выходе газовой печи.

Видно, что выход запаздывает по отношению ко входу из-за того, что для доставки газа к реактору требуется некоторое время.

Непрерывные ВКФПоследовательность данных x n и y n можнополучить как выборку зависимых от времени функций x(t) и y(t) , т.е х(nT a) =x n и y(nT a) =y n C помощью ковариантности и коэфициента кореляции можно проверить кореляцию значений, выборки которых были сделаны в одно время. Дальше можно проверить, возможна ли зависимость между существующим и преведущим сигналом. Согласнос этим вычисляеться ковариантность из выборки, сделаной в точке времени nT a , в точке времени (n-к)T a преведущего сигнала.Для каждого значения кT a (к=1,2…) обоих сигналов при некоторых обстоятельствах возникают новыезначения ковариантности, а отсюда и функция, зависимая от времени задержки кT a Она имеет собственное название:взаимно кореляционная функция. Сигналов х и у.

Пусть даны средние значения х и у ф-ций X(t), Y(t):

Дисперсия определяется как

Ковариантность между сигналами X(t), Y(t) вычисляется как

При знакопеременных величинах линейные средние значения = 0 и остаются только

для получения корреляционных ф-ций необходимо задержать оба зависимых то времени сигнала на t. Для сигналов без постоянной составляющей взаимокорреляционная функция вычисляется как

Дискретные взаимокорреляционные функции.:

Корреляционный анализ используется для определения статических связей между случайными процессами, либо статических связей между фазами одного и того же случайного процесса. Существует 2 типа кореляционных ф-ций: взаимокорреляционные ф-ции, автокорреляционные ф-ции. Взаимокорреляционная ф-ция характеризует связь между двумя случайными процессами или последовательностями:

Для дискретной ф-ции промежуток t движется на шаг дискретизации по оси t, полученные в каждой точке дискрет-ции значен. x(t) и y(t-t) перемножаются, произведения суммируются и делятся на 2T

34. Кореляционный анализ. Ковариантность. Коэфициент кореляции.

Корреляционный анализ.Ковариантность:

КА используется для определения статистических связей между случайными процессами либо статистических связей между фазами одного и того же случайного процесса. В последнем случае анализ называется ортокорреляционным. КА применяется для детерминированных и стохастичных сигналов.

Ковариантность. Пусть мы имеем две случайные последовательности Xn и Yn. Случайная последовательность может характеризоваться различным уровнем случайности, т.е. соседние отсчеты могут быть совершенно не зависимы или могут иметь определенную степень зависимости. Предположим что мы знаем средние значения Xср и Yср:

Мера и связи для обоих последовательностей Xn и Yn является ковариантность sxy:

Если случайные последовательности Xn и Yn центрированы (вычтено среднее), то:



Коэффициент корреляции:

Коеф. корел. r - это нормированная ковариантность, причем

1 £ r £ 1. Нормирование происходит за счет деления ковариантности на произведение стандартных отклонений sх и sу:

Связь между последовательностями данных Xn и Yn, а также значения коэффициента корреляции можно проиллюстрировать, если изобразить соответствующие пары значений (Xn и Yn), в координатной системе X/Y. Если обе последовательности данных расположены в одном направлении, то они ковариантны и коэффициент корреляции будет положительным, если в противоположных - то отрицательным. Если коэф. коррел. = 0 то между величинами зависимость отсутствует. Абсолютная величина коэффициента корреляции будет тем ближе к 1, чем больше обе переменные зависят одна от другой.


2. Аппроксимация. Аппр-ция линейным полиномом.

Интерполяция – кривая проходит через все точки.

Аппроксимация – кривая может вообще не проходить через точки.

(1/N)å|Dy i | где i=1,N.

Полученная сумма не зависит от N. Поленом высокой степени не аппроксимируется, поэтому ограничиваются полиномом 3-го порядка.

Если на десяток точек попадается точка А, к-рая сильно отклоняется, то можно ее исключить.

Существуют два метода:

1) сумма абсолютных разниц |f(x n)-y n | должна приближаться к минимуму.

2) сумма квадратов разницы должна приближаться к минимуму Этот метод наименьших вкадратов

Взаимно корреляционная функция (ВКФ) представляет собой оценку корреляционных свойств между двумя случайными процессами и , представленными наблюдениями поля на двух профилях, на двух трассах и т.д.

Рассчитывается ВКФ по формуле:

(4.7)

где n - число точек в каждой реализации, т.е. по каждому профилю, трассе и т.д.

И - средние значения наблюденных данных по этим профилям, трассам.

При равенстве средних значений нулю: формула (4.7) упрощается

(4.8)

При m =0 значение ВКФ равно произведению значений поля для одноименных дискретов наблюдений по профилям, трассам и т.д.

При значение ВКФ равно произведению значений поля, смещенных на один дискрет. При этом будем полагать, что смещение на один дискрет влево последующего профиля, т.е. , относительно предыдущего, т.е. , соответствует положительному смещению, т.е. , а смещение вправо соответствует величине .

Поскольку при и при перемножаются разные значения поля, в отличие от расчета АКФ, то ВКФ не является четной функцией, т.е. .

При значение ВКФ равно произведению значений поля, смещенных уже на два дискрета и т.д.

На практике часто используется нормированная ВКФ, определяемая как (4.8)

где и - среднеквадратические отклонения значений поля для первого и второго профиля трассы.

ВКФ нашла применение при решении трех основных задач обработки геофизических данных:

1) Оценка корреляционных свойств сигнала при условии некоррелированности помехи между профилями, трассами и незначительном изменении формы сигнала от профиля к профилю (от трассы к трассе), что обычно выполняется на практике, поскольку расстояние между профилями выбирается таким образом, чтобы сигналы коррелировались между профилями, а помехи, наоборот, были бы некоррелированы. В сейсморазведке расстояния между сейсмоприемниками выбираются таким образом, чтобы нерегулярные волны-помехи были бы некоррелированы между соседними трассами. При этом ВКФ будет равна

т.е. при совпадении формы сигналов последняя сумма будет равна АКФ сигнала.

Следовательно, ВКФ более надежно оценивает корреляционные свойства сигнала по сравнению с АКФ.

2) Оценка простирания сигналов по положительным экстремумам ВКФ. Положительные экстремумы ВКФ указывают на наличие корреляции сигнала между профилями, трассами, поскольку значение аргумента , при котором достигается экстремум ВКФ, соответствует смещению сигнала на последующем профиле относительно его положения на предыдущем. Таким образом, по величине положительных экстремумов ВКФ определяется смещение сигнала от профиля к профилю, что и приводит к оценке простирания сигнала.

В случае сигналов (аномалий) различного простирания ВКФ имеет два или более положительных экстремумов.

На рис.4.2,а приведены результаты наблюдений физического поля по пяти профилям и соответствующие этим наблюдениям графики ВКФ, по которым определяется простирание сигналов, соответствующее их смещению на два дискрета от профиля к профилю.

В случае интерференции двух сигналов, как это изображено на рис.4.2,б, фиксируются два положительных экстремума при и , что в дальнейшем при суммировании данных по нескольким профилям в направлении простирания сигналов позволяет четко провести их разделение по площади съемки.

Наконец, резкое смещение экстремумов ВКФ для какой-либо пары профилей по сравнению с экстремумами соседних пар профилей позволяет использовать ВКФ для выделения нарушений в распределении поля, как это показано на рис.4.2,в. По такому смещению экстремумов ВКФ обычно картируются разломы с простиранием, близким к простиранию профилей геофизической съемки.

При обработке сейсмических записей построение ВКФ между данными соседних трасс обеспечивает оценку суммарной статической и кинематической поправок, определяемую абсциссой положительного экстремума ВКФ. При знании кинематики, т.е. скоростной характеристики временного разреза, нетрудно определить величину статической поправки.

Корреляция – математическая операция, схожа со свёрткой, позволяет получить из двух сигналов третий. Бывает: автокорреляция (автокорреляционная функция), взаимная корреляция (взаимнокорреляционная функция, кросскорреляционная функция). Пример:

[Взаимная корреляционная функция]

[Автокорреляционная функция]

Корреляция - это техника обнаружения заранее известных сигналов на фоне шумов, ещё называют оптимальной фильтрацией. Хотя корреляция очень похожа на свёртку, но вычисляются они по-разному. Области применения их также различные (c(t)=a(t)*b(t) - свертка двух функций, d(t)=a(t)*b(-t) - взаимная корреляция).

Корреляция – это та же свёртка, только один из сигналов инвертируется слева направо. Автокорреляция (автокорреляционная функция) характеризует степень связи между сигналом и его сдвинутой на τ копией. Взаимнокорреляционная функция характеризует степень связи между 2-мя разными сигналами.

Свойства автокорреляционной функции:

  • 1) R(τ)=R(-τ). Функция R(τ) – является чётной.
  • 2) Если х(t) – синусоидальная функция времени, то её автокорреляционная функция – косинусоидальная той же частоты. Информация о начальной фазе теряется. Если x(t)=A*sin(ωt+φ), то R(τ)=A 2 /2 * cos(ωτ).
  • 3) Функция автокорреляции и спектра мощности связаны преобразованием Фурье.
  • 4) Если х(t) – любая периодическая функция, то R(τ) для неё может быть представлена в виде суммы автокорреляционных функций от постоянной составляющей и от синусоидально изменяющейся составляющей.
  • 5) Функция R(τ) не несёт никакой информации о начальных фазах гармонических составляющих сигнала.
  • 6) Для случайной функции времени R(τ) быстро уменьшается с увеличением τ. Интервал времени, после которого R(τ) становится равным 0 называется интервалом автокорреляции.
  • 7) Заданной x(t) соответствует вполне определённое R(τ), но для одной и той же R(τ) могут соответствовать различные функции x(t)

Исходный сигнал с шумами:

Автокорреляционная функция исходного сигнала:

Свойства взаимной корреляционной функции (ВКФ):

  • 1) ВКФ не является ни чётной ни нечётной функ¬цией, т.е. R ху (τ) не равно R ху (-τ).
  • 2) ВКФ остаётся неизменной при перемене чередования функций и изменений знака аргумента, т.е. R ху (τ)=R ху (-τ).
  • 3) Если случайные функции x(t) и y(t) не содержат постоянных составляющих и создаются независимыми источниками, то для них R ху (τ) стремится к 0. Такие функции называются некоррелированными.

Исходный сигнал с шумами:

Меандр той же частоты:

Корреляция исходного сигнала и меандра:



Внимание! Каждый электронный конспект лекций является интеллектуальной собственностью своего автора и опубликован на сайте исключительно в ознакомительных целях.

Математическое ожидание и дисперсия являются важными характеристиками случайного процесса, но они не дают достаточного представления о том, какой характер будут иметь отдельные реализации случайного процесса. Это хороню видно из рис. 9.3, где показаны реализации двух случайных процессов, совершенно различных по своей структуре, хотя и имеющих

одинаковые значения математического ожидания и дисперсии. Штриховыми линиями на рис. 9.3 показаны значения для случайных процессов.

Процесс, изображенный на рис. 9.3, а, от одного сечения к другому протекает сравнительно плавно, а процесс на рис. 9.3, б обладает сильной изменчивостью от сечения к сечению Поэтому статистическая связь между сечениями в первом случае больше, чем во втором, однако ни по математическому ожиданию, ни по дисперсии этого установить нельзя.

Чтобы в какой-то мере охарактеризовать внутреннюю структуру случайного процесса, т. е. учесть связь между значениями случайного процесса в различные моменты времени или, иными словами, учесть степень изменчивости случайного процесса, необходимо ввести понятие о корреляционной (автокорреляционной) функции случайного процесса.

Корреляционной функцией случайного процесса называют неслучайную функцию двух аргументов которая для каждой пары произвольно выбранных значений аргументов (моментов времени) равна математическому ожиданию произведения двух случайных величин соответствующих сечений случайного процесса:

где - двумерная плотность вероятности; - центрированный случайный процесс; - математическое ожидание (среднее значение) случайного процесса.

Различные случайные процессы в зависимости от того, как изменяются их статистические характеристики с течением времени, делят на стационарные и нестационарные. Разделяют стационарность в узком смысле и стационарность в широком смысле.

Стационарным в узком смысле называют случайный процесс если его n-мерные функции распределения и плотности вероятности при любом не зависят от сдвига всех точек

Вдоль оси времени на одинаковую величину т. е.

Это означает, что два процесса имеют одинаковые статистические свойства для любого т. е. статистические характеристики стационарного случайного процесса неизменны во времени.

Стационарный случайный процесс - это своего рода аналог установившегося процесса в детерминированных системах. Любой переходный процесс не является стационарным.

Стационарным в широком смысле называют случайный процесс математическое ожидание которого постоянно:

а корреляционная функция зависит только от одной переменной - разности аргументов при этом корреляционную функцию обозначают

Процессы, стационарные в узком смысле, обязательно стационарны и в широком смысле; однако обратное утверждение, вообще говоря, неверно.

Понятие случайного процесса, стационарного в широком смысле, вводится тогда, когда в качестве статистических характеристик случайного процесса используются только математическое ожидание и корреляционная функция. Часть теории случайных процессов, которая описывает свойства случайного процесса через его математическое ожидание и корреляционную функцию, называют корреляционной теорией.

Для случайного процесса с нормальным законом распределения математическое ожидание и корреляционная функция полностью определяют его n-мерную плотность вероятности.

Поэтому для нормальных случайных процессов понятия стационарности в широком и узком смысле совпадают.

Теория стационарных процессов разработана наиболее полно и позволяет сравнительно просто производить расчеты для многих практических случаев. Поэтому допущение о стационарности иногда целесообразно делать также и для тех случаев, когда случайный процесс хотя и нестационарен но на рассматриваемом отрезке времени работы системы статистические характеристики сигналов не успевают сколько-нибудь существенно измениться. В дальнейшем, если не будет оговорено особо, будут рассматриваться случайные процессы, стационарные в широком смысле.

При изучении случайных процессов, стационарных в широком смысле, можно ограничиться рассмотрением только процессов с математическим ожиданием (средним значением), равным нулю, т. е. так как случайный процесс с ненулевым математическим ожиданием представляют как сумму процесса с нулевым математическим ожиданием и постоянной неслучайной (регулярной) величиной, равной математическому ожиданию этого процесса (см. далее § 9.6).

При выражение для корреляционной функции

В теории случайных процессов пользуются двумя понятиями средних значений. Первое понятие о среднем значении - это среднее значение по мнооюеству (или математическое ожидание), которое определяется на основе наблюдения над множеством реализацчй случайного процесса в один и тот же момент времени. Среднее значение по множеству принято обозначать волнистой чертой над выражением, описывающим случайную функцию:

В общем случае среднее значение по множеству является функцией времени

Другое понятие о среднем значении - это среднее значение по времени, которое определяется на основе наблюдения за отдельной реализацией случайного процесса на протяжении

достаточно длительного времени Т. Среднее значение по времени обозначают прямой чертой над соответствующим выражением случайной функции и определяют по формуле:

если этот предел существует.

Среднее значение по времени в общем случае различно для отдельных реализаций множества, определяющих случайный процесс. Вообще говоря, для одного и того же случайного процесса среднее по множеству и среднее по времени значения различны. Однако существует класс стационарных случайных процессов, называемых эргодическими, для которых среднее по множеству равно среднему по времени, т. е.

Корреляционная функция эргодического стационарного случайного процесса неограниченно убывает по модулю при

Однако надо иметь в виду, что не всякий стационарный случайный процесс является эргодическим, например случайный процесс каждая реализация которого постоянна во времени (рис. 9.4), является стационарным, но не эргодическим. В этом случае средние значения, определенные по одной реализации и в результате обработки множества реализаций, не совпадают. Один и тот же случайный процесс в общем случае может быть эргодическим по отношению к одним статистическим характеристикам и неэргодическим по отношению к другим. В дальнейшем будем считать, что по отношению ко всем статистическим характеристикам условия эргодичности выполняются.

Свойство эргодичности имеет очень большое практическое значение. Для определения статистических свойств некоторых объектов, если трудно осуществить одновременное наблюдение за ними в произвольно выбранный момент времени (например, при наличии одного опытного образца), его можно заменить длительным наблюдением за одним объектом. Иными словами, отдельная реализация эргодического случайного

процесса на бесконечном промежутке времени полностью определяет весь случайный процесс с его бесконечными реализациями. Собственно говоря, этот факт лежит в основе описанного ниже метода экспериментального определения корреляционной функции стационарного случайного процесса по одной реализации.

Как видно из (9.25), корреляционная функция представляет собой среднее значение по множеству. Для эргодических случайных процессов корреляционную функцию можно определить как среднее по времени от произведения , т. е.

где - любая реализация случайного процесса; х - среднее значение по времени, определяемое по (9.28).

Если среднее значение случайного процесса равно нулю то

Основываясь на свойстве эргодичности, можно дисперсию [см. (9.19)] определить как среднее по времени от квадрата центрированного случайного процесса, т. е.

Сравнивая выражения (9.30) и (9.32) при можно установить очень важную связь между дисперсией и корреляционной функцией - дисперсия стационарного случайного процесса равна начальному значению корреляционной функции:

Из (9.33) видно, что дисперсия стационарного случайного процесса постоянна, а следовательно, постоянно и среднее квадратическое отклонение:

Статистические свойства связи двух случайных процессов можно характеризовать взаимной корреляционной функцией которая для каждой пары произвольно выбранных значений аргументов равна

Для эргодических случайных процессов вместо (9.35) можно записать

где - любые реализации стационарных случайных процессов соответственно.

Взаимная корреляционная функция характеризует взаимную статистическую связь двух случайных процессов в разные моменты времени, отстоящие друг от друга на промежуток времени . Значение характеризует эту связь в один и тот же момент времени.

Из (9.36) следует, что

Если случайные процессы статистически не связаны друг с другом и имеют равные нулю средние значения, то их взаимная корреляционная функция для всех равна нулю. Однако обратный вывод о том, что если взаимная корреляционная функция равна нулю, то процессы независимы, можно сделать лишь в отдельных случаях (в частности, для процессов с нормальным законом распределения), общей же силы обратный закон не имеет.

Заметим, что корреляционные функции могут вычисляться и для неслучайных (регулярных) функций времени. Однако когда говорят о корреляционной функции регулярной функции то под этим понимают просто результат формального

применения к регулярной функции операции, выражаемой интегралом:

Приведем некоторые основные свойства корреляционных функций

1. Начальное значение корреляционной функции [см. (9.33)] равно дисперсии случайного процесса:

2. Значение корреляционной функции при любом не может превышать ее начального значения, т. е.

Чтобы доказать это, рассмотрим очевидное неравенство из которого следует

Находим средние значения по времени от обеих частей последнего неравенства:

Таким образом, получим неравенство

3. Корреляционная функция есть четная функция , т. е.

Это вытекает из самого определения корреляционной функции. Действительно,

поэтому на графике корреляционная функция всегда симметрична относительно оси ординат.

4. Корреляционная функция суммы случайных процессов определяется выражением

где - взаимные корреляционные функции

Действительно,

5. Корреляционная функция постоянной величины равна квадрату этой постоянной величины (рис. 9.5, а), что вытекает из самого определения корреляционной функции:

6. Корреляционная функция периодической функции, например представляет собой косинусоиду (рис. 9-5, 5), т. е.

имеющую ту же частоту что и и не зависящую от сдвига фазы

Чтобы доказать это, заметим, что при нахождении корреляционных функций периодических функций можно использовать следующее равенство:

где - период функции

Последнее равенство получается после замены интеграла с пределами от -Т до Т при Т со суммой отдельных интегралов с пределами от до , где и использования периодичности подынтегральных функций.

Тогда, учитывая сказанное выше, получим т.

7. Корреляционная функция временной функции, разлагаемой в ряд Фурье:

Рис. 9.5 (см. скан)

имеет на основании изложенного выше следующий вид:

8. Типичная корреляционная функция стационарного случайного процесса имеет вид, представленный на рис. 9.6. Ее можно аппроксимировать следующим аналитическим выражением:

С ростом связь между ослабевает и корреляционная функция становится меньше. На рис. 9.5, б, в приведены, например, две корреляционные функции и две соответствующие им реализации случайного процесса. Легко заметить, что корреляционная функция, соответствующая случайному процессу с более тонкой структурой, убывает быстрее Другими словами, чем более высокие частоты присутствуют в случайном процессе, тем быстрее убывает соответствующая ему корреляционная функция.

Иногда встречаются корреляционные функции, которые могут быть аппроксимированы аналитическим выражением

где - дисперсия; - параметр затухания; - резонансная частота.

Корреляционные функции подобного вида имеют, например, случайные процессы типа турбулентности атмосферы, фединга радиолокационного сигнала, углового мерцания цели и т. п. Выражения (9.45) и (9.46) часто используются для аппроксимации корреляционных функций, полученных в результате обработки экспериментальных данных.

9. Корреляционная функция Стационарного случайного процесса, на которой наложена периодическая составляющая с частотой также будет содержать периодическую составляющую той же частоты.

Это обстоятельство можно использовать как один из способов обнаружения «скрытой периодичности» в случайных процессах, которая может не обнаруживаться при первом взгляде на отдельные записи реализации случайного процесса.

Примерный вид корреляционной функции процесса содержащего в своем составе кроме случайной также и периодическую составляющую, показан на рис. 9.7, где обозначена корреляционная функция, соответствующая случайной составляющей. Чтобы выявить скрытую периодическую составляющую (такая задача возникает, например, при выделении малого полезного сигнала на фоне большой помехи), лучше всего определить корреляционную функцию для больших значений когда случайный сигнал уже сравнительно слабо коррелирован и случайная составляющая слабо сказывается на виде корреляционной функции.