Взаимно корреляционная функция. Представление сигнала с помощью ортогональных функций. Автокорреляционные функции сигналов

Взаимная корреляция решает задачу о зависимости аномальных графиков, построенных по параллельным профилям или по наблюдениям, выполненных различными приборами, в разное время и пр. Меру зависимости выражает интеграл

R xy (t )= , (11.13)

где t ‑ сдвиг по графику второй функции.

Функция, вычисленная по дискретным значениям поля на двух соседних профилях, носит название взаимно корреляционной (ВКФ) и вычисляется по формуле

В(m) =

где Z i (x i) – значение поля на первом профиле в точке x i ; Z 2 (x i + m ) – значение поля на втором профиле в точке i+ m ; и – средние значения поля на соседних профилях.

В итоге взаимной корреляции может быть трассировано вытянутое вкось к профилям аномальное тело. Корреляция карт магнитных аномалий с различными геофизическими и геологическими картами часто производится визуально. Межпрофильная корреляция магнитного поля по профилям напоминает корреляционный способ выделения полезного сигнала на фоне помех, известного в сейсморазведке под названием метода регулированного направленного приема.

Разработке корреляционных методов интерпретации аномалий посвящено пособие "Атлас корреляционных функций гравитационных и магнитных аномалий тел правильной формы" (О.А. Одеков, Г.И. Каратаев, О.К. Басов, Б.А. Курбансахатов) /25/. В атласе приведены графики корреляционных функций для тел правильной формы, для которых теоретические кривые даны в атласе Д.С. Микова. Графикам предпослан текст по теории и практике корреляционных исследований, тщательно разработаны вопросы практического применения АКФ.

Автокорреляционные графики для аномалий Z (они же применимы и для аномалий Н ) приведены для трех уровней. Графики взаимной корреляции приведены для сочетания различного вида аномалий. В тексте суммированы предложения о целесообразности использования автокорреляционных графиков при обработке и интерпретации исходных магнитных аномалий.

Автокорреляция и взаимная корреляция являются новейшими методиками статистических исследований. Хотя в литературе недавних лет они почти не рассматривались, представленная информация о сущности и применении их имеет характер аннотаций. Думается, что при обработке большого объема полевых наблюдений эти методы найдут достойное место. О значимости проблемы применения корреляционных функций для интерпретации магнитных аномалий А.К.Маловичко писал: « данной проблеме в современной геофизической литературе уделяется очень много внимания, хотя в целом она представляется дискуссионной. При трактовке ее игнорируются возможности изучения функциональных полей, основанных на законе Кулона, на использовании хорошо известных формул» /25/.


Теории корреляций стыкуются при решении задач, связанных с изучением переходных процессов, с теорией трансформаций Фурье. Интегралы в корреляционных функциях являются интегралами типа свертки, поэтому развитие теории естественно рассматривается с применением спектральных представлений, частотных характеристик и энергетических спектров.

Задачи магниторазведки, решаемые корреляционными методами анализа, описаны в книге С.А. Серкерова /29/.

СИГНАЛЫ и ЛИНЕЙНЫЕ СИСТЕМЫ

Signals and linear systems. Correlation of signals

Тема 6. КОРРЕЛЯЦИЯ СИГНАЛОВ

Предельный страх и предельный пыл храбрости одинаково расстраивают желудок и вызывают понос.

Мишель Монтень. Французский юрист-мыслитель, XVI в.

Вот это номер! Две функции имеют стопроцентную корреляцию с третьей и ортогональны друг другу. Ну и шуточки были у Всевышнего при сотворении Мира.

Анатолий Пышминцев. Новосибирский геофизик Уральской школы, ХХ в.

1. Автокорреляционные функции сигналов. Понятие автокорреляционных функций (АКФ). АКФ сигналов, ограниченных во времени. АКФ периодических сигналов. Функции автоковариации (ФАК). АКФ дискретных сигналов. АКФ зашумленных сигналов. АКФ кодовых сигналов.

2. Взаимнокорреляционные функции сигналов (ВКФ). Взаимная корреляционная функция (ВКФ). Взаимная корреляция зашумленных сигналов. ВКФ дискретных сигналов. Оценка периодических сигналов в шуме. Функция взаимных корреляционных коэффициентов.

3. Спектральные плотности корреляционных функций. Спектральная плотность АКФ. Интервал корреляции сигнала. Спектральная плотность ВКФ. Вычисление корреляционных функций при помощи БПФ.

введение

Корреляция (correlation), и ее частный случай для центрированных сигналов – ковариация, является методом анализа сигналов. Приведем один из вариантов использования метода. Допустим, что имеется сигнал s(t), в котором может быть (а может и не быть) некоторая последовательность x(t) конечной длины Т, временное положение которой нас интересует. Для поиска этой последовательности в скользящем по сигналу s(t) временном окне длиной Т вычисляются скалярные произведения сигналов s(t) и x(t). Тем самым мы "прикладываем" искомый сигнал x(t) к сигналу s(t), скользя по его аргументу, и по величине скалярного произведения оцениваем степень сходства сигналов в точках сравнения.


Корреляционный анализ дает возможность установить в сигналах (или в рядах цифровых данных сигналов) наличие определенной связи изменения значений сигналов по независимой переменной, то есть, когда большие значения одного сигнала (относительно средних значений сигнала) связаны с большими значениями другого сигнала (положительная корреляция), или, наоборот, малые значения одного сигнала связаны с большими значениями другого (отрицательная корреляция), или данные двух сигналов никак не связаны (нулевая корреляция).

В функциональном пространстве сигналов эта степень связи может выражаться в нормированных единицах коэффициента корреляции, т. е. в косинусе угла между векторами сигналов, и, соответственно, будет принимать значения от 1 (полное совпадение сигналов) до -1 (полная противоположность) и не зависит от значения (масштаба) единиц измерений .

В варианте автокорреляции (autocorrelation) по аналогичной методике производится определение скалярного произведения сигнала s(t) с собственной копией, скользящей по аргументу. Автокорреляция позволяет оценить среднестатистическую зависимость текущих отсчетов сигнала от своих предыдущих и последующих значений (так называемый радиус корреляции значений сигнала), а также выявить в сигнале наличие периодически повторяющихся элементов.

Особое значение методы корреляции имеют при анализе случайных процессов для выявления неслучайных составляющих и оценки неслучайных параметров этих процессов.

Заметим, что в терминах "корреляция" и "ковариация" существует некоторая путаница. В математической литературе термин "ковариация" применяется к центрированным функциям, а "корреляция" – к произвольным. В технической литературе , и особенно в литературе по сигналам и методам их обработки, часто применяется прямо противоположная терминология. Принципиального значения это не имеет, но при знакомстве с литературными источниками стоит обращать внимание на принятое назначение данных терминов.

6.1. Автокорреляционные функции сигналов .

Понятие автокорреляционных функций сигналов . Автокорреляционная функция (АКФ, CF - correlation function) сигнала s(t), конечного по энергии, является количественной интегральной характеристикой формы сигнала, выявления в сигнале характера и параметров взаимной временной связи отсчетов, что всегда имеет место для периодических сигналов, а также интервала и степени зависимости значений отсчетов в текущие моменты времени от предыстории текущего момента. АКФ определяется интегралом от произведения двух копий сигнала s(t), сдвинутых относительно друг друга на время t:

Bs(t) =s(t) s(t+t) dt = ás(t), s(t+t)ñ = ||s(t)|| ||s(t+t)|| cos j(t). (6.1.1)

Как следует из этого выражения, АКФ является скалярным произведением сигнала и его копии в функциональной зависимости от переменной величины значения сдвига t. Соответственно, АКФ имеет физическую размерность энергии, а при t = 0 значение АКФ непосредственно равно энергии сигнала и является максимально возможным (косинус угла взаимодействия сигнала с самим собой равен 1):

Bs(0) =s(t)2 dt = Es.

АКФ относится к четным функциям, в чем нетрудно убедиться заменой переменной t = t-t в выражении (6.1.1):

Bs(t) = s(t-t) s(t) dt = Bs(-t).

Максимум АКФ, равный энергии сигнала при t=0, всегда положителен, а модуль АКФ при любом значении временного сдвига не превосходит энергии сигнала. Последнее прямо вытекает из свойств скалярного произведения (как и неравенство Коши-Буняковского):


ás(t), s(t+t)ñ = ||s(t)||×||s(t+t)||×cos j(t),

cos j(t) = 1 при t = 0, ás(t), s(t+t)ñ = ||s(t)||×||s(t)|| = Es,

cos j(t) < 1 при t ¹ 0, ás(t), s(t+t)ñ = ||s(t)||×||s(t+t)||×cos j(t) < Es.

В качестве примера на рис. 6.1.1 приведены два сигнала – прямоугольный импульс и радиоимпульс одинаковой длительности Т, и соответствующие данным сигналам формы их АКФ. Амплитуда колебаний радиоимпульса установлена равной амплитуды прямоугольного импульса, при этом энергии сигналов также будут одинаковыми, что подтверждается равными значениями центральных максимумов АКФ. При конечной длительности импульсов длительности АКФ также конечны, и равны удвоенным значениям длительности импульсов (при сдвиге копии конечного импульса на интервал его длительности как влево, так и вправо, произведение импульса со своей копией становится равным нулю). Частота колебаний АКФ радиоимпульса равна частоте колебаний заполнения радиоимпульса (боковые минимумы и максимумы АКФ возникают каждый раз при последовательных сдвигах копии радиоимпульса на половину периода колебаний его заполнения).

С учетом четности, графическое представление АКФ обычно производится только для положительных значений t. На практике сигналы обычно задаются на интервале положительных значений аргументов от 0-Т. Знак +t в выражении (6.1.1) означает, что при увеличении значений t копия сигнала s(t+t) сдвигается влево по оси t и уходит за 0. Для цифровых сигналов это требует соответствующего продления данных в область отрицательных значений аргумента. А так как при вычислениях интервал задания t обычно много меньше интервала задания сигнала, то более практичным является сдвиг копии сигнала влево по оси аргументов, т. е. применение в выражении (6.1.1) функции s(t-t) вместо s(t+t).

Bs(t) = s(t) s(t-t) dt. (6.1.1")

Для финитных сигналов по мере увеличения значения величины сдвига t временное перекрытие сигнала с его копией уменьшается, а, соответственно, косинус угла взаимодействия и скалярное произведение в целом стремятся к нулю:

АКФ, вычисленная по центрированному значению сигнала s(t), представляет собой автоковариационную функцию сигнала:

Cs(t) = dt, (6.1.2)

где ms – среднее значение сигнала. Ковариационные функции связаны с корреляционным функциями достаточно простым соотношением:

Cs(t) = Bs(t) - ms2.

АКФ сигналов, ограниченных во времени. На практике обычно исследуются и анализируются сигналы, заданные на определенном интервале. Для сравнения АКФ сигналов, заданных на различных временных интервалах, практическое применение находит модификация АКФ с нормировкой на длину интервала. Так, например, при задании сигнала на интервале :

Bs(t) =s(t) s(t+t) dt. (6.1.3)

АКФ может быть вычислена и для слабозатухающих сигналов с бесконечной энергией, как среднее значение скалярного произведения сигнала и его копии при устремлении интервала задания сигнала к бесконечности:

Bs(t) =. (6.1.4)

АКФ по данным выражениям имеет физическую размерность мощности, и равна средней взаимной мощности сигнала и его копии в функциональной зависимости от сдвига копии.

АКФ периодических сигналов. Энергия периодических сигналов бесконечна, поэтому АКФ периодических сигналов вычисляется по одному периоду Т, с усреднением скалярного произведения сигнала и его сдвинутой копии в пределах периода:

Bs(t) = (1/Т)s(t) s(t-t) dt. (6.1.5)

Математически более строгое выражение:

Bs(t) =.

При t=0 значение нормированной на период АКФ равно средней мощности сигналов в пределах периода. При этом АКФ периодических сигналов является периодической функцией с тем же периодом Т. Так, для сигнала s(t) = A cos(w0t+j0) при T=2p/w0 имеем:

Bs(t) = A cos(w0t+j0) A cos(w0(t-t)+j0) = (A2/2) cos(w0t). (6.1.6)

Полученный результат не зависит от начальной фазы гармонического сигнала, что характерно для любых периодических сигналов и является одним из свойств АКФ. С помощью функций автокорреляции можно проверять наличие периодических свойств в любых произвольных сигналах. Пример автокорреляционной функции периодического сигнала приведен на рис. 6.1.2.

Функции автоковариации (ФАК) вычисляются аналогично, по центрированным значениям сигнала. Замечательной особенностью этих функций являются их простые соотношения с дисперсией ss2 сигналов (квадратом стандарта - среднего квадратического отклонения значений сигнала от среднего значения). Как известно, значение дисперсии равно средней мощности сигналов, откуда следует:

|Cs(t)| ≤ ss2, Cs(0) = ss2 º ||s(t)||2. (6.1.7)

Значения ФАК, нормированные на значение дисперсии, представляют собой функцию автокорреляционных коэффициентов:

rs(t) = Cs(t)/Cs(0) = Cs(t)/ss2 º cos j(t). (6.1.8)

Иногда эту функцию называют "истинной" автокорреляционной функцией. В силу нормировки ее значения не зависят от единиц (масштаба) представления значений сигнала s(t) и характеризуют степень линейной связи между значениями сигнала в зависимости от величины сдвига t между отсчетами сигнала. Значения rs(t) º cos j(t) могут изменяться от 1 (полная прямая корреляция отсчетов) до -1 (обратная корреляция).

На рис. 6.1.3 приведен пример сигналов s(k) и s1(k) = s(k)+шум с соответствующими этим сигналам коэффициентами ФАК - rs и rs1. Как видно на графиках, ФАК уверенно выявила наличие периодических колебаний в сигналах. Шум в сигнале s1(k) понизил амплитуду периодических колебаний без изменения периода. Это подтверждает график кривой Cs/ss1, т. е. ФАК сигнала s(k) с нормировкой (для сопоставления) на значение дисперсии сигнала s1(k), где наглядно можно видеть, что шумовые импульсы при полной статистической независимости своих отсчетов вызвали увеличение значения Сs1(0) по отношению к значению Cs(0) и несколько "размыли" функцию коэффициентов автоковариации. Это вызвано тем, что значение rs(t) шумовых сигналов стремится к 1 при t ® 0 и флюктуирует относительно нуля при t ≠ 0, при этом амплитуды флюктуаций статистически независимы и зависят от количества выборок сигнала (стремятся к нулю при увеличении количества отсчетов).

АКФ дискретных сигналов. При интервале дискретизации данных Dt = const вычисление АКФ выполняется по интервалам Dt = Dt и обычно записывается, как дискретная функция номеров n сдвига отсчетов nDt:

Bs(nDt) = Dtsk×sk-n. (6.1.9)

Дискретные сигналы обычно задаются в виде числовых массивов определенной длины с нумерацией отсчетов к = 0,1,…К при Dt=1, а вычисление дискретной АКФ в единицах энергии выполняется в одностороннем варианте с учетом длины массивов. Если используется весь массив сигнала и число отсчетов АКФ равно числу отсчетов массива, то вычисление выполняется по формуле:

Bs(n) = sk×sk-n. (6.1.10)

Множитель K/(K-n) в данной функции является поправочным коэффициентом на постепенное уменьшение числа перемножаемых и суммируемых значений по мере увеличения сдвига n. Без этой поправки для нецентрированных сигналов в значениях АКФ появляется тренд суммирования средних значений. При измерениях в единицах мощности сигнала множитель К/(K-n) заменяется на множитель 1/(K-n).

Формула (6.1.10) применяется довольно редко, в основном для детерминированных сигналов с небольшим числом отсчетов. Для случайных и зашумленных сигналов уменьшение знаменателя (K-n) и числа перемножаемых отсчетов по мере увеличения сдвига приводит к нарастанию статистических флюктуаций вычисления АКФ. Большую достоверность в этих условиях обеспечивает вычисление АКФ в единицах мощности сигнала по формуле:

Bs(n) = sk×sk-n, sk-n = 0 при k-n < 0, (6.1.11)

т. е. с нормированием на постоянный множитель 1/K и с продлением сигнала нулевыми значениями (в левую сторону при сдвигах k-n или в правую сторону при использовании сдвигов k+n). Эта оценка является смещенной и имеет несколько меньшую дисперсию, чем по формуле (6.1.10). Разницу между нормировками по формулам (6.1.10) и (6.1.11) можно наглядно видеть на рис. 6.1.4.

Формулу (6.1.11) можно рассматривать, как усреднение суммы произведений, т. е. как оценку математического ожидания:

Bs(n) = M{sk sk-n} @ . (6.1.12)

Практически, дискретная АКФ имеет такие же свойства, как и непрерывная АКФ. Она также является четной, а ее значение при n = 0 равно энергии или мощности дискретного сигнала в зависимости от нормировки.

АКФ зашумленных сигналов . Зашумленный сигнал записывается в виде суммы v(k) = s(k)+q(k). В общем случае, шум не обязательно должен иметь нулевое среднее значение, и нормированная по мощности автокорреляционная функция цифрового сигнала, содержащая N – отсчетов, записывается в следующем виде:

Bv(n) = (1/N) ás(k)+q(k), s(k-n)+q(k-n)ñ =

= (1/N) [ás(k), s(k-n)ñ + ás(k), q(k-n)ñ + áq(k), s(k-n)ñ + áq(k), q(k-n)ñ] =

Bs(n) + M{sk qk-n} + M{qk sk-n} + M{qk qk-n}.

Bv(n) = Bs(n) + + + . (6.1.13)

При статистической независимости полезного сигнала s(k) и шума q(k) с учетом разложения математического ожидания

M{sk qk-n} = M{sk} M{qk-n} =

может использоваться следующая формула:

Bv(n) = Bs(n) + 2 + . (6.1.13")

Пример зашумленного сигнала и его АКФ в сопоставлении с незашумленным сигналом приведен на рис. 6.1.5.

Из формул (6.1.13) следует, что АКФ зашумленного сигнала состоит из АКФ сигнальной компоненты полезного сигнала с наложенной затухающей до значения 2+шумовой функцией. При больших значениях K, когда → 0, имеет место Bv(n) » Bs(n). Это дает возможность не только выделять по АКФ периодические сигналы, практически полностью скрытые в шуме (мощность шумов много больше мощности сигнала), но и с высокой точностью определять их период и форму в пределах периода, а для одночастотных гармонических сигналов – и их амплитуду с использованием выражения (6.1.6).

Сигнал Баркера

АКФ сигнала

1, 1, 1, -1, -1, 1, -1

7, 0, -1, 0, -1, 0, -1

1,1,1,-1,-1,-1,1,-1,-1,1,-1

11,0,-1,0,-1,0,-1,0,-1,0,-1

1,1,1,1,1,-1,-1,1,1-1,1,-1,1

13,0,1,0,1,0,1,0,1,0,1,0,1

Кодовые сигналы являются разновидностью дискретных сигналов. На определенном интервале кодового слова М×Dt они могут иметь только два амплитудных значения: 0 и 1 или 1 и –1. При выделении кодов на существенном уровне шумов форма АКФ кодового слова имеет особое значение. С этой позиции наилучшими считаются такие коды, значения боковых лепестков АКФ которых минимальны по всей длине интервала кодового слова при максимальном значении центрального пика. К числу таких кодов относится код Баркера, приведенный в таблице 6.1. Как видно из таблицы, амплитуда центрального пика кода численно равна значению М, при этом амплитуда боковых осцилляций при n ¹ 0 не превышает 1.

6.2. Взаимные корреляционные функции сигналов .

Взаимная корреляционная функция (ВКФ) разных сигналов (cross-correlation function, CCF) описывает как степень сходства формы двух сигналов, так и их взаимное расположение друг относительно друга по координате (независимой переменной). Обобщая формулу (6.1.1) автокорреляционной функции на два различных сигнала s(t) и u(t), получаем следующее скалярное произведение сигналов:

Bsu(t) =s(t) u(t+t) dt. (6.2.1)

Взаимная корреляция сигналов характеризует определенную корреляцию явлений и физических процессов, отображаемых данными сигналами, и может служить мерой “устойчивости” данной взаимосвязи при раздельной обработке сигналов в различных устройствах. Для конечных по энергии сигналов ВКФ также конечна, при этом:

|Bsu(t)| £ ||s(t)||×||u(t)||,

что следует из неравенства Коши-Буняковского и независимости норм сигналов от сдвига по координатам.

При замене переменной t = t-t в формуле (6.2.1), получаем:

Bsu(t) =s(t-t) u(t) dt = u(t) s(t-t) dt = Bus(-t).

Отсюда следует, что для ВКФ не выполняется условие четности, Bsu(t) ¹ Bsu(-t), и значения ВКФ не обязаны иметь максимум при t = 0.

Это можно наглядно видеть на рис. 6.2.1, где заданы два одинаковых сигнала с центрами на точках 0.5 и 1.5. Вычисление по формуле (6.2.1) с постепенным увеличением значений t означает последовательные сдвиги сигнала s2(t) влево по оси времени (для каждого значения s1(t) для подынтегрального умножения берутся значения s2(t+t)). При t=0 сигналы ортогональны и значение B12(t)=0. Максимум В12(t) будет наблюдаться при сдвиге сигнала s2(t) влево на значение t=1, при котором происходит полное совмещение сигналов s1(t) и s2(t+t).

Одни и те же значения ВКФ по формулам (6.2.1) и (6.2.1") наблюдаются при одном и том же взаимном положении сигналов: при сдвиге на интервал t сигнала u(t) относительно s(t) вправо по оси ординат и сигнала s(t) относительно сигнала u(t) влево, т. е. Bsu(t) = Bus(-t).

На рис. 6.2.2 приведены примеры ВКФ для прямоугольного сигнала s(t) и двух одинаковых треугольных сигналов u(t) и v(t). Все сигналы имеют одинаковую длительность Т, при этом сигнал v(t) сдвинут вперед на интервал Т/2.

Сигналы s(t) и u(t) одинаковы по временному расположению и площадь "перекрытия" сигналов максимальна при t=0, что и фиксируется функцией Bsu. Вместе с тем функция Bsu резко асимметрична, так как при асимметричной форме сигнала u(t) для симметричной формы s(t) (относительно центра сигналов) площадь "перекрытия" сигналов изменяется по разному в зависимости от направления сдвига (знака t при увеличения значения t от нуля). При смещении исходного положения сигнала u(t) влево по оси ординат (на опережение сигнала s(t) - сигнал v(t)) форма ВКФ остается без изменения и сдвигается вправо на такое же значение величины сдвига – функция Bsv на рис. 6.2.2. Если поменять местами выражения функций в (6.2.1), то новая функция Bvs будет зеркально повернутой относительно t=0 функцией Bsv.

С учетом этих особенностей полное ВКФ вычисляется, как правило, отдельно для положительных и отрицательных запаздываний:

Bsu(t) =s(t) u(t+t) dt. Bus(t) =u(t) s(t+t) dt. (6.2.1")

Взаимная корреляция зашумленных сигналов . Для двух зашумленных сигналов u(t) = s1(t)+q1(t) и v(t) = s2(t)+q2(t), применяя методику вывода формул (6.1.13) с заменой копии сигнала s(t) на сигнал s2(t), нетрудно вывести формулу взаимной корреляции в следующем виде:

Buv(t) = Bs1s2(t) + Bs1q2(t) + Bq1s2(t) + Bq1q2(t). (6.2.2)

Последние три члена в правой части (6.2.2) затухают до нуля при увеличении t. При больших интервалах задания сигналов выражение может быть записано в следующей форме:

Buv(t) = Bs1s2(t) + + + . (6.2.3)

При нулевых средних значениях шумов и статистической независимости от сигналов имеет место:

Buv(t) → Bs1s2(t).

ВКФ дискретных сигналов. Все свойства ВКФ аналоговых сигналов действительны и для ВКФ дискретных сигналов, при этом для них действительны и особенности дискретных сигналов, изложенные выше для дискретных АКФ (формулы 6.1.9-6.1.12). В частности, при Dt = const =1 для сигналов x(k) и y(k) с числом отсчетов К:

Bxy(n) = xk yk-n. (6.2.4)

При нормировании в единицах мощности:

Bxy(n) = xk yk-n @ . (6.2.5)

Оценка периодических сигналов в шуме . Зашумленный сигнал можно оценить по взаимной корреляции с "эталонным" сигналом методом проб и ошибок с настройкой функции взаимной корреляции до максимального значения.

Для сигнала u(k)=s(k)+q(k) при статистической независимости шума и → 0 функция взаимной корреляции (6.2.2) с шаблоном сигнала p(k) при q2(k)=0 принимает вид:

Bup(k) = Bsp(k) + Bqp(k) = Bsp(k) + .

А поскольку → 0 при увеличении N, то Bup(k) → Bsp(k). Очевидно, что функция Bup(k) будет иметь максимум, когда p(k) = s(k). Меняя форму шаблона p(k) и добиваясь максимизации функции Bup(k), можно получить оценку s(k) в виде оптимальной формы p(k).

Функция взаимных корреляционных коэффициентов (ВКФ) является количественным показателем степени сходства сигналов s(t) и u(t). Аналогично функции автокорреляционных коэффициентов, она вычисляется через центрированные значения функций (для вычисления взаимной ковариации достаточно центрировать только одну из функций), и нормируется на произведение значений стандартов функций s(t) и v(t):

rsu(t) = Csu(t)/sssv. (6.2.6)

Интервал изменения значений корреляционных коэффициентов при сдвигах t может изменяться от –1 (полная обратная корреляция) до 1 (полное сходство или стопроцентная корреляция). При сдвигах t, на которых наблюдаются нулевые значения rsu(t), сигналы независимы друг от друга (некоррелированны). Коэффициент взаимной корреляции позволяет устанавливать наличие связи между сигналами вне зависимости от физических свойств сигналов и их величины.

При вычислении ВКФ зашумленных дискретных сигналов ограниченной длины с использованием формулы (6.2.4) имеется вероятность появления значений |rsu(n)| > 1.

Для периодических сигналов понятие ВКФ обычно не применяется, за исключением сигналов с одинаковым периодом, например, сигналов входа и выхода при изучении характеристик систем.

6.3. Спектральные плотности корреляционных функций .

Спектральная плотность АКФ может быть определена из следующих простых соображений.

В соответствии с выражением (6.1.1) АКФ представляет собой функцию скалярного произведения сигнала и его копии, сдвинутой на интервал t, при -¥ < t < ¥:

Bs(t) = ás(t), s(t-t)ñ.

Скалярное произведение может быть определено через спектральные плотности сигнала и его копии, произведение которых представляет собой спектральную плотность взаимной мощности:

ás(t), s(t-t)ñ = (1/2p)S(w) St*(w) dw.

Смещение сигнала по оси абсцисс на интервал t отображается в спектральном представлении умножением спектра сигнала на exp(-jwt), а для сопряженного спектра на множитель exp(jwt):

St*(w) = S*(w) exp(jwt).

С учетом этого получаем:

Bs(t) = (1/2p)S(w) S*(w) exp(jwt) dw =

= (1/2p)|S(w)|2 exp(jwt) dw. (6.3.1)

Но последнее выражение представляет собой обратное преобразование Фурье энергетического спектра сигнала (спектральной плотности энергии). Следовательно, энергетический спектр сигнала и его автокорреляционная функция связаны преобразованием Фурье:

Bs(t) Û |S(w)|2 = Ws(w). (6.3.2)

Таким образом, спектральная плотность АКФ есть не что иное, как спектральная плотность мощности сигнала, которая, в свою очередь, может определяться прямым преобразованием Фурье через АКФ:

|S(w)|2 = Bs(t) exp(-jwt) dt. (6.3.3)

Последние выражение накладывает определенные ограничения на форму АКФ и методику их ограничения по длительности.

Рис. 6.3.1. Спектр несуществующей АКФ

Энергетический спектр сигналов всегда положителен, мощность сигналов не может быть отрицательной. Следовательно, АКФ не может иметь формы прямоугольного импульса, т. к. преобразование Фурье прямоугольного импульса – знакопеременный интегральный синус. На АКФ не должно быть и разрывов первого рода (скачков), т. к. с учетом четности АКФ любой симметричный скачек по координате ±t порождает “разделение” АКФ на сумму определенной непрерывной функции и прямоугольного импульса длительностью 2t с соответствующим появлением отрицательных значений в энергетическом спектре. Пример последнего приведен на рис. 6.3.1 (графики функций приведены, как принято для четных функций, только своей правой частью).

АКФ достаточно протяженных сигналов обычно ограничиваются по размерам (исследуются ограниченные интервалы корреляции данных от –Т/2 до Т/2). Однако усечение АКФ, это умножение АКФ на прямоугольный селектирующий импульс длительностью Т, что в частотной области отображается сверткой фактического спектра мощности со знакопеременной функцией интегрального синуса sinc(wT/2). С одной стороны, это вызывает определенное сглаживание спектра мощности, что зачастую бывает полезным, например, при исследовании сигналов на значительном уровне шумов. Но, с другой стороны, может происходить и существенное занижение величины энергетических пиков, если в сигнале имеются какие-либо гармонические составляющие, а также появление отрицательных значений мощности на краевых частях пиков и скачков. Пример проявления данных факторов приведен на рис. 6.3.2.

Рис. 6.3.2. Вычисление энергетического спектра сигнала по АКФ разной длины.

Как известно, спектры мощности сигналов не имеют фазовой характеристики и по ним невозможно восстановление сигналов. Следовательно, АКФ сигналов, как временное представление спектров мощности, также не имеет информации о фазовых характеристиках сигналов и восстановление сигналов по АКФ невозможно. Сигналы одной формы, сдвинутые во времени, имеют одинаковые АКФ. Больше того, сигналы разной формы могут иметь сходные АКФ, если имеют близкие спектры мощности.

Перепишем уравнение (6.3.1) в следующей форме

s(t) s(t-t) dt = (1/2p)S(w) S*(w) exp(jwt) dw,

и подставим в это выражение значение t=0. Полученное равенство хорошо известно и называется равенством Парсеваля

s2(t) dt = (1/2p)|S(w)|2 dw.

Оно позволяет вычислять энергию сигнала, как по временной, так и по частотной области описания сигналов.

Интервал корреляции сигнала является числовым параметром оценки ширины АКФ и степени значимой корреляции значений сигнала по аргументу.

Если допустить, что сигнал s(t) имеет примерно равномерный энергетический спектр со значением W0 и с верхней граничной частотой до wв (форма центрированного прямоугольного импульса, как, например, сигнал 1 на рис. 6.3.3 с fв=50 Гц в одностороннем представлении), то АКФ сигнала определится выражением:

Bs(t) = (Wo/p)cos(wt) dw = (Wowв/p) sin(wвt)/(wвt).

Интервалом корреляции сигнала tк считается величина ширины центрального пика АКФ от максимума до первого пересечения нулевой линии. В данном случае для прямоугольного спектра с верхней граничной частотой wв первое пересечение нуля соответствует sinc(wвt) = 0 при wвt = p, откуда:

tк = p/wв =1/2fв. (6.3.4)

Интервал корреляции тем меньше, чем выше верхняя граничная частота спектра сигнала. Для сигналов с плавным срезом по верхней граничной частоте роль параметра wв играет средняя ширина спектра (сигнал 2 на рис. 6.3.3).

Спектральная плотность мощности статистических шумов при единичном измерении представляет собой случайную функцию Wq(w) со средним значением Wq(w) Þ sq2, где sq2 – дисперсия шумов. В пределе, при равномерном спектральном распределении шумов от 0 до ¥, АКФ шумов стремится к значению Bq(t) Þ sq2 при t Þ 0, Bq(t) Þ 0 при t ¹ 0, т. е. статистические шумы не коррелированны (tк Þ 0).

Практические вычисления АКФ финитных сигналов обычно ограничиваются интервалом сдвигов t = {0, (3-5)tk}, в котором, как правило, сосредоточена основная информация по автокорреляции сигналов.

Спектральная плотность ВКФ может быть получена на основании тех же соображений, что и для АФК, или непосредственно из формулы (6.3.1) заменой спектральной плотности сигнала S(w) на спектральную плотность второго сигнала U(w):

Bsu(t) = (1/2p)S*(w) U(w) exp(jwt) dw. (6.3.5)

Или, при смене порядка сигналов:

Bus(t) = (1/2p)U*(w) S(w) exp(jwt) dw. (6.3.5")

Произведение S*(w)U(w) представляет собой взаимный энергетический спектр Wsu(w) сигналов s(t) и u(t). Соответственно, U*(w)S(w) = Wus(w). Следовательно, как и АКФ, взаимнокорреляционная функция и спектральная плотность взаимной мощности сигналов связаны между собой преобразованиями Фурье:

Bsu(t) Û Wsu(w) º W*us(w). (6.3.6)

Bus(t) Û Wus(w) º W*su(w). (6.3.6")

В общем случае, за исключением спектров четных функций, из условия несоблюдения четности для функций ВКФ следует, что взаимные энергетические спектры являются комплексными функциями:

U(w) = Au(w) + j Bu(w), V(w) = Av(w) + j Bv(w).

Wuv = AuAv+BuBv+j(BuAv - AuBv) = Re Wuv(w) + j Im Wuv(w),

На рис. 6.3.4 можно наглядно видеть особенности формирования ВКФ на примере двух одинаковых по форме сигналов, сдвинутых относительно друг друга.

Рис. 6.3.4. Формирование ВКФ.

Форма сигналов и их взаимное расположение приведены на виде А. Модуль и аргумент спектра сигнала s(t) приведены на виде В. Модуль спектра u(t) тождественен модулю S(w). На этом же виде приведен модуль спектра взаимной мощности сигналов S(w)U*(w). Как известно, при перемножении комплексных спектров модули спектров перемножаются, а фазовые углы складываются, при этом для сопряженного спектра U*(w) фазовый угол меняет знак. Если первым в формуле вычисления ВКФ (6.2.1) стоит сигнал s(t), а сигнал u(t-t) на оси ординат стоить впереди s(t), то фазовые углы S(w) по мере увеличения частоты нарастают в сторону отрицательных значений углов (без учета периодического сброса значений на 2p), а фазовые углы U*(w) по абсолютным значениям меньше фазовых углов s(t) и нарастают (за счет сопряжения) в сторону положительных значений. Результатом умножения спектров (как это видно на рис. 6.3.4, вид С) является вычитание из фазовых углов S(w) значений углов U*(w), при этом фазовые углы спектра S(w)U*(w) остаются в области отрицательных значений, что обеспечивает сдвиг всей функции ВКФ (и ее пиковых значений) вправо от нуля по оси t на определенную величину (для одинаковых сигналов – на величину разности между сигналами по оси ординат). При смещении начального положения сигнала u(t) в сторону сигнала s(t) фазовые углы S(w)U*(w) уменьшаются, в пределе до нулевых значений при полном совмещении сигналов, при этом функция Bsu(t) смещается к нулевым значениям t, в пределе до обращения в АКФ (для одинаковых сигналах s(t) и u(t)).

Как известно для детерминированных сигналов, если спектры двух сигналов не перекрываются и, соответственно, взаимная энергия сигналов равна нулю, такие сигналы ортогональны друг другу. Связь энергетических спектров и корреляционных функций сигналов показывает еще одну сторону взаимодействия сигналов. Если спектры сигналов не перекрываются и их взаимный энергетический спектр равен нулю на всех частотах, то при любых временных сдвигах t друг относительно друга их ВКФ также равна нулю. А это означает, что такие сигналы являются некоррелированными. Это действительно как для детерминированных, так и для случайных сигналов и процессов.

Вычисление корреляционных функций при помощи БПФ является, особенно для длинных числовых рядов, в десятки и сотни раз более быстрым методом, чем последовательными сдвигами во временной области при больших интервалах корреляции. Суть метода вытекает из формул (6.3.2) для АКФ и (6.3.6) для ВКФ. Учитывая, что АКФ можно рассматривать как частный случай ВКФ при одном и том же сигнале, процесс вычисления рассмотрим на примере ВКФ для сигналов x(k) и y(k) с числом отсчетов К. Он включает:

1. Вычисление БПФ спектров сигналов x(k) → X(k) и y(k) → Y(k). При разном количестве отсчетов более короткий ряд дополняется нулями до размера большего ряда.

2. Вычисление спектров плотности мощности Wxy(k) = X*(k) Y(k).

3. Обратное БПФ Wxy(k) → Bxy(k).

Отметим некоторые особенности метода.

При обратном БПФ, как известно, вычисляется циклическая свертка функций x(k) ③ y(k). Если число отсчетов функций равно К, число комплексных отсчетов спектров функций также равно К, равно как и число отсчетов их произведения Wxy(k). Соответственно, число отсчетов Bxy(k) при обратном БПФ также равно К и циклически повторяется с периодом, равным К. Между тем, при линейной свертке полных массивов сигналов по формуле (6.2.5) размер только одной половины ВКФ составляет К точек, а полный двусторонний размер составляет 2К точек. Следовательно, при обратном БПФ с учетом цикличности свертки произойдет наложение на главный период ВКФ ее боковых периодов, как и при обычной циклической свертке двух функций.

На рис. 6.3.5 приведен пример двух сигналов и значения ВКФ, вычисленные линейной сверткой (В1ху) и циклической сверткой через БПФ (В2ху). Для исключения эффекта наложения боковых периодов необходимо дополнить сигналы нулями, в пределе, до удвоения количества отсчетов, при этом результат БПФ (график В3ху на рисунке 6.3.5) полностью повторяет результат линейной свертки (с учетом нормировки на увеличение количества отсчетов).

На практике число нулей продления сигналов зависит от характера корреляционной функции. Минимальное количество нулей обычно принимается равным значимой информационной части функций, т. е. порядка (3-5) интервалов корреляции.

литература

1. Баскаков цепи и сигналы: Учебник для вузов. - М.: Высшая школа, 1988.

19. Прикладной анализ временных рядов . – М.: Мир, 1982. – 428 с.

25. Сергиенко обработка сигналов. / Учебник для вузов. – СПб.: Питер, 203. – 608 с.

33. Цифровая обработка сигналов. Практический подход. / М., "Вильямс", 2004, 992 с.

О замеченных опечатках, ошибках и предложениях по дополнению: *****@***ru.

Copyright ©2008 Davydov А. V .

Математическое ожидание и дисперсия являются важными характеристиками случайного процесса, но они не дают достаточного представления о том, какой характер будут иметь отдельные реализации случайного процесса. Это хороню видно из рис. 9.3, где показаны реализации двух случайных процессов, совершенно различных по своей структуре, хотя и имеющих

одинаковые значения математического ожидания и дисперсии. Штриховыми линиями на рис. 9.3 показаны значения для случайных процессов.

Процесс, изображенный на рис. 9.3, а, от одного сечения к другому протекает сравнительно плавно, а процесс на рис. 9.3, б обладает сильной изменчивостью от сечения к сечению Поэтому статистическая связь между сечениями в первом случае больше, чем во втором, однако ни по математическому ожиданию, ни по дисперсии этого установить нельзя.

Чтобы в какой-то мере охарактеризовать внутреннюю структуру случайного процесса, т. е. учесть связь между значениями случайного процесса в различные моменты времени или, иными словами, учесть степень изменчивости случайного процесса, необходимо ввести понятие о корреляционной (автокорреляционной) функции случайного процесса.

Корреляционной функцией случайного процесса называют неслучайную функцию двух аргументов которая для каждой пары произвольно выбранных значений аргументов (моментов времени) равна математическому ожиданию произведения двух случайных величин соответствующих сечений случайного процесса:

где - двумерная плотность вероятности; - центрированный случайный процесс; - математическое ожидание (среднее значение) случайного процесса.

Различные случайные процессы в зависимости от того, как изменяются их статистические характеристики с течением времени, делят на стационарные и нестационарные. Разделяют стационарность в узком смысле и стационарность в широком смысле.

Стационарным в узком смысле называют случайный процесс если его n-мерные функции распределения и плотности вероятности при любом не зависят от сдвига всех точек

Вдоль оси времени на одинаковую величину т. е.

Это означает, что два процесса имеют одинаковые статистические свойства для любого т. е. статистические характеристики стационарного случайного процесса неизменны во времени.

Стационарный случайный процесс - это своего рода аналог установившегося процесса в детерминированных системах. Любой переходный процесс не является стационарным.

Стационарным в широком смысле называют случайный процесс математическое ожидание которого постоянно:

а корреляционная функция зависит только от одной переменной - разности аргументов при этом корреляционную функцию обозначают

Процессы, стационарные в узком смысле, обязательно стационарны и в широком смысле; однако обратное утверждение, вообще говоря, неверно.

Понятие случайного процесса, стационарного в широком смысле, вводится тогда, когда в качестве статистических характеристик случайного процесса используются только математическое ожидание и корреляционная функция. Часть теории случайных процессов, которая описывает свойства случайного процесса через его математическое ожидание и корреляционную функцию, называют корреляционной теорией.

Для случайного процесса с нормальным законом распределения математическое ожидание и корреляционная функция полностью определяют его n-мерную плотность вероятности.

Поэтому для нормальных случайных процессов понятия стационарности в широком и узком смысле совпадают.

Теория стационарных процессов разработана наиболее полно и позволяет сравнительно просто производить расчеты для многих практических случаев. Поэтому допущение о стационарности иногда целесообразно делать также и для тех случаев, когда случайный процесс хотя и нестационарен но на рассматриваемом отрезке времени работы системы статистические характеристики сигналов не успевают сколько-нибудь существенно измениться. В дальнейшем, если не будет оговорено особо, будут рассматриваться случайные процессы, стационарные в широком смысле.

При изучении случайных процессов, стационарных в широком смысле, можно ограничиться рассмотрением только процессов с математическим ожиданием (средним значением), равным нулю, т. е. так как случайный процесс с ненулевым математическим ожиданием представляют как сумму процесса с нулевым математическим ожиданием и постоянной неслучайной (регулярной) величиной, равной математическому ожиданию этого процесса (см. далее § 9.6).

При выражение для корреляционной функции

В теории случайных процессов пользуются двумя понятиями средних значений. Первое понятие о среднем значении - это среднее значение по мнооюеству (или математическое ожидание), которое определяется на основе наблюдения над множеством реализацчй случайного процесса в один и тот же момент времени. Среднее значение по множеству принято обозначать волнистой чертой над выражением, описывающим случайную функцию:

В общем случае среднее значение по множеству является функцией времени

Другое понятие о среднем значении - это среднее значение по времени, которое определяется на основе наблюдения за отдельной реализацией случайного процесса на протяжении

достаточно длительного времени Т. Среднее значение по времени обозначают прямой чертой над соответствующим выражением случайной функции и определяют по формуле:

если этот предел существует.

Среднее значение по времени в общем случае различно для отдельных реализаций множества, определяющих случайный процесс. Вообще говоря, для одного и того же случайного процесса среднее по множеству и среднее по времени значения различны. Однако существует класс стационарных случайных процессов, называемых эргодическими, для которых среднее по множеству равно среднему по времени, т. е.

Корреляционная функция эргодического стационарного случайного процесса неограниченно убывает по модулю при

Однако надо иметь в виду, что не всякий стационарный случайный процесс является эргодическим, например случайный процесс каждая реализация которого постоянна во времени (рис. 9.4), является стационарным, но не эргодическим. В этом случае средние значения, определенные по одной реализации и в результате обработки множества реализаций, не совпадают. Один и тот же случайный процесс в общем случае может быть эргодическим по отношению к одним статистическим характеристикам и неэргодическим по отношению к другим. В дальнейшем будем считать, что по отношению ко всем статистическим характеристикам условия эргодичности выполняются.

Свойство эргодичности имеет очень большое практическое значение. Для определения статистических свойств некоторых объектов, если трудно осуществить одновременное наблюдение за ними в произвольно выбранный момент времени (например, при наличии одного опытного образца), его можно заменить длительным наблюдением за одним объектом. Иными словами, отдельная реализация эргодического случайного

процесса на бесконечном промежутке времени полностью определяет весь случайный процесс с его бесконечными реализациями. Собственно говоря, этот факт лежит в основе описанного ниже метода экспериментального определения корреляционной функции стационарного случайного процесса по одной реализации.

Как видно из (9.25), корреляционная функция представляет собой среднее значение по множеству. Для эргодических случайных процессов корреляционную функцию можно определить как среднее по времени от произведения , т. е.

где - любая реализация случайного процесса; х - среднее значение по времени, определяемое по (9.28).

Если среднее значение случайного процесса равно нулю то

Основываясь на свойстве эргодичности, можно дисперсию [см. (9.19)] определить как среднее по времени от квадрата центрированного случайного процесса, т. е.

Сравнивая выражения (9.30) и (9.32) при можно установить очень важную связь между дисперсией и корреляционной функцией - дисперсия стационарного случайного процесса равна начальному значению корреляционной функции:

Из (9.33) видно, что дисперсия стационарного случайного процесса постоянна, а следовательно, постоянно и среднее квадратическое отклонение:

Статистические свойства связи двух случайных процессов можно характеризовать взаимной корреляционной функцией которая для каждой пары произвольно выбранных значений аргументов равна

Для эргодических случайных процессов вместо (9.35) можно записать

где - любые реализации стационарных случайных процессов соответственно.

Взаимная корреляционная функция характеризует взаимную статистическую связь двух случайных процессов в разные моменты времени, отстоящие друг от друга на промежуток времени . Значение характеризует эту связь в один и тот же момент времени.

Из (9.36) следует, что

Если случайные процессы статистически не связаны друг с другом и имеют равные нулю средние значения, то их взаимная корреляционная функция для всех равна нулю. Однако обратный вывод о том, что если взаимная корреляционная функция равна нулю, то процессы независимы, можно сделать лишь в отдельных случаях (в частности, для процессов с нормальным законом распределения), общей же силы обратный закон не имеет.

Заметим, что корреляционные функции могут вычисляться и для неслучайных (регулярных) функций времени. Однако когда говорят о корреляционной функции регулярной функции то под этим понимают просто результат формального

применения к регулярной функции операции, выражаемой интегралом:

Приведем некоторые основные свойства корреляционных функций

1. Начальное значение корреляционной функции [см. (9.33)] равно дисперсии случайного процесса:

2. Значение корреляционной функции при любом не может превышать ее начального значения, т. е.

Чтобы доказать это, рассмотрим очевидное неравенство из которого следует

Находим средние значения по времени от обеих частей последнего неравенства:

Таким образом, получим неравенство

3. Корреляционная функция есть четная функция , т. е.

Это вытекает из самого определения корреляционной функции. Действительно,

поэтому на графике корреляционная функция всегда симметрична относительно оси ординат.

4. Корреляционная функция суммы случайных процессов определяется выражением

где - взаимные корреляционные функции

Действительно,

5. Корреляционная функция постоянной величины равна квадрату этой постоянной величины (рис. 9.5, а), что вытекает из самого определения корреляционной функции:

6. Корреляционная функция периодической функции, например представляет собой косинусоиду (рис. 9-5, 5), т. е.

имеющую ту же частоту что и и не зависящую от сдвига фазы

Чтобы доказать это, заметим, что при нахождении корреляционных функций периодических функций можно использовать следующее равенство:

где - период функции

Последнее равенство получается после замены интеграла с пределами от -Т до Т при Т со суммой отдельных интегралов с пределами от до , где и использования периодичности подынтегральных функций.

Тогда, учитывая сказанное выше, получим т.

7. Корреляционная функция временной функции, разлагаемой в ряд Фурье:

Рис. 9.5 (см. скан)

имеет на основании изложенного выше следующий вид:

8. Типичная корреляционная функция стационарного случайного процесса имеет вид, представленный на рис. 9.6. Ее можно аппроксимировать следующим аналитическим выражением:

С ростом связь между ослабевает и корреляционная функция становится меньше. На рис. 9.5, б, в приведены, например, две корреляционные функции и две соответствующие им реализации случайного процесса. Легко заметить, что корреляционная функция, соответствующая случайному процессу с более тонкой структурой, убывает быстрее Другими словами, чем более высокие частоты присутствуют в случайном процессе, тем быстрее убывает соответствующая ему корреляционная функция.

Иногда встречаются корреляционные функции, которые могут быть аппроксимированы аналитическим выражением

где - дисперсия; - параметр затухания; - резонансная частота.

Корреляционные функции подобного вида имеют, например, случайные процессы типа турбулентности атмосферы, фединга радиолокационного сигнала, углового мерцания цели и т. п. Выражения (9.45) и (9.46) часто используются для аппроксимации корреляционных функций, полученных в результате обработки экспериментальных данных.

9. Корреляционная функция Стационарного случайного процесса, на которой наложена периодическая составляющая с частотой также будет содержать периодическую составляющую той же частоты.

Это обстоятельство можно использовать как один из способов обнаружения «скрытой периодичности» в случайных процессах, которая может не обнаруживаться при первом взгляде на отдельные записи реализации случайного процесса.

Примерный вид корреляционной функции процесса содержащего в своем составе кроме случайной также и периодическую составляющую, показан на рис. 9.7, где обозначена корреляционная функция, соответствующая случайной составляющей. Чтобы выявить скрытую периодическую составляющую (такая задача возникает, например, при выделении малого полезного сигнала на фоне большой помехи), лучше всего определить корреляционную функцию для больших значений когда случайный сигнал уже сравнительно слабо коррелирован и случайная составляющая слабо сказывается на виде корреляционной функции.

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Размещено на http://www.allbest.ru/

Корреляционная функция. Взаимная корреляционная функция. Линейное преобразование случайного процесса

1. Корреляционная функция

При исследовании случайных сигналов широко используется теория случайных процессов, основанная на использовании моментов не выше второго порядка. Эта теория получила название корреляционной теории.

Определение . Корреляционной функцией R x (t 1 ,t 2) случайного процесса X(t) называется корреляционный момент центрированного случайного процесса в двух сечениях t = t 1 и t = t 2:

Корреляционная функция обладает всеми свойствами корреляционного момента. Часто вместо корреляционной функции рассматривается нормированная корреляционная функция x (t 1 ,t 2):

которая является безразмерной величиной.

В дальнейшем будем рассматривать только центрированные случайные процессы. Если процесс будет не центрированным, то об этом будет специально оговорено.

Корреляционная функция R x (t 1 ,t 2) случайного процесса X(t) называется еще автокорреляционной функцией.

Для стационарных процессов (в широком и узком смысле) автокорреляционная функция имеет вид

R x (t 1 ,t 2) = R x (0, t 2 - t 1) = R x () ,

где = t 2 - t 1.

Можно определить и временную автокорреляционную функцию следующим образом

где - реализация центрированного случайного процесса X(t). Для эргодических процессов = R x ().

Ниже приведен обычный график автокорреляционной функции

2. Свойства автокорреляционных функций

Автокорреляционные функции играют большую роль в представлении случайных процессов и при анализе систем, оперирующих со случайными входными сигналами. Поэтому приведем некоторые свойства автокорреляционных функций стационарных процессов.

1. R x (0) = M(X 2 (t)) = D x (t).

2. R x () = R x (-). Автокорреляционная функция является четной функцией. Это свойство симметрии графика функции исключительно полезно при вычислении автокорреляционной функции, так оно означает, что вычисления можно производить только для положительных, а для отрицательных можно их определить, используя свойство симметрии.

3.R x () R x (0). Наибольшее значение автокорреляционной функции, как правило, принимает при = 0.

Пример . В случайном процессе X(t) = A Cost, где А - случайная величина с характеристиками: М(А) = 0, D(A) = 2 , найти М(Х), D(Х) и R x (t 1 ,t 2).

Решение . Найдем математическое ожидание и дисперсию случайного процесса:

М(Х) = М(A Cost) = Cost М(А) = 0,

D(Х) = М((A Cost-0) 2) = М(А 2) Cos 2 t = 2 Cos 2 t.

Теперь найдем автокорреляционную функцию

R x (t 1 ,t 2) = М(А Cost 1 А Cost 2) =

М(А 2) Cost 1 Cost 2 = 2 Cost 1 Cost 2 .

3. Взаимная корреляционная функция

Входной Х(t) и выходной Y(t) случайные сигналы системы можно рассматривать как двумерный векторный случайный процесс Введем числовые характеристики этого процесса.

Математическое ожидание и дисперсия векторного случайного процесса определяется как математическое ожидание и дисперсия его компонент:

Корреляционную функцию векторного процесса введем с помощью матрицы второго порядка:

где R xy (t 1 , t 2) взаимная корреляционная функция случайных процессов X(t) иY(t), определяемая следующим образом

Из определения взаимной корреляционной функции вытекает, что

R xy (t 1 ,t 2) = R yx (t 2 ,t 1).

Нормированной взаимной корреляционной функцией двух случайных процессов X(t), Y(t) называется функция

Определение. Если взаимная корреляционная функция случайных процессов X(t) и Y(t) равна нулю:

то случайные процессы называются некоррелироваными.

Для суммы случайных процессов X(t) и Y(t) автокорреляционная функция равна

R x + y (t 1 ,t 2) = R x (t 1 ,t 2) + R xy (t 1 ,t 2) + R yx (t 1 ,t 2) + R y (t 1 ,t 2).

Для некоррелированных случайных процессов X(t) и Y(t) автокорреляционная функция суммы случайных процессов равна сумме автокорреляционных функций

R x+y (t 1 ,t 2) = R x (t 1 ,t 2) + R y (t 1 ,t 2),

а значит и дисперсия суммы случайных процессов равна сумме дисперсий:

D x+y (t) = D x (t) + D y (t).

Если где X 1 (t), ..., X n (t) - некоррелированные случайные процессы, то и

При выполнении различных преобразований со случайными процессами часто удобно записывать их в комплексном виде.

Комплексным случайным процессом называется случайный процесс вида

Z(t) = X(t) + i Y(t),

где X(t) , Y(t) - действительные случайные процессы.

Математическое ожидание, корреляционная функция и дисперсия комплексного случайного процесса определяются следующим образом:

M(Z) = M(X) + i M(Y),

где знак * обозначает комплексное сопряжение;

Пример . Пусть случайный процесс, где - постоянная величина, Здесь А и - независимые случайные величины, причем М(А) = m A , D(A) = 2 , а - равномерно распределенная случайная величина на интервале . Определить математическое ожидание, корреляционную функцию и дисперсию комплексного случайного процесса Z(t).

Решение . Найдем математическое ожидание:

Используя равномерное распределение случайной величины на интервале , имеем

Автокорреляционная функция случайного процесса Z(t) равна

Отсюда имеем

D z (t 1) = R z (t 1, t 1) = 2 + m A 2 .

Из полученных результатов следует, что случайный процесс Z(t) стационарный в широком смысле.

4. Линейное преобразование случайного процесса

При решении многих практических задач радиотехники приходится определять характеристики случайного процесса на выходе линейной системы. Линейная система осуществляет линейные операции над входным случайным процессом. Это значит, что если на вход системы поступает случайный процесс X(t), то на выходе этот процесс преобразуется в случайный процесс

Y(t) = A ,

где А - оператор (преобразование), обладающий свойствами:

A [ 1 X 1 (t) + 2 X 2 (t)] = 1 A + 2 .

Здесь постоянные величины.

Примеры линейных операторов

Оператор умножения на неслучайную функцию f(t):

Y(t) = A = f(t) X(t).

Определим математическое ожидание и автокорреляционную функцию случайного процесса Y(t):

m y (t) = M(Y(t)) = M(f(t) X(t)) = f(t) M(X(t)),

Оператор дифференцирования:

Представив производную в виде предела

и применив операцию математического ожидания к правой и левой части равенства, получаем

Оператор интегрирования:

Представим интеграл в виде интегральной суммы

и применим к этому равенству операцию математического ожидания. Тогда имеем

Автокорреляционная функция случайного процесса легко определяется:

5. Преобразование Фурье

При анализе различных линейных систем широко используются преобразования Фурье и Лапласа, позволяющие достаточно просто выполнить необходимые вычисления. Основная причина такого упрощения заключается в замене процедуры свертки, используемой при анализе системы во временной области на обычную операцию умножения частотных характеристик и функций, используемых при анализе в частотной области.

Пусть у нас имеется сигнал (неслучайный, который представляет собой функцию времени) f(t), измеряемый в вольтах. Тогда

Преобразование Фурье сигнала f(t) (иногда под преобразованием Фурье понимают сопряженную величину F*()), которое имеет размерность и определяет относительные амплитуды и фазы незатухающих гармонических составляющих. Таким образом, амплитудное соотношение в преобразовании Фурье характеризует плотность распределения амплитуд по частоте, а значит определяет распределение энергии по спектру. Спектром любого колебательного процесса называется функция, описывающая распределение амплитуд гармоник по различным частотам. Спектр показывает, какого рода колебания по частоте преобладают в данном процессе и какова его внутренняя структура.

Для преобразования Фурье разработана теория, суть которой кратко заключается в следующем.

Вводится пространство L 2 (-,) - пространство суммируемых в квадрате функций, то есть таких функций, для которых

Если f(t) - сигнал, то это условие означает конечность мощности этого сиг-

нала. Для каждой функции f L 2 (-,) существует предел в среднем функции

при Т и этот предел обозначается

причем F() L 2 (-,). Существует и обратное преобразование

Для двух преобразований Фурье

выполняет обобщенное равенство Парсеваля:

В частности, получаем обычное равенство Парсеваля

6. Спектральная плотность стационарного случайного процесса

Непосредственное применение преобразования Фурье для реализации случайного процесса x(t) неприменимо, так как это преобразование не существует. С целью использования преобразования Фурье при анализе стационарного (центрированного) случайного процесса необходимо видоизменить реализацию процесса таким образом, чтобы преобразование Фурье существовало для каждой реализации. Один из таких способов заключается во введении усеченного процесса X T (t):

Этот усеченный процесс удовлетворяет требованию существования преобразования Фурье для любой реализации, так как

Это соотношение означает, что оно выполняется для любой реализации случайного процесса X T (t). Теперь для усеченного процесса можно ввести преобразование Фурье, понимая под этим преобразование Фурье любой его реализации:

Целью дальнейшего является доказательство того факта, что в пределе при Т существует, если даже не существует преобразование Фурье для какой-либо реализации.

Первый этап доказательства состоит в применении равенства Парсеваля:

Заметим, что

(2)

Усредним теперь во времени левую часть равенства (1) с целью получения средней мощности случайного процесса

Левая часть полученного равенства представляет собой квадрат эффективного значения функции X T (t). Кроме того, для эргодического процесса при Т эта величина приближается к значению среднего квадрата случайного процесса M(X 2 (t)).

В соотношении (3) нельзя перейти к пределу при Т, так как не существует.

Поэтому сначала возьмем математическое ожидание левой и правой частей этого равенства

и перепишем его, устремив Т. Тогда

Для стационарного процесса

Поэтому получаем соотношение

Величина

называется спектральной плотностью случайного процесса. Укажем, что после выполнения операции усреднения по множеству реализаций (по ансамблю) справедлив переход к пределу при Т. Если X(t) - напряжение, то ([X] = B), S x () имеет размерность а интеграл от S x () в соответствии с (4) определяет средний квадрат этого напряжения, то есть

Более наглядная физическая интерпретация спектральной плотности может быть дана путем анализа средней мощности. Если X(t) - флуктуационное напряжение или ток, протекающий через резистор сопротивления 1 Ом, то М(Х 2) есть средняя мощность, рассеиваемая этим резистором.

Спектральную плотность можно интерпретировать как среднюю мощность, сосредоточенную в пределах полосы частот шириной 1 Гц.

Вследствие этого спектральную плотность часто называют спектром плотности мощности.

От двусторонней спектральной плотности случайного процесса можно перейти к односторонней, где фигурирует обычно частота f. С этой целью запишем

и в первом интеграле сделаем замену переменной, положив = 2f, а во втором - = - 2f.

Так как в силу соотношения (2) функция S x () = S x (-), то есть является четной функцией, то

Представим интеграл в этом соотношении в виде интегральной суммы

где D k - дисперсия случайного процесса на k-ой гармонике. Отсюда получаем, что G x (f) = D k /f k - дисперсия (мощность) k-ой гармоники, отнесенная к полосе частот f k , то есть спектральная плотность дисперсии (мощности) случайного процеса.

Пример . Стационарный случайный процесс имеет двухстороннюю спектральную плотность

Определить среднюю мощность процесса, рассеиваемую на резисторе сопротивлением 1 Ом в диапазоне изменения от -4 до 4.

Решение Средняя мощность процесса M(X 2 (t)) для указанного диапазона равна:

автокорреляционная функция случайный процесс

В радиотехнике часто используется понятие "белого шума". Под "белым шумом" принято понимать стационарный случайный процесс, спектральная плотность которого постоянна на всех частотах. Термин "белый шум" образно подчеркивает аналогию со светом, у которого в пределах видимого диапазона частот интенсивность всех спектральных составляющих примерно одинакова. Белый шум является математической моделью процесса, который реально в природе не существует, так как мощность его равна бесконечности. Однако это удобная модель для описания широкополосных случайных процессов систем, в полосе пропускания которых спектр можно считать постоянным.

Размещено на Allbest

Подобные документы

    Построение и изучение математической модели случайного стационарного эргодического процесса с вероятностными характеристиками: ожидание и дисперсия. Построение графиков динамики изменения эмпирических данных и гистограмм распределения для всех выборок.

    курсовая работа , добавлен 18.03.2012

    Недостатки традиционного Фурье-преобразования. Оконное, дискретное преобразование, оконные функции и их виды. Непрерывное вейвлет-преобразование, материнские вейвлеты. Кратномасштабный анализ и разложение сигнала по разным ортонормированным базисам.

    курсовая работа , добавлен 23.10.2009

    Порядок расчета установившегося случайного процесса в системе управления. Статистическая линеаризация нелинейной части системы. Расчет математического ожидания, среднеквадратического отклонения сигнала ошибки. Решение уравнений и построение зависимостей.

    контрольная работа , добавлен 23.02.2012

    Определение нижней и верхней цены игры, заданной платежной матрицей. Имеет ли игра седловую точку? Решение геометрически задачи линейного программирования. Построение графа состояний случайного процесса. Предельные вероятности для заданной системы.

    контрольная работа , добавлен 04.02.2011

    Степень тесноты и характера направления зависимости между признаками. Парная линейная корреляционная зависимость, ее корреляционно-регрессионный анализ. Исследование связи между одним признаком-фактором и одним признаком-результатом, шкала Чеддока.

    методичка , добавлен 15.11.2010

    Передаточная функция разомкнутой системы "ЛА-САУ". Выбор частоты среза для желаемой ЛАХ и ее построение. Синтез корректирующего звена. Расчет переходного процесса для замкнутой скорректированной и не скорректированной автоматической системы управления.

    курсовая работа , добавлен 10.12.2012

    Гетероскедастичность случайного возмущения: основные причины и последствия. Тесты на наличие или отсутствие гетероскедастичности. Тест ранговой корреляции Спирмена. Тест Голдфеда–Квандта. Тест Глейзера. Количественные характеристики вектора возмущений.

    реферат , добавлен 06.01.2015

    Принципы и этапы построения модели авторегрессии, ее основные достоинства. Спектр процесса авторегрессии, формула для ее нахождения. Параметры, характеризующие спектральную оценку случайного процесса. Характеристическое уравнение модели авторегрессии.

    контрольная работа , добавлен 10.11.2010

    Общая характеристика и порядок определения коэффициента корреляции, методика и этапы его оценки. Описание автокорреляционных функций. Сущность критерия Дарбина-Уотсона. Примеры практических расчетов с помощью макроса Excel "Автокорреляционная функция".

    курсовая работа , добавлен 03.07.2010

    Системы с положительной и отрицательной обратной связью. Собственные динамические свойства системы. Стандартный сигнал простого вида. Единичная ступенчатая функция. График переходного процесса. Значение постоянной времени. Сохранение полезных сигналов.

В этой главе понятия, введенные в гл. 5 и 6 (вып. 1), распространяются на случай пары временных рядов и случайных процессов. Первым таким обобщением, приведенным в разд. 8.1, является взаимная корреляционная функция двумерного стационарного случайного процесса. Эта функция характеризует корреляцию двух процессов при различных запаздываниях. Второе обобщение представляет собой двумерный линейный процесс, образуемый с помощью линейных операций над двумя источниками белого шума. Важными частными случаями такого процесса являются двумерный процесс авторегрессии и двумерный процесс скользящего среднего.

В разд. 8.2 мы обсудим вопрос об оценивании взаимной корреляционной функции. Мы покажем, что если не применять к обоим рядам фильтрации, переводящей их в белый шум, то при оценивании могут возникать ложные завышенные значения взаимной корреляции. В разд. 8.3 вводится третье обобщение - взаимный спектр стационарного двумерного процесса. Взаимный спектр содержит два различных вида информации, характеризующей зависимость между двумя процессами. Информация первого типа содержится в спектре когерентности, являющемся эффективной мерой корреляции двух процессов на каждой из частот. Информация второго типа дается фазовым спектром, характеризующим разность фаз двух процессов на каждой из частот. В разд. 8.4 оба эти типа информации иллюстрируются на простых примерах.

8.1. ФУНКЦИЯ ВЗАИМНОЙ КОРРЕЛЯЦИИ

8.1.1. Введение

В этой главе мы будем заниматься вопросами описания пары временных рядов, или двумерного временного ряда. Используемые при этом способы являются обобщением способов, применявшихся в гл. 5, 6, и поэтому все относящиеся к временным рядам общие положения, изложенные в разд. 5.1, применимы и в этом случае. В разд. 5.1 под заголовком «Многомерные временные

ряды» кратко упоминалось о том, что отдельные временные ряды, образующие многомерный ряд, могут быть неравноправны по отношению друг к другу. Рассмотрим, например, систему, показанную на рис. 8.1, которая имеет два входа и два выхода

Рис. 8.1. Физическая система с двумя входами и двумя выходами.

Можно различать две ситуации. В первом случае два ряда находятся в одинаковом положении по отношению друг к другу, как, например, два входа на рис. 8.1.

Рис. 8.2. Синфазный и сдвинутый по фазе токи на выходе турбогенератора.

В этом случае могут быть двумя коррелированными переменными управления, взаимодействие которых мы хотим изучить. Пример пары временных рядов, попадающих в эту категорию, приведен на рис. 8.2,

где приведены записи синфазного и сдвинутого по фазе входных токов турбогенератора.

Во втором случае два временных ряда причинно связаны, например вход на рис. 8.1 и зависящий от него выход . В такой ситуации обычно требуется оценить свойства системы в такой форме, чтобы было удобно предсказывать выход по входу. Пример пары временных рядов такого типа приведен на рис. 8.3, где показана скорость впуска газа и концентрация двуокиси углерода на выходе газовой печи.

Рис. 8.3. Сигналы на входе и выходе газовой печи.

Видно, что выход запаздывает по отношению ко входу из-за того, что для доставки газа к реактору требуется некоторое время.