Кореляційна функція випадкового процесу та її властивості. Кореляційна функція стаціонарного процесу

Кореляційна функція стаціонарного процесу

Кореляційна функціявипадкового процесу визначається як математичне очікування твору двох центрованих перерізів процесу, взятих у моменти t 1 та t 2 . При цьому математичне очікування обчислюється з використанням двовимірної густини ймовірності . Для стаціонарного випадкового процесудвомірна щільність ймовірності і, відповідно, кореляційна функція залежать не від t 1 та t 2 окремо, а тільки від їх різниці = t 2 - t 1 . Відповідно до цього кореляційна функція стаціонарного процесу визначається виразом

(3.1)

де – математичне очікування стаціонарного процесу; х 1 , х 2 - можливі значення випадкового процесу відповідно, у моменти часу t 1 , t 2 ; = t 2 – t 1 - інтервал часу між перерізами; - Двовимірна щільність ймовірності стаціонарного процесу. Другий вираз для отримано шляхом розкриття квадратних дужок першого виразу та врахування властивостей математичного очікування.

У науково- технічної літературивикористовується також така характеристика випадкового процесу, як коварійна функція K (t), під якою розуміється математичне очікування добутку двох значень процесу, взятих відповідно до моментів t 1 та t 2:

(3.2)

так що справедливе співвідношення

(3.3)

Якщо , то поняття і збігаються. Якщо ж додатково має ергодичну властивість, то кореляційна функція може бути визначена за однією довгою реалізації:

(3.4)

де Т- інтервал спостереження єдиної реалізації x(t) процесу; - ця ж реалізація x(t), затримана на якийсь час .

Формула (3.4) може бути покладена в основу побудови Структурна схемапристрої, що вимірюють кореляційну функцію, яке називається корелометром. Для побудови корелометра потрібні перемножувач, пристрій затримки зі змінним часом затримки та інтегратор (рис. 3.1). Цей пристрій вимірює або в залежності від того, дорівнює нулю чи ні.

Кореляційна функція стаціонарного випадкового процесу, як і взагалі кореляційна функція випадкового процесу, є справжньою функцією аргументу. При цьому характеризує із двох сторін. По перше,визначає середню питому потужність флюктуацій. А по-друге,дозволяє судити про рівень лінійного зв'язкуміж двома перерізами випадкового процесу, що віддаляються один від одного на інтервал часу . Розмірність збігається з розмірністю квадрата довільного процесу. Розглянемо властивості кореляційної функції.

1. Кореляційна функція при = 0 дорівнює дисперсії процесу

(3.5)

Ця властивість випливає безпосередньо із формули (3.1), якщо в ній покласти = 0.

2. Кореляційна функція стаціонарного процесу є парною функцієюаргументу:

(3.6)

Ця властивість безпосередньо випливає з визначення стаціонарного процесу, для якого важливі не самі значення моментів і t 2, а відстань у часі одного перерізу від іншого | t 2 -t 1 |

3. Кореляційна функція за будь-якого tне може перевершити свого значення при = 0:

(3.7)

Ця властивість фізично означає, що найбільший ступіньлінійного зв'язку забезпечується між тим самим перетином, тобто при =0. Щоправда, якщо є періодичним процесом, то може знайтися ще якесь, порівнянне з періодом процесу, для якого виконується жорстка функціональний зв'язокміж і . Тому у формулі (3.7) у загальному випадкуможе виконуватися як нерівність, а й рівність.

4. Кореляційна функція може бути подана у вигляді

(3.8)

де r(t) нормована кореляційна функція, що має сенс коефіцієнта кореляції, що залежить від і укладена в межах

. (3.9)

Вона характеризує лише ступінь лінійного зв'язку між перерізами випадкового процесу, взятими через інтервал. У свою чергу дисперсія процесу характеризує лише середню питому потужність флюктуацій випадкового процесу.

СИГНАЛИ і ЛІНІЙНІ СИСТЕМИ

Signals і linear systems. Casual processes and signals

Тема 9. ВИПАДКОВІ ПРОЦЕСИ І СИГНАЛИ

Немає нічого більше неприємного розумута сталості природи, ніж випадковість. Сам бог неспроможна знати те, що станеться випадково. Бо якщо знає, то це безперечно станеться, а якщо безперечно відбудеться, то не випадково.

Марк Туллій Цицерон. Римський філософ та політик, I в.д.н.е.

Випадковість гидка розуму, але не природі. Для перевірки теорії випадкових процесів боги і створили світ. Шпурлятися яблуками вони вже припинили, з часів Ньютона тут нічого нового не спостерігалося. Але кавунові кірки продовжують підсовувати - фіксується непередбачувана і дуже цікава реакція.

Рудольф Гавшин. Уральський геофізик, ХХ ст.

Вступ.

1. Випадкові процеси та функції.Випадковий процес. Функціональні характеристикивипадкового процесу. Одновимірна функція розподілу ймовірностей. Одномірна густина ймовірностей. Функції математичного очікування, дисперсії, середнього квадратичного відхилення. Двовимірна густина розподілу ймовірностей. Кореляційні та коварійні функції випадкових процесів. Властивості функцій автоковарації та автокореляції. Взаємні моменти довільних процесів. Статистична незалежність випадкових процесів. Класифікація випадкових процесів. Ергодичні процеси.

2. Функції спектральної густини. Канонічне розкладання випадкових функцій. Комплексні довільні функції. Фінітне перетворення Фур'є. Спектри потужності довільних функцій. Теорема Вінера-Хінчина. Спектр підступних функцій. Взаємні спектральні функції. Ефективна ширина діапазону потужності. Співвідношення невизначеності.

3. Перетворення випадкових функцій. Системи перетворення випадкових функцій. Зв'язок вихідних статистичних функційіз вхідними. Математичне очікуваннявихідний сигнал. Кореляційна функція вихідного сигналу. Функція взаємної кореляції вхідного та вихідного сигналів. Спектральні співвідношення. Дисперсія вихідного сигналу функція когерентності. Перетворення випадкових функцій. Перетворення стаціонарних випадкових функцій.

4. Моделі випадкових сигналівта перешкод. Телеграфний сигнал Білий шум. Гаусовий шум. Гаусові випадкові процеси.

Вступ.

Поряд із корисними інформаційними складовими в реальних сигналах присутні перешкоди та шуми. До перешкод зазвичай відносять сигнали з інших сторонніх джерел, " наведення " апаратури, вплив дестабілізуючих чинників основний сигнал тощо. Фізична природазавада, як правило, не випадкова, і після відповідного вивчення може переводитися в розряд детермінованої перешкоди або виключатися із сигналу. До шумів відносять випадкові флуктуації сигналу, зумовлені природою його джерела або пристроїв детектування та формування сигналу. При невідомій природі перешкод вони також можуть належати до випадкових, якщо мають випадкове ймовірнісний розподілз нульовим середнім значенням та дельта-подібну функцію автокореляції.

Теорія ймовірностей розглядає випадкові величини та його характеристики у " статиці " . Завдання опису та вивчення випадкових сигналів "в динаміці", як відображення випадкових явищ, що розвиваються в часі або за будь-якою іншою змінною, вирішує теорія випадкових процесів.

В якості універсальної координати для розподілу випадкових величин незалежної змінної будемо використовувати, як правило, змінну "t" і трактувати її, чисто для зручності, як тимчасову координату. Розподіл випадкових величин у часі, а також сигналів, що їх відображають у будь-якій математичної формизазвичай називають випадковими (або стохастичними) процесами. У технічній літературі терміни "випадковий сигнал" та "випадковий процес" використовуються як синоніми.

На відміну від детермінованих сигналів, значення випадкових сигналів у довільні моменти часу не можуть бути обчислені. Вони можуть бути тільки передбачені в певному діапазоні значень з певною ймовірністю меншої одиниці. Кількісні характеристикивипадкових сигналів, що дозволяють проводити їх оцінку та порівняння, називають статистичними .

У процесі обробки та аналізу фізико-технічних даних зазвичай доводиться мати справу з трьома типами сигналів, що описуються методами статистики. По-перше, це інформаційні сигнали, що відображають фізичні процеси, імовірнісні за своєю природою, як, наприклад, акти реєстрації частинок іонізуючих випромінюванняпри розпаді радіонуклідів. По-друге, інформаційні сигнали, залежні від певних параметрів фізичних процесівабо об'єктів, значення яких заздалегідь невідомі та які зазвичай підлягають визначенню за даними інформаційних сигналів. І, по-третє, це шуми і перешкоди, що хаотично змінюються в часі, які супроводжують інформаційні сигнали, але, як правило, статистично незалежні від них як за своїми значеннями, так і змінами в часі. При обробці таких сигналів зазвичай ставляться завдання:

· Виявлення корисного сигналу,

· Оцінка параметрів сигналу,

· Виділення інформаційної частини сигналу (очищення сигналу від шумів і перешкод),

· Передбачення поведінки сигналу на деякому наступному інтервалі (екстраполяція).

9.1. Випадкові процеси та функції.

Випадковий процес описується статистичними характеристиками, які називаються моментами. Найважливішими характеристикамивипадкового процесу є його стаціонарність, ергодичність та спектр потужності.

Випадковий процес в його математичному описіХ(t) є функцією, яка відрізняється тим, що її значення (дійсні або комплексні) у довільні моменти часу по координаті t є випадковими. Строго з теоретичних позицій випадковий процес X(t) слід розглядати як сукупність тимчасових функцій x k (t), що мають певну загальну статистичну закономірність. При реєстрації випадкового процесу певному часовому інтервалі здійснюється фіксування одиничної реалізації x k (t) з незліченної кількості можливих реалізацій процесу X(t). Ця одинична реалізація називається вибірковою функцієювипадкового процесу X(t). Окрема вибіркова функція не характеризує процес загалом, але при певних умовза нею можуть бути виконані оцінки статистичних показників процесу. Приклади вибіркових функцій випадкового процесу X(t) наведені на рис. 9.1.1. Надалі при розгляді різних параметрів і характеристик випадкових процесів для прикладів, що супроводжують, будемо використовувати цю модельпроцесу.

Мал. 9.1.1. Вибіркові функції випадкового процесу.

Функціональні властивості випадкового процесу.

З практичної точки зору вибіркова функція є результатом окремого експерименту, після якого цю реалізацію x k (t) можна вважати детермінованою функцією. Сам випадковий процес загалом має аналізуватися з позиції нескінченної сукупності таких реалізацій, що утворюють статистичний ансамбль. Повний статистичною характеристикоюпроцесу є N-вимірна щільність ймовірностей р(x n; t n). Однак, як експериментальне визначення N-вимірних щільностей ймовірностей процесів, так і їх використання в математичний аналізпредставляє значні математичні проблеми. Тому практично зазвичай обмежуються одно- і двовимірної щільністю ймовірностей процесів.

Припустимо, що випадковий процес X(t) заданий ансамблем реалізацій (x 1 (t), x 2 (t), ... x k (t), ...). У довільний час t 1 зафіксуємо значення всіх реалізацій (x 1 (t 1), x 2 (t 1),… x k (t 1),…). Сукупність цих значень є випадковою величиною X(t 1) і є одномірним перерізом випадкового процесу X(t). Приклади перерізів випадкового процесу X(t) за 100 вибірками x k (t) (рис. 9.1.1) у точках t 1 і t 2 наведено на рис. 9.1.2.

Одновимірна функція розподілу ймовірностей F(x, t i) визначає ймовірність того, що в момент часу t i значення випадкової величини X(t i) не перевищить значення x:

F(x, t i) = P(X(t i)≤x).

Очевидно, що в діапазоні значень ймовірностей від 0 до 1 функція F(x, t) є незниженою з граничними значеннями F(-\,t)=0 і F(\,t)=1. При відомої функції F(x,t) ймовірність того, що значення X(t i) у вибірках потраплятиме у певний інтервал значень визначається виразом:

P(a

Одномірна щільність розподілу ймовірностей p(x, t) випадкового процесу Х(t) визначає ймовірність того, що випадкова величина x(t) лежить в інтервалі (x ≤ x(t) ≤ x+dx). Вона характеризує розподіл ймовірностей реалізації випадкової величини Х(t i) у довільний момент часу t i і є похідною від функції розподілу ймовірностей:

p(x, t i) = dF(x, t i)/dx. (9.1.1)

Моменти часу t i є перерізами випадкового процесу X(t) по простору можливих станів і щільність ймовірностей p(x, t i) є щільністю ймовірностей випадкових величин X(t i) даних перерізів. Добуток p(x, t i)dx дорівнює ймовірності реалізації випадкової величини X(t i) у нескінченно малому інтервалі dx в околиці значення x, звідки випливає, що щільність ймовірностей також є невід'ємною величиною.

Мал. 9.1.3. Розподіл ймовірностей та щільність ймовірностей перерізу випадкового процесу

На рис. 9.1.3 наведено приклади розподілу ймовірностей та щільності ймовірностей перерізу випадкового процесу X(t) у точці t 1 (рис. 9.1.1). Функції ймовірностей визначені N=1000 вибірок дискретної моделі випадкового процесу і зіставлені з теоретичними розподілами при N ¥ .

При відомій функції густини ймовірностей ймовірність реалізації значення X(t i) у довільному інтервалі значень обчислюється за формулою:

P(a

Функція щільності ймовірностей має бути нормована до 1, т.к. випадкова величина повинна приймати якесь значення у складі можливих, що утворюють повний простір випадкових величин:

p(x, t i) dx =1.

Щільність розподілу ймовірностей, відповідно, визначає функцію розподілу ймовірностей:

F(x, t i) = p(x, t i) dx.

За відомою щільністю розподілу ймовірностей можуть бути обчислені функції моментів випадкового процесу, які є математичними очікуваннями відповідних ступенів (порядку) значень випадкового процесу (початкові моменти) та значень флюктуаційних складових процесу (центральні моменти, моменти щодо центрів розподілу випадкових величин):

M(x n (t)) = x n (t) p (x, t) dx,

M 0 (x n (t)) = M (n) = [(x (t) - M (x (t))] n p (x, t) dx,

Функції моментів є основними статистичними характеристиками довільного процесу. Вони є невипадковими функціями, але цілком і однозначно визначають випадковий процес, як і щільність розподілу ймовірностей, при певній кількості порядків залежно від характеру процесу. Мінімальна кількість порядків, що повністю визначає гауссовий розподіл щільності ймовірностей, дорівнює 2.

У практиці аналізу випадкових процесів використовуються в основному початкові моменти першого порядку та центральні моменти другого порядку.

Математичне очікування (mean value) є першим початковим моментом випадкового процесу і є статистичне усередненнявипадкової величини X(t i) у якомусь фіксованому перерізі t i випадкового процесу. Відповідно, повна функція математичного очікування є теоретичною оцінкою середнього зваженого значення випадкового процесу з тимчасової осі:

m x (t) º M(Х(t))º =x p(x; t) dx, (9.1.2)

Математичне очікування m x (t) є невипадкову складовувипадкового процесу X(t). На рис. 9.1.1. та 9.1.2 невипадкові складові m(t) моделі випадкового процесу X(t) виділені пунктиром та відповідають вибіркам N ® ¥.

Другий початковий момент випадкового процесу визначає його середню потужність:

w x (t) º M(Х 2 (t))º =x 2 p(x; t) dx, (9.1.3)

Функція дисперсії (Variance, function of a dispersion) випадкового процесу. При аналізі випадкових процесів особливий інтерес становить флуктуаційна складова процесу, що визначається різницею Х(t)-m x (t). Функція дисперсії є теоретичною оцінкою середнього виваженого значення різниці Х(t)-m x (t) 2 тобто. є другим центральним моментом процесу, і визначає потужність його флуктуаційної складової:

D x (t) = M ([Х (t)-m x (t)] 2) = M (X 2 (t)) - m x 2 (t) = 2 p (x; t) dx, (9.1.4 )

де x o (t) = x (t) - m x (t).

Функція середнього квадратичного відхилення (standard deviation) служить амплітудним заходом розкиду значень випадкового процесу з тимчасової осі щодо математичного очікування процесу:

x (t) =. (9.1.5)

Враховуючи останній вираз, дисперсія випадкової величини зазвичай позначається індексом s 2 .

На рис. 9.1.4 наведено приклад флюктуаційної складової процесу X(t) (рис. 9.1.1) в одній із реалізацій у порівнянні із середнім квадратичним відхиленням ±s випадкових величин від математичного очікування m(t).

Одномірні закони густини розподілу ймовірностей випадкових процесів не несуть будь-яких характеристик зв'язку між значеннями випадкових величин для різних значень аргументів.

Двовимірна щільність розподілу ймовірностей p(x 1 ,t 1 ; x 2 ,t 2) визначає ймовірність спільної реалізації значень випадкових величин Х(t 1) і Х(t 2) у довільні моменти часу t 1 і t 2 , що характеризує взаємозв'язок випадкового процесу у різні моменти часу і дозволяє визначити характер зміни випадкового процесу, тобто. динаміку розвитку процесу у часі. Розподіл описує двовимірну випадкову величину (X(t i), X(t j)) у вигляді функції ймовірності реалізації випадкової величини X(t i) у нескінченно малому інтервалі dx i на околицях x i в момент часу t i за умови, що в момент часу t j значення X (t j) буде реалізовано в нескінченно малому інтервалі dx j на околицях x j:

p(x 1 ,t 1 ; x 2 ,t 2) = P(x 1 ≤ x(t 1) ≤ x 1 +dx 1 Ç x 2 ≤ x(t 2) ≤ x 2 +dx 2 ).

За допомогою двовимірної густини розподілу ймовірностей можна визначити кореляційні функції процесу.

Кореляційні функції випадкових процесів. Характеристикою динаміки зміни випадкової величини X(t i) є кореляційна функція, яка описує випадковий процес загалом:

R X (t i , t j) = M (X (t 1) X (t 2)).

Кореляційна функція являє собою статистично усереднений добуток значень випадкового процесу X(t) в моменти часу t i і t j за всіма значеннями тимчасових осей t i і t j, а, отже, теж двомірної функцією. У термінах теорії ймовірностей кореляційна функція є другим початковим моментом довільного процесу.

На рис. 9.1.5 наведено приклади реалізацій двох випадкових процесів, які характеризуються однією і тією ж функцією математичного очікування та дисперсії.

Мал. 9.1.5.

На малюнку видно, що хоча простір станів обох процесів майже те саме, динаміка розвитку процесів у реалізаціях значно відрізняється. Поодинокі реалізації корельованих процесів у довільний момент часу можуть бути такими ж випадковими, як і некорельованих, а в межі, у всіх перерізах обидва процеси можуть мати той самий закон розподілу випадкових величин. Однак динаміка розвитку по координаті t (або будь-якої іншої незалежної змінної) одиничної реалізації корелюваного процесу порівняно з некорелюваним є плавнішою, а, отже, в корелюваному процесі є певний зв'язок між послідовними значеннями випадкових величин. Оцінка ступеня статистичної залежності миттєвих значень будь-якого процесу Х(t) у довільні моменти часу t1 і t2 і виконується функцією кореляції. По всьому простору значень випадкового процесу X(t) кореляційна функція визначається виразом:

R X (t i , t j) = x (t i) x (t j) p (x i, t j; xi, t j) dx i dx j, (9.1.6)

При аналізі випадкових процесів другий момент часу t j зручно задавати величиною зсуву t щодо першого моменту, який може бути заданий у вигляді координатної змінної:

R X (t, t+t) = M(X(t)X(t+t)). (9.1.7)

Функція, що задається цим виразом, зазвичай називається автокореляційною функцією випадкового процесу.

Коварійні функції. Окремим випадком кореляційної функції є функція автоковаріації (ФАК), яка широко використовується під час аналізу сигналів. Вона є статистично усередненим добутком значень центрованої випадкової функції X(t)-m x (t) у моменти часу t i і t j і характеризує флюктуаційну складову процесу:

K Х (t i , t j) = (x (t i) -m x (t i)) (x (t j)-m x (t j)) p (x i, t j; x i, t j) dx i dx j, (9.1.8)

У термінах теорії ймовірностей функція коварації є другим центральним моментом випадкового процесу. Для центрованих випадкових процесів ФАК тотожна функція автокореляції. При довільних значеннях m x коварійні та кореляційні функції пов'язані співвідношенням:

K X (t, t+t) = R (t, t+t) - m x 2 (t).

Нормована функція автоковаріації (функція кореляційних коефіцієнтів):

r Х (t, t + t) = K X (t, t + t) /. (9.1.9)

Функція кореляційних коефіцієнтів може набувати значення від +1 (повна статистична кореляція випадкових процесів на інтервалах t і t+t) до -1 (повна статистична протилежність процесів цих інтервалах). Принагідно зазначимо, що в математичній статистиці, а також досить часто й у технічній літературі, цю функцію називають функцією кореляції. При t = 0 значення r Х дорівнює 1 а ФАК вироджується в дисперсію випадкового процесу:

K X (t) = D X (t).

Звідси випливає, що для випадкових процесів та функцій основними характеристиками є функції математичного очікування та кореляції (коваріації). Особливої ​​необхідності в окремій функції дисперсії немає.

Мал. 9.1.7. Реалізації та коварійні функції випадкових процесів.

Приклади реалізації двох різних випадкових процесів та їх нормованих коваріаційних функцій наведено на рис. 9.1.7.

Властивості функцій автоковарації та автокореляції.

1. Максимум функцій спостерігається при t = 0. Очевидно, т.к. при t = 0 обчислюється ступінь зв'язку відліків із собою, яка може бути менше зв'язку різних отсчетов. Значення максимуму функції кореляції дорівнює середній потужності сигналу.

2. Функції автокореляції та автоковаріації є парними: R X (t) = R X (-t). Останнє також очевидно: X(t)X(t+t) = X(t-t)X(t) при t = t-t. Інакше кажучи, моменти двох випадкових величин X(t 1) і X(t 2) не залежать від послідовності, в якій ці величини розглядаються, і відповідно симетричні щодо своїх аргументів: R x (t 1 , t 2) = R x (t 2 t 1).

3. При t = значення ФАК для сигналів, кінцевих по енергії, прагнуть до нуля, що прямо випливає з фізичного сенсу ФАК. Це дозволяє обмежувати довжину ФАК певним максимальним значенням t max – радіусом кореляції, за межами якого відліки можна вважати незалежними. Інтегральною характеристикою часу кореляції випадкових величин зазвичай вважають ефективний інтервал кореляції, Який визначається за формулою:

T k = r x (t) | dt º (1/K x (0)) | K x (t) | dt. (9.1.10)

Відліки (перетину) випадкових функцій, що віддаляються один від одного на відстань більшу за T k , при інженерних розрахунках вважають некорельованими.

4. Якщо до випадкової функції X(t) додати невипадкову функцію f(t), то функція коварації не змінюється. Позначимо нову довільну функцію як Y(t)=X(t)+f(t). Функція математичного очікування нову величину: = + f(t). Звідси випливає, що Y(t) -= X(t) - і відповідно K y (t 1 , t 2) = K x (t 1 , t 2).

5. Якщо випадкову функцію X(t) помножити на невипадкову функцію f(t), її кореляційна функція R x (t 1 ,t 2) помножиться на f(t 1)×f(t 2). Обґрунтування цієї властивості проводиться за методикою, аналогічною попередньому пункту.

6. При множенні функції випадкового процесу на постійне значення значення ФАК збільшуються в С 2 разів.

Взаємні моменти випадкових процесів другого порядку дають можливість оцінити спільні властивості двох випадкових процесів X(t) та Y(t) шляхом аналізу довільної пари вибіркових функцій xk(t) та yk(t).

Міра зв'язку між двома випадковими процесами X(t) та Y(t) також встановлюється кореляційними функціями, а саме - функціями взаємної кореляції та взаємної коваріації. У загальному випадку для довільних фіксованих моментів часу t 1 = t і t 2 = t+t:

R XY(t, t+t) = M(X(t)Y(t+t)). (9.1.11)

K XY (t, t+t) = M((X(t)-m x (t))(Y(t+t)-m y (t+t))). (9.1.12)

Взаємні функції є довільними функціями, не мають властивості парності або непарності, і задовольняють наступним співвідношенням:

R xy (-t) = R yx (t), (9.1.13)

|R xy (t)| 2 £ R x (0)R y (0).

Якщо один із процесів центрований, то має місце R xy(t) = K xy(t).

Нормована взаємна функція коварації (коефіцієнт кореляції двох процесів) характеризує ступінь лінійної залежності між випадковими процесами при даному зрушенні t одного процесу по відношенню до другого і визначається виразом:

r xy (t) = K xy (t)/(s x s y). (9.1.14)

Статистична незалежність випадкових процесів визначає відсутність зв'язку між значеннями двох випадкових величин X і Y. Це означає, що густина ймовірності однієї випадкової величини не залежить від того, які значення набуває друга випадкова величина. Двовимірна щільність ймовірностей при цьому повинна бути творами одномірних щільностей ймовірностей цих двох величин:

p(x,y) = p(x) p(y).

Ця умова є обов'язковою умовою статистичної незалежності випадкових величин. В іншому випадку між випадковими величинами може існувати певний статистичний зв'язок, як лінійний, так і нелінійний. Мірою лінійного статистичного зв'язку є коефіцієнт кореляції:

r xy = /.

Значення r xy можуть змінюватися від -1 до +1. В окремому випадку, якщо випадкові величини пов'язані лінійним співвідношенням x=ay+b, коефіцієнт кореляції дорівнює ±1 залежно від знака константи а. Випадкові величини некорельовані при r xy =0, при цьому з виразу для r xy випливає:

M(X·Y) = M(X)·M(Y).

Зі статистичної незалежності величин випливає їх некорелеваність. Назад не очевидно. Так, наприклад, випадкові величини x = cos j і y = sin j, де j - випадкова величина з рівномірним розподілом в інтервалі 0 ... 2p, мають нульовий коефіцієнт кореляції, і разом з тим їхня залежність очевидна.

Класифікація випадкових процесів. Випадкові процеси розрізняють за рівнем однорідності їхнього перебігу у часі (за аргументом). Крім моментів першого і другого порядку, випадкові процеси мають моменти і більш високих порядків. Принаймні підвищення порядку моментів ймовірнісна структура випадкових процесів та його вибіркових реалізацій описується дедалі детальніше. Проте практична оцінка цих моментів за вибірками обмежена переважно лише стаціонарними випадковими процесами.

Стаціонарні процеси. Процес називають стаціонарним (точніше – слабко стаціонарним), якщо щільність ймовірностей процесу не залежить від початку відліку часу і якщо на інтервалі його існування виконуються умови сталості математичного очікування та дисперсії, а кореляційна функція є функцією лише різниці аргументів t = t 2 -t 1 , тобто:

m Х (t 1) = m Х (t 2) = m Х = const, (9.1.15)

D Х (t 1) = D X (t 2) = D Х = const,

R X (t 1 , t 1 +t) º R x (t 2 -t, t 2) = R Х (t) º R Х (-t),

r x (t) = R x (t) / D x, r x (0) = 1, | r x (t) | ≤ 1, r x (-t) = r x (t).

Останні вирази свідчать про парність кореляційної (а також і коваріаційної) функції та функції кореляційних коефіцієнтів. З нього випливає ще одна властивість змішаних моментів стаціонарних процесів:

|R x (t)| £ R x (0), | K x (t) | £ K x (0) º D x .

Чим повільніше у міру збільшення значень t зменшуються функції R x (t) і r x (t), тим більше інтервал кореляції випадкового процесу, і тим повільніше змінюються в часі його реалізації.

Якщо від часу не залежать і моменти вищих порядків (зокрема асиметрія та ексцес), то такий процес вважається строго стаціонарним. У загальному випадку клас строго стаціонарних процесів входить до класу слабо стаціонарних. І лише у разі гаусових випадкових процесів слабка стаціонарність автоматично тягне за собою строгу, оскільки всі характеристики цих процесів визначаються середнім значенням і кореляційною функцією.

Стаціонарні випадкові процеси найчастіше зустрічаються під час вирішення фізичних і технічних завдань. Теорія стаціонарних випадкових функцій розроблена найповніше. Випадкові процеси, що задовольняють умовам стаціонарності на обмежених, які нас цікавлять інтервалах, також зазвичай розглядають у класі стаціонарних і називають квазистаціонарними.

Нестаціонарні процеси. У випадку значення функцій математичного очікування, дисперсії і кореляції може бути залежними від часу t, тобто. змінюватись у часі. Такі процеси становлять клас нестаціонарних процесів.

Ергодичні процеси. Строго коректно характеристики випадкових процесів оцінюються шляхом усереднення по ансамблю реалізацій у певні моменти часу (за перерізами процесів). Але більшість стаціонарних випадкових процесів має ергодичну властивість. Сутність його полягає в тому, що за однією досить довгою реалізації процесу можна судити про всі його статистичні властивості так само, як за будь-якою кількістю реалізацій. Іншими словами, закон розподілу випадкових величин у такому процесі може бути одним і тим самим як за перерізом для ансамблю реалізацій, так і за координатою розвитку. Такі процеси одержали назву ергодичних (ergodic). Для ергодичних процесів має місце:

m X (t) = M(x(t)) = x(t) dt, (9.1.16)

D Х (t) = M (x (t) - m X (t)] 2) = (x (t) - m Х (t)) 2 dt, (9.1.17)

R X (t) = M (x (t) x (t + t)) = x (t) x (t + t) dt. (9.1.18)

Ергодичність є дуже важливою властивістю випадкових стаціонарних і лише стаціонарних процесів. Математичне очікування ергодичного випадкового процесу дорівнює постійної складової будь-якої реалізації, а дисперсія є потужністю його флюктуаційної складової. Так як визначення функцій проводиться за обмеженими статистичними даними однієї реалізації і є лише певним наближенням до відповідних фактичних функцій процесів, доцільно називати ці функції статистичними.

Властивості ергодичності можуть виявлятися тільки по відношенню до двох перших моментів випадкового процесу, що цілком достатньо для використання відповідних методик дослідження процесів. Практична перевірка ергодичності процесу зазвичай здійснюється перевіркою виконання умови Слуцького:

K(t) dt = 0. (9.1.19)

Якщо коваріаційна функція процесу прагне до нуля при зростанні значення аргументу (t), то процес відноситься до ергодичних, принаймні, щодо моментів першого і другого порядків.

приклад.Випадкова функція задана виразом Z(t)=X(t)+Y, де X(t) - стаціонарна ергодична функція, Y-випадкова величина, некорельована з X(t). Чи ергодична функція Z(t)?

m z (t) = m z (x) + my, K z (t) = K x (t) + D y.

Функція Z(t) стаціонарна, але не ергодична, так як при t Þ ¥ має місце K z (t) Þ D y .

За формулами (9.1.16-9.1.18) можна визначити моменти і для детермінованих процесів. Наприклад, для періодичної функції f(t)=a sin wt автоковаріаційна функція описується виразом:

K(t) = (a 2/2) cos wt.

Відповідно, для довільної періодичної функції, представленої поруч Фур'є (розкладеної по рядах Фур'є):

K(t) = (1/2)a n 2 cos w n t.

Таким чином, автоковаріаційна функція періодичної функції також є періодичною функцією аргументу t - величини тимчасового зсуву.

9.2. Функції спектральної щільності.

Канонічне розкладання випадкових функцій. Введемо поняття найпростішої випадкової функції, що визначається виразом:

X(t) = X×j(t), (9.2.1)

де Х – звичайна випадкова величина, j(t) – довільна невипадкова функція. Математичне очікування найпростішої випадкової функції:

m x (t) = M (Xj (t)) = j (t) x M (X) = j (t) x m x (9.2.2)

де m x - математичне очікування випадкової величини Х. При m x = 0 математичне очікування m x (t) також дорівнює нулю для всіх t і функція (9.2.1) у цьому випадку називається елементарною випадковою функцією. Коваріаційна функція елементарної випадкової функції визначиться виразом:

K x (t 1, t 2) = M (X (t 1) X (t 2)) = j (t 1) j (t 2) × M (X 2) = j (t 1) j (t 2 )×D x . (9.2.3)

де D x – дисперсія випадкової величини Х.

Центровану випадкову функцію 0 X(t) можна уявити сумою взаємно некорельованих елементарних випадкових функцій:

0 X(t) =X i ×j i (t), (9.2.4)

Із взаємної некорелюваності елементарних випадкових функцій випливає взаємна некореленість величин X i . Математичне очікування та функція коварації випадкової функції 0 X(t):

M ( 0 X (t)) = M (X i × j i (t)) = 0.

K x (t 1 , t 2) = M (0 X (t 1) 0 X (t 2)) = M (X i x i (t 1) X j x j j (t 2)) = j i (t 1 )j j (t 2)M(X i X j ).

З огляду на взаємної некоррелированности парних значень X i X j має місце M(X i X j )= 0 при i ¹ j, і всі члени суми в останньому вираженні дорівнюють нулю, за винятком значень при i = j, для яких M(X i X j) = M (X i 2) = D i. Звідси:

K x (t 1, t 2) = i (t 1) i (t 2) Di. (9.2.5)

Довільна нецентрована випадкова функція відповідно може бути подана у вигляді

X(t) = m x (t) + 0 X (t) = m x (t) + X i xj i (t), (9.2.6)

з математичним очікуванням m x (t) і з тією самою функцією коварації (9.2.5) в силу властивостей коваріаційних функцій, де 0 X (t) - флюктуаційна складова випадкової функції X (t). Вираз (9.2.6) є канонічним розкладанням функції X(t). Випадкові величини X i називаються коефіцієнтами розкладання, функції j i – координатними функціями розкладання. При t 1 = t 2 (9.2.5) отримуємо функцію дисперсії випадкової функції X(t):

D x (t) = 2 × D i. (9.2.7)

Таким чином, знаючи канонічне розкладання (9.2.6) функції X(t), можна одразу визначити канонічне розкладання (9.2.5) її функції, і навпаки. Канонічні розкладання зручні виконання різних операцій над випадковими функціями. Це тим, що у розкладанні залежність функції від аргументу t виражається через невипадкові функції j i (t), відповідно операції над функцією X(t) зводяться до відповідним операціям математичного аналізу над координатними функціями j i (t).

Як координатні функції розкладання, як і при аналізі детермінованих сигналів, зазвичай використовуються гармонійні синус-косинусні функції, а в загальному випадку комплексні експоненційні функції exp(jwt). З урахуванням останнього, попередньо розглянемо особливості подання випадкових функцій у комплексній формі.

Комплексні довільні функції. У випадку випадковий процес може описуватися комплексної випадковою функцією:

Z(t) = X(t) + jY(t), (9.2.8)

де X(t) та Y(t) - дійсні випадкові функції. Відповідно, математичне очікування комплексної функції:

mz(t) = mx(t)+j×my(t). (9.2.9)

Зауважимо, що комплексне уявлення випадкових функцій лише зручна для аналізу математична форма їх відображення, яка, з використанням висловів Ейлера, завжди може бути переведена у форму речових функцій. Функції дисперсії, кореляції та коваріації повинні бути однозначними і невипадковими речовими характеристиками випадкових процесів і функцій, незалежно від форми їх математичного уявлення. Ця умова буде виконуватися при використанні у виразах моментів другого порядку операцій множення комплексних функцій із комплексно пов'язаними функціями. Так, вираз для обчислення кореляційної функції має такий вигляд:

R z (t 1, t 2) = M (Z (t 1) × Z * (t 2)) = M () =

M(X(t 1)X(t 2)+Y(t 1)Y(t 2)+j×) =

R x (t 1, t 2) + R y (t 1, t 2) + j×. (9.2.10)

Якщо дійсні та уявні частини комплексної функції некорельовані, то R yx = R xy = 0 та останній член виразу (9.2.10) також дорівнює нулю.

Аналогічний вираз має місце і для функції коварації. При t 1 = t 2 = t функції дисперсії комплексної випадкової величини маємо:

Dz(t) = M(|Z(t)-mz(t)|2) = Dx(t) + Dy(t), (9.2.11)

Усі наведені висловлювання у випадку можуть використовуватися для будь-яких комплексних випадкових функцій з будь-яким фізичним змістом змінної t.

Фінітне перетворення Фур'є випадкових функцій. За аналогією з функціями детермінованих сигналів окремо взята на інтервалі 0-Т реалізація x k (t) стаціонарного випадкового процесу 0 X(t) може бути представлена ​​у вигляді ряду Фур'є:

x k (t) = V x, k (w i) exp (jw i t), (9.2.12)

V x, k (w i) = (1/T) x k (t) exp(-jw i t) dt, (9.2.13)

або, в односторонній тригонометричній формі:

x k (t) = A x, k (0) + 2 (A x, k (wi) cos (wit) + B x, k (wi) sin (wit), (9.2.12")

A x, k (w i) = (1/T) x k (t) cos (w i t) dt, (9.2.13")

B x, k (wi) = (1/T) x k (t) sin (wit) dt. (9.2.13"")

де w i = i x Dw - частоти спектра, Dw = 2p/T - крок частоті. Вирази (9.2.13) зазвичай називають спектральними характеристиками реалізацій. З порівняння виразів (9.2.4) і (9.2.12) неважко зробити висновок, що вирази (9.2.12) належить до канонічних розкладів випадкових функцій, при цьому спектральна характеристика V x, k (w), а також її складові A x, k (w) і B x, k (w) також є випадковими функціями частоти - одиничними реалізаціями випадкових функцій V x (w), A x (w) і B x (w). Відповідно, і частотний розподіл амплітуд і фаз складових гармонійних коливань випадкового процесу 0 X(t) є випадковими функціями з відповідними невипадковими функціями дисперсій.

Якщо функція 0 X(t) є дискретною послідовністю випадкових величин 0 X(n×Dt) в інтервалі по n від 0 до N, то, як і належить для дискретних перетворень Фур'є, розрахунок спектральних характеристик виконується в Головному частотному діапазоні (до частоти Найквіста w N = p/Dt), із заміною у виразах (9.2.13) інтегрування на підсумовування по n та з відповідною зміною меж підсумовування у виразах (9.2.12). Це пояснення зберігається і на всі подальші викладки.

Спектральні характеристики поодиноких реалізацій випадкових процесів інтересу, як правило, не становлять, і на практиці використовуються досить рідко. Спектральна характеристика випадкової функції 0 X(t), як ансамблю реалізацій, може бути визначена опосередкуванням функцій (9.2.12-13) за реалізаціями, в результаті якого ми отримаємо ті ж функції (9.2.12-13), тільки без індексів k . При цьому, з огляду на центрованість стаціонарної випадкової функції 0 X(t), ми повинні мати:

M(X(t)) = M(V x (w i)) exp(jw i t) = 0, (9.2.14)

Останнє виконуватиметься за умови M(V x (w i)) = 0, тобто. математичне очікування значень спектральної характеристики центрованого стаціонарного випадкового процесу має дорівнювати нулю на всіх частотах. Інакше кажучи, спектральної характеристики центрованого стаціонарного випадкового процесу немає. Існують тільки спектральні характеристики окремих реалізацій, які і використовуються, наприклад, для моделювання цих реалізацій.

Для довільних нецентрованих випадкових процесів X(t), при записі останніх у формі X(t) = m x (t) + 0 X(t), відповідно матимемо перетворення Фур'є:

m x (t) + 0 X (t) - m x (w) + V x (w) = m x (w),

тобто, по суті, функцію спектра (або спектральної густини) невипадкової функції математичного очікування випадкового процесу, природно, у межах тієї точності, яку може забезпечити вибірковий ансамбль реалізацій. Це вкотре підтверджує відсутність у спектрах випадкових процесів будь-якої інформації про флюктуаційну складову процесів, і говорить про те, що фази спектральних складових у реалізаціях процесу є випадковими та незалежними.

З урахуванням вищевикладеного, під спектрами випадкових процесів (або спектральної щільністю при інтегральному перетворенні Фур'є) повсюдно розуміється не перетворення Фур'є власне випадкових функцій, а перетворення Фур'є функцій потужності випадкових процесів, оскільки функції потужності не залежать від співвідношення фаз спектральних складових процесів.

Спектри потужності випадкових функцій визначаються аналогічно спектрам потужності детермінованих сигналів. Середня потужність випадкового процесу X(t), зареєстрованого в процесі реалізації на інтервалі 0-Т, з використанням рівності Парсеваля може бути обчислена за формулою:

W T = dt = [| X T (f) | 2 /T] df,

де X(f) – спектральна густина одиничної реалізації x(t). При збільшенні інтервалу Т енергія процесу на інтервалі необмежено наростає, а середня потужність прагне певної межі:

W = [ | X T (f) | 2] df,

де підінтегральна функція є спектральною щільністю потужності даної реалізації випадкового процесу:

W(f) = |X T (f)| 2 . (9.2.15)

Дуже часто цей вираз називають просто спектром потужності. Щільність потужності є речовинною, невід'ємною та парною функцією частоти. У загальному випадку, щільність потужності необхідно усереднювати по безлічі реалізацій, але для ергодичних процесів допустиме усереднення по досить тривалій реалізації.

Теорема Вінера-Хінчина. Розглянемо сигнал q(t), що є однією реалізацію випадкового стаціонарного ергодичного процесу тривалістю Т. Для сигналу q(t) може бути визначений спектр Q(w). Якщо зрушити на t реалізацію процесу, отримаємо спектр Q(w)exp(jwt). Для речових сигналів Q(w) = Q*(w) рівність Парсеваля щодо енергії взаємодії двох сигналів

x(t) y*(t) dt = X(f) Y*(f) df (9.2.16)

може бути записано в наступній формі:

q(t)q(t+t) dt = (1/2p) Q(w)Q*(w) exp(jwt) dw. (9.2.17)

Поділимо обидві частини даної рівності на Т і перейдемо до межі при Т ?

q(t)q(t+t) dt = |Q(w)| 2 exp(jwt) dw, (9.2.18)

R(t) = (1/2p) W(w) exp(jwt) dw. (9.2.19)

Звідси випливає, що кореляційна функція випадкового стаціонарного ергодичного процесу є зворотне перетворення Фур'є його спектра потужності. Відповідно, для спектра потужності випадкового процесу маємо пряме перетворення Фур'є:

W(w) = R(t) exp(-jwt) dt. (9.2.20)

У цьому полягає суть теореми Вінера-Хінчина. Функції W(w) і R(t) є речовими та парними, а відповідно в тригонометричній формі:

R(t) = 2W(f)cos(2pft) df, W(f) = 2R(t)cos(2pft) dt.

Спектр підступних функцій. Так як коваріаційні функції стаціонарних процесів є окремим випадком кореляційних функцій, то ці вирази дійсні і для ФАК, а, отже, перетворення Фур'є коваріаційних функцій, є спектрами потужності флюктуючої складової процесів. З цих позицій дисперсія випадкових процесів є середньою потужністю його флюктуацій.

K(t=0) = s 2 = (1/2p)W(w) dw,

тобто дорівнює сумарній потужності всіх його частотних складових процесів.

При поданні коваріаційної функції на інтервалі 0-Т, крок по спектру функції з урахуванням парності коваріаційної функції встановлюється рівним Dw = p/T, w i = i×Dw, а спектр визначається зазвичай безпосередньо по косинус в односторонній формі:

K x (t) = D x (0) / 2 + D x (w i) cos (w i t), (9.2.21)

D x (w i) = (2/T)K x (t) cos(w i t) dt, (9.2.22)

де D x (wi) відповідно до (9.2.5) - дисперсії випадкових величин V x (wi), а також A x (wi) і B x (wi), в розкладаннях (9.2.12). У комплексній формі, як завжди:

K x (t) = D x (w i) exp (jw i t), (9.2.23)

D x (w i) = (2/T)K x (t) exp(-jw i t) dt, (9.2.24)

Спектри коваріаційних функцій завжди обмежені (D(w) ¹ ¥) і невід'ємні (D(w) ³ 0), при двосторонньому поданні завжди парні (D(-w) = D(w)). Приклад спектрів в одно- та двосторонньому поданні наведено на рис. 9.2.1.

Дисперсія стаціонарного випадкового процесу X(t) може визначатися за формулою (9.2.23) при t = 0:

D x = D x (w i), (9.2.25)

тобто. дисперсія стаціонарного випадкового процесу дорівнює сумі дисперсій всіх випадкових гармонік її спектрального розкладання.

Ефективна ширина спектра потужності є узагальненою характеристикою спектра випадкового процесу та визначається за формулою:

B k = Dw×D x /D max (9.2.26)

де D max – максимальне значення функції D x (w i). Зазначимо, що ширина спектра є практичною характеристикою випадкового процесу і обчислюється, як правило, для реальних частот по односторонньому спектру процесу.

При використанні граничного переходу T = і відповідно інтегралів Фур'є у виразах (9.2.23), двосторонні функції дисперсій D(w i) замінюються функціями S(w), а односторонні - функціями G(w), які називають відповідно дво- та односторонніми функціями спектральної щільностівипадкових процесів. Таке ж індексування в науково-технічній літературі застосовують і для спектрів кореляційних функцій, а найчастіше і для дискретних перетворень коваріаційних функцій замість D(w i), хоча останнє стосовно коварійних функцій більш точно відображає фізичну сутність величин. Але може вважатися цілком прийнятним задля збереження спільності математичних описів.

Ефективна ширина спектра для функцій спектральної густини випадкових процесів:

B k = G x (f) df / G x (f) max = S x (f) df / S x (f) max = K x (0) / S x (f) max . (9.2.27)

Співвідношення невизначеності пов'язує ефективну ширину спектра B k з ефективним інтервалом коваріації T k . Для його визначення знайдемо добуток B k T k випадкового процесу з використанням формул (9.1.10) та (9.2.27):

B k T k = 2 | K x (t) | dt / S x (f) max. (9.2.28)

Оцінка цього твору призводить до співвідношення невизначеності:

B k T k ³ 1/2. (9.2.29)

Отже, із зменшенням ефективної ширини спектра збільшується ефективний інтервал коваріації випадкового процесу, і навпаки.

Взаємні спектральні функції. Статистичний зв'язок двох випадкових процесів X(t) і Y(t) оцінюється за функціями взаємної коваріації Kxy(t) або Kyx(t). Функції взаємної коваріації в загальному випадку є довільними, і відповідно функції взаємного спектра є комплексними виразами:

S xy (w i) = (1/T)K xy (t) exp(-jw i t) dt, (9.2.30)

при цьому:

S xy (-w) = S xy * (w) = S yx (w).

Квадратурним аналогом нормованої взаємної коваріаційної функції або функції коефіцієнтів коваріації двох процесів (9.1.14) у спектральній ділянці є функція когерентностіяка визначається виразом:

g xy 2 (w) = | S xy (w) | 2 /(S x (w)S y (w)), (9.2.31)

і для будь-яких w задовольняє нерівностей

0 £ g xy 2 (w) £ 1

Функція когерентності зазвичай використовується під час аналізу лінійних систем перетворення вхідний функції X(t) у вихідну функцію Y(t) (розглянуто нижче).

На закінчення даного розділу ще раз відзначимо, що спектральні щільності випадкових процесів і спектри щільності потужності, це те саме поняття. Обидва терміни використовуються досить широко у науково-технічній літературі. Враховуючи ту обставину, що поняття потужності за своїм змістом більше пов'язане з енергетичними поняттями, а поняття спектральної густини - з аналізом сигналів та систем, при подальшому розгляді випадкових сигналів та процесів будемо використовувати, в основному, поняття спектральної густини або (для дискретних величин) спектрів випадкових сигналів та процесів.

9.3. Перетворення випадкових функцій.

Системи перетворення випадкових функцій. Нехай є система перетворення з одним входом, який надходить (подається) вхідна випадкова функція X(t) - функція впливуабо збудження, і з одним виходом, з якого знімається вихідна функція Z(t) - відгукабо вихідна реакціясистеми. Система здійснює перетворення X(t) Z(t) і описується певним системним операторомтрансформації Т – функцією, алгоритмом, набором правил перетворення вхідного сигналу у вихідний. Позначення операції перетворення: Z(t) = T. Символічне та повне відображення операції перетворення:

z(t) = h(t) ③ x(t-t) = h(t)×x(t-t) dt.

де h(t) – математична функція імпульсного відгуку системи на одиничний вхідний вплив. Імпульсний відгук визначає відповідну частотну передавальну характеристику системи: h(t) - H(w).

Для невипадкових (детермінованих) вхідних сигналів співвідношення між вихідними та вхідними сигналами завжди однозначно задається системним оператором. У разі реалізації на вході системи випадкового вхідного процесу (випадкового сигналу) теж існує однозначна відповідність процесів на виході та вході системи, однак при цьому одночасно відбувається зміна статистичних характеристик вихідного сигналу (математичного очікування, дисперсії, функції ковару тощо).

Лінійні та нелінійні системи становлять два основні класи систем обробки сигналів. Термін лінійності означає, що система перетворення сигналів повинна мати довільний, але обов'язково лінійний зв'язок між вхідним сигналом (збудженням) і вихідним сигналом (відгуком). У нелінійних системах зв'язок між вхідним та вихідним сигналом визначається довільним нелінійним законом.

Основні системні операції лінійних систем, з яких можуть бути сформовані будь-які лінійні оператори перетворення, це операції скалярного множення, зсуву та складання сигналів:

s(t) = c 'a(t), s(t) = a(t-Dt), s(t) = a(t)+b(t).

Для нелінійних систем виділимо важливий тип безінерційних операцій нелінійної трансформації сигналу, результати якої залежить тільки від його вхідних значень. До них відносяться, наприклад, операції квадратування та логарифмування сигналу:

y(t) = 2 , y(t) = log.

Система вважається лінійною якщо її реакція на вхідні сигнали адитивна (виконується принцип суперпозиції сигналів) і однорідна (виконується принцип пропорційної подоби). Іншими словами, відгук лінійної системи на виважену суму вхідних сигналів повинен дорівнювати виваженій сумі відгуків на окремі вхідні сигнали незалежно від їх кількості і для будь-яких вагових коефіцієнтів, у тому числі комплексних.

Лінійні системи може бути неоднорідними, якщо вони здійснюють якесь лінійне перетворення з додаванням (відніманням) заданої функції, тобто. операцію виду Z(t) = T = T o + f(t).

Двохвхідна система описується системним оператором Т, який пов'язує два вхідні впливи, відповідно X(t) і Y(t), з вихідною реакцією Z(t). Система вважається лінійною, якщо принципи адитивності та однорідності виконуються для обох входів. Двовходова система може застосовуватися, наприклад, для підсумовування двох випадкових процесів із різними коефіцієнтами посилення їх значень.

Z(t) = T[а(X1(t)+X2(t)), b(Y1(t)+Y2(t))] = a×T + b×T.

Зв'язок вихідних статистичних функцій із вхідними. Для одновходових систем під час лінійного перетворення Z(t) = T зазвичай ставиться завдання визначення характеристик розподілу Z(t) за відомими характеристиками X(t).

Математичне очікування вихідного сигналу:

mz(t) = M(Z(t)) = M(T).

З теорії лінійних систем: лінійний оператор можна виносити за знак математичного очікування.Звідси випливає:

m z (t) = T = T, (9.3.1)

тобто. для визначення функції математичного очікування вихідного сигналу Z(t) достатньо виконати перетворення тим самим системним оператором функції математичного очікування вхідного сигналу X(t):

m z (t) = h(t) ③ m x (t-t). (9.3.2)

Кореляційна функція вихідного сигналу :

R z (t 1, t 2) = M (Z (t 1) Z (t 2)) = M (T 1 T 2),

де Т 1 і Т 2 - один і той же оператор Т за змінними відповідно t 1 і t 2 що дозволяє винести його за знак математичного очікування, зберігаючи змінні:

R z (t 1 , t 2) = T 1 T 2 = T 1 T 2 (9.3.3)

тобто. при відомій функції кореляції вхідного сигналу функція кореляції вихідного сигналу перебуває подвійним перетворенням тим самим оператором за двома аргументами.

При визначенні функції Rz(t) слід врахувати порядок перетворення. Для добутку вихідних сигналів z(t) і z(t+t) лінійної системи можна записати:

z(t)×z(t+t) = h(a)h(b) x(t-a) x(t+t-b) da db.

Якщо взяти математичні очікування від обох частин цієї рівності, то з урахуванням співвідношення у підінтегральному вираженні

M(x(t-a) x(t+t-b)) = -R x (t-a-t-t+b) = R x (t+a-b),

R z (t) = h (a) h (b) R x (t + a-b) da db R x (t) ③ h (t + a) ③ h (t-b). (9.3.4)

Таким чином, функція кореляції вихідного сигналу дорівнює функції кореляції вхідного сигналу, згорнутої двічі, у прямому та зворотному напрямку, з імпульсним відгуком системи, що зберігає парність кореляційної функції вихідного сигналу. Аналогічний висновок є дійсним і для коваріаційних функцій.

Зауважимо, що згортки імпульсних відгуків, виробляючи заміну t-b = t, маємо рівність:

h(t+a) ③ h(t-b) = h(t+a+b) ③ h(t) = h(t) ③ h(t+g) = R h (t),

де R h (t) – функція кореляції імпульсного відгуку системи. Звідси:

R z (t) = R x (t) ③ R h (t). (9.3.5)

тобто. функція кореляції вихідного сигналу дорівнює згортанню функції кореляції вхідного сигналу з функцією кореляції імпульсного відгуку системи. Це означає появу у випадковому сигналі на виході системи певної коваріаційної залежності, викликаної інерційністю системи, причому радіус коваріації вихідного сигналу обернено пропорційний верхній частоті, що пропускається системою.

Функції взаємної кореляції вхідного та вихідного сигналів визначаються аналогічно:

R zx (t 1, t 2) = T 1, R xz (t 1, t 2) = T 2 . (9.3.6)

Для функції R xz вхідного та вихідного сигналів маємо:

x(t)×z(t+t) dt = h(a) x(t) x(t+t-a) da dt.

R xz (t) = h (a) R x (t-a) da R x (t) ③ h (t-a). (9.3.7)

тобто. функція взаємної кореляції вхідного та вихідного сигналів дорівнює згортанню функції кореляції вхідного сигналу з функцією імпульсного відгуку системи.

Інша взаємно кореляційна функція R yx може бути отримана із співвідношення:

R zx (t) = R xz (-t) º R x (t) ③ h(t+a). (9.3.8)

Зазначимо, що для статистично незалежних випадкових величин за одностороннього імпульсного відгуку h(t) = 0 при t<0 функция R xz (t) также является односторонней, и равна 0 при t<0, а функция R zx соответственно равна 0 при t>0.

Спектральні співвідношення, які характеризують систему загалом стосовно перетворення випадкових сигналів, це співвідношення спектральних щільностей випадкових сигналів (спектрів потужності) на вході та виході.

Застосовуючи перетворення Фур'є до виразів (9.3.5), для спектра потужності вихідного сигналу отримуємо:

S z (f) = S x (f) | H (f) | 2 . (9.3.9)

Спектр потужності випадкового сигналу на виході системи дорівнює спектру потужності вхідного сигналу, помноженого на квадрат модуля частотної характеристики фільтра. З урахуванням парності коваріаційних функцій спектр потужності вихідного сигналу є парною дійсною функцією і містить тільки амплітудну характеристику системи.

Аналогічно, для взаємного спектра потужності сигналів на основі виразів (9.3.7-8) маємо:

Sxz(f) = Sx(f)H(f), Szx(f)=Sx(f)H(-f). (9.3.10)

Взаємний спектр сигналів при односторонньому імпульсному відгуку є комплексним і містить як амплітудну, так і фазову характеристику системи.

Зазначимо, що з використанням виразу (9.3.10) можна проводити визначення частотної характеристики та імпульсного відгуку системи:

H(f) = S xz /S x u h(t).

Дисперсія вихідного сигналу може бути визначена з використанням формул (9.3.4, 9) за функціями коваріації:

s z 2 = K z (0) = S x (f) | H (f) | 2 df º K x (0)h 2 (t) dt = s x 2 h 2 (t) dt, (9.3.11)

Якщо сигнал нецентрований і значення дисперсії вхідного сигналу невідоме, то за аналогічними формулами обчислюється спочатку середній квадратвихідного сигналу чи так звана середня потужність сигналу :

R z (0) º h 2 (t) dt ºS x (f) | H (f) | 2 df. (9.3.12)

Середня потужність вихідного сигналу дорівнює середньої потужності вхідного сигналу, помноженої на квадрат площі імпульсної реакції системи (для цифрових систем - суму квадратів коефіцієнтів імпульсного відгуку). Для центрованих випадкових сигналів середня потужність дорівнює дисперсії сигналів. Для нецентрованих вихідних сигналів:

s z 2 = - 2 º (- 2)h 2 (t) dt. (9.3.13)

Функція когерентності дає оцінку точності прийнятої лінійної моделі системи. Когерентність вхідного та вихідного сигналів системи оцінюється за формулою:

g xz 2 (f) = | S xz (f) | 2/. (9.3.14)

Якщо функції S x (f) та S z (f) відмінні від нуля і не містять дельта-функцій, то для всіх частот f значення функції когерентності укладені в інтервалі:

0 £ g xz 2 (f) £ 1.

Для виключення дельта-функцій на нульовій частоті визначення функції когерентності здійснюється за центрованими сигналами. Для лінійних систем з постійними параметрами функція когерентності дорівнює 1, у чому неважко переконатися, якщо формулу (9.3.14) підставити вирази S xz і S z , визначені через S x у формулах (9.3.9-10). Для не пов'язаних сигналів функція когерентності дорівнює нулю. Проміжні між 0 і 1 значення можуть відповідати трьом ситуаціям:

1. Система здійснює перетворення x(t) Þ z(t), але у вимірах цих сигналів або одного з них присутній зовнішній шум. Так, наприклад, у сигналах, зареєстрованих з обмеженням розрядності, з'являється шум квантування (округлення значень).

2. Система не є строго лінійною. Це може спостерігатися, наприклад, при певному обмеженні розрядності обчислень в цифрових системах, при накопиченні помилки в рекурсивних системах і т.п.

3. Вихідний сигнал z(t) крім x(t) залежить від якихось вхідних чи внутрішніх системних процесів.

Розмір 1-g xz 2 (f) задає частку середнього квадрата сигналу z(t) на частоті f, не пов'язану із сигналом x(t).

Аналогічно можна обчислити функцію когерентності двох реалізацій x(t) та y(t). Значення функції будуть вказувати на ступінь лінійної залежності однієї реалізації від іншої, хоча це не означає обов'язковості наявності будь-якої причинно-наслідкового зв'язку між реалізаціями. Функція когерентності g xy зберігається при точних однотипних лінійних перетвореннях функцій x(t) та y(t), що дозволяє проводити її визначення без виміру самих величин x(t) та y(t).

Перетворення випадкових функцій.

Додавання випадкових функцій. При додаванні випадкових функцій, у загальному випадку, з довільними постійними коефіцієнтами а і b, та утворення випадкової функції суми Z(t) = a×X(t) + b×Y(t), функція математичного очікування процесу Z(t):

m z (t) = M (Z (t)) = M (aX (t) + bY (t)) = a × M (X (t)) + b × M (Y (t)) = a × m x ( t)+b×m y (t). (9.3.15)

Кореляційна функція суми обчислюється аналогічно і дорівнює:

R z (t 1, t 2) = M (Z (t 1) × Z (t 2)) = M () =

M(a 2 X(t 1)X(t 2)+b 2 Y(t 1)Y(t 2)+×ab) =

A 2 R x (t 1, t 2) + b 2 R y (t 1, t 2) + ab×. (9.3.16)

Для некорельованих функцій X(t) та Y(t) функції взаємної кореляції R xy та R yx обнулюються. Аналогічну форму запису мають і коварійні функції (як окремий випадок кореляційних функцій при центруванні випадкових процесів). Вирази легко узагальнюються у сумі будь-якого числа випадкових функцій. Зокрема для кореляційної функції стаціонарної випадкової функції Z(t) = a i X i (t) при t 2 -t 1 = t маємо:

R z (t) = a i 2 R x i (t) + a i a j R x i x j (t). (9.3.16")

При додаванні випадкової функції X(t) з невипадковою функцією y(t) математичне очікування та кореляційна функція суми Z(t)=X(t)+y(t) рівні:

m z (t) = m x (t) + y (t), R z (t 1, t 2) = R x (t 1, t 2). (9.3.17)

При додаванні випадкової функції X(t) з некорельованою випадковою величиною Y математичне очікування та кореляційна функція суми Z(t)=X(t)+Y:

m z (t) = m x (t) + my, R z (t 1, t 2) = R x (t 1, t 2) + D y. (9.3.18)

Добуток випадкової та невипадкової функцій X(t) та f(t). Математичне очікування та кореляційна функція вихідного сигналу:

m z (t) = M (Z (t)) = M (f (t) x X (t)) = f (t) x M (X (t)) = f (t) x m x (t). (9.3.19)

R z (t 1, t 2) = M (f (t 1) X (t 1) f (t 2) X (t 2)) = f (t 1) f (t 2) M (X (t 1) ) X (t 2)) =

F(t 1)f(t 2)×R x (t 1 ,t 2). (9.3.20)

Якщо f(t) = const = C та Z(t) = C×X(t), то відповідно маємо:

m z (t) = З x m x (t), R z (t 1, t 2) = З 2 × R x (t 1, t 2). (9.3.21)

Похідна від випадкової функції Z(t) = dX(t)/dt. Якщо функція X(t) є безперервною та диференційованою, то математичне очікування похідної:

m z (t) = M(Z(t)) = M(dX(t)/dt) = d(M(X(t)))/dt = dm x (t)/dt, (9.3.22)

тобто. математичне очікування похідної від випадкової функції і похідної від її математичного очікування. Для кореляційної функції маємо:

M(X(t 1)X(t 2))dt 1 dt 2 = R x (t 1 ,t 2)dt 1 dt 2 , (9.3.25)

тобто. кореляційна функція інтеграла від випадкової функції дорівнює подвійному інтегралу від функції кореляційної вихідної випадкової функції.

Перетворення стаціонарних випадкових функцій виконуються за наведеними вище формулами і дають наступні результати (замість кореляційних функцій наводяться коваріаційні функції, які зазвичай використовуються на практиці).

Математичне очікуваннявихідного сигналу Z(t) вхідний стаціонарної випадкової функції X(t) (9.3.2):

m z = h(t) * m x = m x h(t) dt, (9.3.26)

Звідси випливає, що математичне очікування вихідних сигналів системи дорівнює математичному очікуванню вхідних сигналів, помноженому площу (чи суму коефіцієнтів) імпульсного відгуку системи, тобто. на коефіцієнт посилення системою постійної складової. Якщо система не пропускає постійну складову сигналів (площа або сума коефіцієнтів імпульсного відгуку системи дорівнює нулю), то випадковий вихідний сигнал завжди матиме нульове математичне очікування.

Сума двох стаціонарних випадкових функцій X(t) та Y(t) дає стаціонарну випадкову функцію Z(t), при цьому:

m z = m x + m y , D z = D x + D y + 2K xy (0). (9.3.27)

K z (t 1, t 2) = K z (t) = K x (t) + K y (t) + K xy (t) + K y x (t). (9.3.28)

Сума стаціонарної випадкової та невипадкової функцій X(t) та y(t) нестаціонарна з математичного очікування:

mz(t) = mx+y(t), Kz(t)=Kx(t). (9.3.29)

Добуток стаціонарної випадкової та невипадкової функцій X(t) і y(t) - нестаціонарна випадкова функція, оскільки:

mz(t) = y(t)×mx, Dz(t) = y2(t)×Dx. (9.3.30)

K z (t, t) = y (t) y (t + t) K x (t). (9.3.31)

Похідна від стаціонарної випадкової функції- стаціонарна випадкова функція з математичним очікуванням m z = 0 та підступними функціями:

K z (t 1, t 2) = K x (t 1 -t 2) = -K x (t) = K z (t). (9.3.32)

K zx (t) = d (K x (t)) / dt, K xz (t) = -d (K x (t)) / dt. (9.3.33)

З виразу (9.3.32) слід також, що для диференційованості X(t) необхідно, щоб її функція коварації була двічі диференційованої по t.

Інтеграл від стаціонарної випадкової функції- нестаціонарна випадкова функція з математичним очікуванням m z (t) = m x (t) dt та функцією коваріації:

K z (t 1, t 2) = K x (u 1 -u 2) du 1 du 2 . (9.3.34)

9.4. Моделі випадкових сигналів та перешкод.

Найбільш поширеними моделями випадкових сигналів та перешкод є телеграфний сигнал, білий шум, випадковий гаусовий процес, гаусовий шум.

Телеграфний сигнал - це випадковий процес x k (t), що є послідовністю прямокутних позитивних і негативних імпульсів з випадковими тривалостями і детермінованими значеннями амплітуд c і -с, причому зміни знака всередині будь-якого інтервалу (t, t+t) відбуваються з інтенсивністю a у випадкові моменти часу і не залежать від процесів у суміжних інтервалах часу. Якщо вважати випадковою величиною телеграфного сигналу значення n - кількість змін знака всередині інтервалу t, то розподіл ймовірностей значень n описуватиметься законом Пуассона:

P(n) = (a|t|) 2 exp(-a|t|)/n! (9.4.1)

При обчисленні кореляційної функції телеграфного сигналу кожен окремий твір x k (t) x k (t + t) дорівнює або з 2 або -с 2 в залежності від збігу або розбіжності знаків x k (t) і x k (t + t), причому ймовірність з 2 дорівнює сумі ймовірностей Р(0)+Р(2)+Р(4)+..., а ймовірність -з 2 визначається відповідно до суми ймовірностей Р(1)+Р(3)+Р(5)+... .

Отже:

R x (t) = c 2 (-1) n P (n) = c 2 exp (-a | t |) (-1) n (a | t) n / n! = c 2 exp(-2a|t|). (9.4.2)

Параметр a повністю визначає коварійні та спектральні властивості телеграфного сигналу. При a = 0 характеристики сигналу наближаються до характеристик постійної складової, при a = - до характеристик білого шуму.

Інтервал коварації сигналу:

T k = 2 (R x (t) / c 2) dt = 2/a. (9.4.3)

Звідси випливає, що чим більше a, тим менше час підступу процесу. При a = 0 T k = і процес вироджується в детермінований (прагне постійної складової). При a Þ ¥ T k Þ 0 і процес вироджується в білий шум із некорельованими відліками навіть на сусідніх часових точках.

Двостороння спектральна щільність сигналу:

S x (w) = R x (t) exp (-jwt) dt = ac 2 / (a ​​2 + w 2). (9.4.4)

Одностороння спектральна щільність:

G x (w) = 2ac 2 / (a ​​2 + w 2). (9.4.5)

Ширина спектру телеграфного сигналу:

B k = G x (w) dw/G x (0) ºS x (w) dw/S x (0) = ap. (9.4.6)

Звідси випливає, що спектр випадкового процесу тим ширший, що менше інтервал коваріації процесу.

Білий шум є стаціонарним випадковим процесом q(t), у якого автокореляційна функція описується дельта - функцією Дірака і, відповідно, спектральна щільність потужності не залежить від частоти і має постійне значення W q (f) = s 2 , що дорівнює дисперсії значень q(t). Іншими словами, всі спектральні складові білого шуму мають однакову потужність (як білий колір містить усі кольори видимого спектру). Фактично, це ідеалізований випадковий процес із нескінченною енергією. Але у разі сталості спектральної щільності потужності випадкового процесу в кінцевому діапазоні частот введення такої ідеалізації дозволяє розробляти оптимальні методи фільтрації, що досить легко реалізуються. Багато перешкод у радіотехніці, техніці зв'язку та інших галузях, зокрема інформатиці, розглядають як білий шум, якщо ефективна ширина спектра сигналів B s набагато менше ефективної ширини спектра шумів B q

B s /B q<< 1,

і спектральна густина потужності шумів слабо змінюється в інтервалі спектра сигналу. Поняття " білий шум " визначає лише спектральну характеристику випадкового процесу, отже, під це поняття підпадають будь-які випадкові процеси, мають рівномірний енергетичний спектр і різні закони розподілу.

Якщо частотний діапазон спектра, на якому розглядаються сигнали і перешкоди, дорівнює 0-В, спектральна щільність шуму задається у вигляді:

W q (f)=s 2 , 0£ f £B; Wq (f) = 0, f> B, (9.4.7)

при цьому кореляційна функція шуму визначається виразом:

R q (t) = 2 B×sin(2pBt)/2pBt. (9.4.8)

Ефективний інтервал кореляції:

T k = 2|Rq(t)|dt/Rq(0). (9.4.9)

Реальний інтервал кореляції доцільно визначати за шириною головного максимуму функції R q (t) (значення t при перших перетинах нульової лінії), в якому зосереджена основна частина енергії шумів, при цьому T k = 1/B і BT k = 1 > 1/2 , тобто. Співвідношення невизначеності виконується.

Як випливає з усіх цих виразів і видно на рис. 9.4.4, при обмеженні частотного діапазону шумів з'являється певна кореляція між значеннями, і, чим менше частотний діапазон шумів, тим більше їх радіус кореляції. По суті, обмеження шумів певним частотним діапазоном еквівалентно фільтрації білого шуму частотним фільтром з відповідною шириною смуги пропускання, при цьому кореляційна функція імпульсного відгуку фільтра згортається з дельта - функцією білого шуму.

Модель білого шуму q(t) можна формувати як випадкову за часом (аргументом) послідовність дельта - імпульсів d(t i) з випадковими амплітудними значеннями a i:

q(t) = S i a i d(t-t i), (9.4.10)

яка задовольняє умовам статистичної однорідності: постійне середнє число імпульсів за одиницю часу та статистична незалежність появи кожного імпульсу від попередніх. Такий потік імпульсів, який називають пуассонівським, є некорельованим і має рівномірний спектр густини потужності:

W q (w) = c 2 = Ns a 2

де N - число імпульсів на інтервалі Т реалізації випадкового процесу, s a 2 -дисперсія амплітуд імпульсів.

Спектральний опис білого шуму виявляється зручним при врахуванні впливу амплітудно-частотних характеристик різних пристроїв. Якщо на вході фільтра з імпульсним відгуком h(t) діє білий шум q(t), сигнал на виході фільтра:

g(t) = h(t) ③ q(t) = h(t) ③ S i a i d(t-t i) =S i a i h(t-t i), (9.4.11)

тобто. вихідний сигнал буде послідовністю сигналів імпульсної реакції фільтра h(t) з амплітудою a i , при цьому автокореляційна функція і спектр потужності вихідного потоку також стають подібними до ФАК і спектру потужності імпульсної реакції фільтра, і в першому наближенні визначаються виразами:

R g (t) N s a 2 R h (t) = c 2 R h (t), (9.4.12)

W g (w) N a 2 | H (w) | 2 = c 2 | H (w) | 2 . (9.4.13)

Цей результат відомий як теорема Кемпбелла.

Гаусовий шум виникає під час підсумовування статистично незалежних білих шумів і має таку функцію кореляції:

R x (t) = exp(-2ps 2 t 2). (9.4.14)

Спектральна щільність шумів:

S x (f) = (a/s) exp(-f 2 /2s 2) - ¥< f < ¥. (9.4.15)

Ефективні шумові ширина спектру та час коварування:

Bk = s/2 = 1.25s, Tk = 1/s = 0.4/s. (9.4.16)

Співвідношення невизначеності перетворюється на рівність: B k T k = 1/2.

Гаусові випадкові процеси переважають у практичних завданнях. Випадковий процес x(t) називається гаусовим, якщо будь-якого набору фіксованих моментів часу t n випадкові величини x(t n) підпорядковуються багатовимірному нормальному розподілу. Щільність ймовірностей миттєвих значень x(t) ергодичного гаусового процесу визначається виразом:

література

1. Баскаков С.І. Радіотехнічні ланцюги та сигнали: Підручник для вузів. - М: Вища школа, 1988. - 448 с.

2. Бендат Дж., Пірсол А. Прикладний аналіз випадкових даних. - М.: Світ, 1989. - 540 с.

25. Сергієнко А.Б. Цифрове оброблення сигналів. - СПб.: Пітер, 2003. - 608 с.

26. Імовірнісні методи у обчислювальній техніці: Навчальний посібник для вузів. / А. В. Крайніков та ін. - М.: Вища школа, 1986. - 312 с.

27. Гурський Є.І. Теорія ймовірностей із елементами математичної статистики: Навчальний посібник для вузів. - М: Вища школа, 1971. - 328 с.

28. Ігнатов В.А. Теорія інформації та передачі сигналів. - М: Радянське радіо, 1979.

42. Ю.М. Яневич. Завдання прийому сигналів та визначення їх параметрів на тлі шумів: Курс лекцій. / СПбУ.

Про помічені помилки, помилки та пропозиції щодо доповнення: [email protected].

Щоб певною мірою охарактеризувати внутрішню структуру випадкового процесу, тобто. врахувати зв'язок між значеннями випадкового процесу в різні моменти часу або, іншими словами, врахувати ступінь мінливості випадкового процесу, вводять поняття про кореляційну (автокореляційну) функцію випадкового процесу.

Кореляційною (або автокореляційною) функцією випадкового процесу називають невипадкову функцію двох аргументів, яка для кожної пари довільно вибраних значень аргументів (моментів часу) дорівнює математичному очікуванню добутку двох випадкових величин. відповідних перерізів випадкового процесу:

Кореляційну функцію для центрованої випадкової складової називають центрованою та визначають із співвідношення

(1.58)

Часто функцію називають коваріаційною, а – автокореляційної .

Різні випадкові процеси залежно від цього, як змінюються їх статистичні характеристики з часом, ділять на стаціонарніі нестаціонарні.Розрізняють стаціонарність у вузькому значенні та стаціонарність у широкому значенні.

Стаціонарним у вузькому значенні називають випадковий процес, якщо його - мірні функції розподілу та щільності ймовірності за будь-якого не залежатьвід положення початку відліку часу. Це означає, що два процеси мають однакові статистичні властивості для будь-якого, тобто статистичні характеристики стаціонарного випадкового процесу незмінні в часі. Стаціонарний випадковий процес - це свого роду аналог усталеного процесу в динамічних системах.

Стаціонарним у широкому розумінні називають випадковий процес, математичне очікування якого постійно:

а кореляційна функція залежить тільки від однієї змінної - різниці аргументів:

Поняття випадкового процесу, стаціонарного у сенсі, вводиться тоді, як статистичних характеристик випадкового процесу використовуються лише математичне очікування і кореляційна функція. Частина теорії випадкових процесів, яка описує властивості випадкового процесу через його математичне очікування та кореляційну функцію, називають кореляційною теорією.

Для випадкового процесу з нормальним законом розподілу математичне очікування та кореляційна функція повністю визначають його n-мірну густину ймовірності. Тому для нормальних випадкових процесів поняття стаціонарності у широкому та вузькому значенні збігаються.

Теорія стаціонарних процесів розроблена найповніше і дозволяє порівняно легко проводити розрахунки багатьом практичних випадків. Тому припущення про стаціонарності іноді доцільно робити також і для тих випадків, коли випадковий процес хоч і нестаціонарний, але на аналізованому відрізку часу роботи системи статистичні характеристики сигналів не встигають суттєво змінитися.

Теоретично випадкових процесів користуються двома поняттями середніх значень. Перше поняття про середнє значення – це середнє значення по множині (або математичне очікування), яке визначається на основі спостереження над безліччю реалізацій випадкового процесу в той самий момент часу. Середнє значення по множині прийнято позначати хвилястої рисоюнад виразом, що описує випадкову функцію:

У загальному випадку середнє значення по множині є функцією часу.

Інше поняття про середнє значення – це середнє значення за часом що визначається на основі спостереження за окремою реалізацією випадкового процесу протягом досить тривалого часу. Середнє значення за часом позначають прямий рисоюнад відповідним виразом випадкової функції та визначають за формулою

, (1.62)

якщо ця межа існує.

Середнє значення за часом у випадку різне окремих реалізацій безлічі, визначальних випадковий процес.

Взагалі для одного й того ж випадкового процесу середнє за множиною і середнє за часом різні, проте для так званих ергодичних стаціонарних випадкових процесів середнє значення по множині збігається із середнім значенням за часом:

Відповідно до ергодичної теореми для стаціонарного випадкового процесу кореляційну функцію можна визначити як середнє за часом однієї реалізації

(1.64)

де - будь-яка реалізація випадкового процесу.

Центрована кореляційна функція ергодичного стаціонарного випадкового процесу

З виразу (1.65) можна помітити, що дисперсія стаціонарного випадкового процесу дорівнює початковому значенню центрованої кореляційної функції:

06 Лекція.doc

Лекція 6. Кореляційні функції випадкових процесів
План.

1. Поняття кореляційної функції випадкового процесу.

2. Стаціонарність у вузькому та в широкому сенсах.

3.Середнє значення по множині.

4.Середнє значення за часом.

5.Ергодичні випадкові процеси.
Математичне очікування і дисперсія є важливими характеристиками випадкового процесу, але вони не дають достатнього уявлення про те, який характер матимуть окремі реалізації випадкового процесу. Це добре видно із рис. 6.1, де показані реалізації двох випадкових процесів, абсолютно різних за своєю структурою, хоч і мають однакові значення математичного очікування та дисперсії. Штриховими лініями на рис. 6.1. показані значення 3 x (t) для випадкових процесів.
Процес, зображений на рис. 6.1, а,від перерізу до іншого протікає порівняно плавно, а процес на рис. 6.1, бволодіє сильною мінливістю від перерізу до перерізу. Тому статистичний зв'язок між перерізами в першому випадку більше, ніж у другому, проте ні з математичного очікування, ні з дисперсії цього встановити не можна.

Щоб певною мірою охарактеризувати внутрішню структуру випадкового процесу, тобто врахувати зв'язок між значеннями випадкового процесу в різні моменти часу або, іншими словами, врахувати ступінь мінливості випадкового процесу, необхідно ввести поняття про кореляційну (автокореляційну) функцію випадок- ного процесу.

^ Кореляційна функція випадкового процесу X(t)називають невипадкову функцію двох аргументівR x (t 1 , t 2), яка для кожної пари довільно вибраних значень аргументів (моментів часу) t 1 іt 2 дорівнює математичному очікуванню добутку двох випадкових величинX(t 1 ) таX(t 2 ) відповідних перерізів випадкового процесу:

Де 2 (x 1 , t 1 ; x 2 , t 2) -двовимірна щільність ймовірності.

Часто користуються іншим виразом кореляційної функції, записаної не для самого випадкового процесу X(t), а для центрованої випадкової складової X(t). Кореляційну функцію в цьому випадку називають центрованою та визначають із співвідношення

(6.2)

Різні випадкові процеси залежно від цього, як змінюються їх статистичні характеристики з часом, ділять на стаціонарніі нестаціонарні.Розрізняють стаціонарність у вузькому сенсі і стаціонарність у сенсі.

^ Стаціонарним у вузькому значенні називають випадковий процес X(t), якщо його n-мірні функції розподілу та щільність ймовірності при будь-якому пне залежать від положення початку відліку часу t, тобто.

Це означає, що два процеси, X(t) і X(t+), мають однакові статистичні властивості для будь-якого , Т. е. статистичні характеристики стаціонарного випадкового процесу незмінні в часі. Стаціонарний випадковий процес - це свого роду аналог встановленого процесу в детермінованих системах.

^ Стаціонарним у широкому розумінні називають випадковий процес X(t), математичне очікування якого.

А кореляційна функція залежить лише від однієї змінної - різниці аргументів =t 2 -t 1:

(6.5)

Поняття випадкового процесу, стаціонарного у сенсі,. вводиться тоді, коли як статистичні характеристики випадкового процесу використовуються тільки математичне очікування і кореляційна функція. Частина теорії випадкових процесів, яка описує властивості випадкового процесу через його математичне очікування та кореляційну функцію, називають кореляційною теорією.

Для випадкового процесу з нормальним законом розподілу математичне очікування та кореляційна функція повністю визначають його n-мірну густину ймовірності. Тому для нормальних випадкових процесів поняття стаціонарності у широкому і вузькому смислі збігаються.

Теорія стаціонарних процесів розроблена найповніше і дозволяє порівняно легко проводити розрахунки багатьом практичних випадків. Тому припущення про стаціонарності іноді доцільно робити також і тих випадків, коли випадковий процес хоч і нестаціонарний, але на аналізованому відрізку часу роботи системи статистичні характеристики сигналів не встигають скільки-небудь істотно змінитися. Надалі, якщо не буде обговорено особливо, розглядатимуться випадкові процеси, стаціонарні у сенсі.

Теоретично випадкових процесів користуються двома поняттями середніх значень. Перше поняття про середнє значення – це середнє значення по множині(або математичне очікування), яке визначається на основі спостереження над безліччю реалізації випадкового процесу в той самий момент часу. Середнє значення по множині прийнято позначати хвилястою рисою над виразом, що описує випадкову функцію:

У загальному випадку середнє значення по множині є функцією часу.

Інше поняття про середнє значення - це середнє значення за часом,яке визначається на основі спостереження за окремою реалізацією випадкового процесу x{ f) протягом досить тривалого часу Т.Середнє значення за часом позначають прямою рисою над відповідним виразом випадкової функції та визначають за формулою

(6.7)

Якщо ця межа існує.

Середнє значення за часом у випадку різне окремих реалізації безлічі, визначальних випадковий процес.

Взагалі для одного й того ж випадкового процесу середнє за множиною і середнє за часом різні, проте для так званих ергодичних стаціонарних випадкових процесів середнє значення по множині збігається із середнім значенням за часом:

(6.8)

Рівність (6.8) випливає з ергодичної теореми,в якій для деяких стаціонарних випадкових процесів доведено, що будь-яка статистична характеристика, отримана усередненням по множині, з ймовірністю, як завгодно близька до одиниці, збігається з характеристикою, усередненою за часом. Ергодична теорема доведена не для всіх стаціонарних процесів, тому в тих випадках, де вона ще не доведена, говорять про ергодичній гіпотезі.

Слід зауважити, що не всякий стаціонарний процес є ергодичним.

На рис. 6.2. зображено, наприклад, графік стаціонарного неергодичного процесу, котрого рівність (6.8) не виконується. Один і той же випадковий процес у загальному випадку може бути ергодичним по відношенню до одних статистичних характеристик і не ергодичним по відношенню до інших. Надалі вважатимемо, що умови ергодичності для математичного очікування та кореляційної функції виконуються.

Фізичний сенс ергодичної теореми (або гіпотези) є глибоким і має велике практичне значення. Для визначення статистичних властивостей ергодичних стаціонарних процесів, якщо важко здійснити одночасне спостереження за безліччю подібних систем у довільно обраний момент часу, наприклад при наявності одного дослідного зразка, його можна замінити тривалим спостереженням за однією системою. Власне, цей факт лежить в основі експериментального визначення кореляційної функції стаціонарного випадкового процесу по одній реалізації. Навпаки, за наявності великої партії виробів масової продукції для аналогічних досліджень можна провести одночасне спостереження за всіма зразками партії або їх досить представницькою вибіркою.

Як очевидно з (6.5), кореляційна функція є середнє по множині. Відповідно до ергодичної теореми для стаціонарного випадкового процесу кореляційну функцію можна визначити як середнє за часом від твору x(t) і x(t+), тобто.

(6.9)

Де x(t)- будь-яка реалізація випадкового процесу.

Центрована кореляційна функція ергодичного стаціонарного випадкового процесу

(6.10

Між кореляційними функціями R x () та R 0 x () існує наступний зв'язок:

R x ()=R x 0 ()+(x -) 2 , (6.11)

Грунтуючись на властивості ергодичності, можна дисперсію D x [див. (19)] визначити як середнє часу від квадрата центрованого випадкового процесу, тобто.

(6.12)

Порівнюючи вирази (6.10) та (6.11), можна помітити, що дисперсія стаціонарного випадкового процесу дорівнює початковому значенню центрованої кореляційної функції:

(6.13)

Враховуючи (6.12), можна встановити зв'язок між дисперсією та кореляційною функцією R x (), тобто.

З (6.14) і (6.15) видно, що дисперсія стаціонарного випадкового процесу постійна, а отже, постійно і середнє квадратичне відхилення:

Статистичні властивості зв'язку двох випадкових процесів X(t) і G(t) можна характеризувати взаємною кореляційною функцієюR xg (t 1 , t 2), яка для кожної пари довільно вибраних значень аргументів t 1 , t 2 дорівнює

Відповідно до ергодичної теореми, замість (6.18) можна записати

(6.19)

Де x(t) і g(t) - будь-які реалізації стаціонарних випадкових процесів X(t) і G(t) відповідно.

Взаємна кореляційна функція R xg ( характеризує взаємний статистичний зв'язок двох випадкових процесів X(t) і G(t) різні моменти часу, віддалені друг від друга проміжок часу т. Значення R xg(0) характеризує цей зв'язок в той самий момент часу.

З (6.19) випливає, що

(6.20)

Якщо випадкові процеси Х(t)і G(t) статистично не пов'язані один з одним і мають рівні нулю середні значення, то їх взаємна кореляційна функція для всіх дорівнює нулю. Проте зворотний висновок у тому, що й взаємна кореляційна функція дорівнює нулю, то процеси незалежні, можна зробити лише окремих випадках (зокрема, для процесів із нормальним законом розподілу), загальної ж сили зворотний закон немає.

Центрована кореляційна функція R° x ( для невипадкових функцій часу тотожно дорівнює нулю. Проте кореляційна функція R x ( може обчислюватись і для невипадкових (регулярних) функцій. Зауважимо, однак, що коли говорять про кореляційну функцію регулярної функції x(t), то під цим розуміють просто результат формального застосування до регулярної функції. x(t) операції, що виражається інтегралом (6.13).



Останні матеріали розділу:

Підготовчі річні курси у празі Мовні курси чеської мови у празі
Підготовчі річні курси у празі Мовні курси чеської мови у празі

Багато хто думає, що зможуть вивчити чеську мову на курсах, що проводяться в рідному місті, а потім одразу приїхати і вступити до університету.

Біографія У роки Великої Вітчизняної війни
Біографія У роки Великої Вітчизняної війни

Герой Радянського Союзу маршал бронетанкових військ відомий менше, ніж Жуков, Рокоссовський і Конєв. Однак для перемоги над ворогом він. Величезну...

Центральний штаб партизанського руху
Центральний штаб партизанського руху

У роки Великої Вітчизняної війни .Центральний штаб партизанського руху при Ставці Верховного Головнокомандування ЦШПД при СВГК Емблема ВС...