Перетин випадкової функції. Чисельні характеристики випадкової функції

Завдання на курсова робота

Дано: п'ять початкових моментів

а 1 = 1, а 2= 2, а 3= 2, а 4= 1, а 5 = 1 г = 0, µ 0 = 1).

Знайти: п'ять центральних моментів.

Маючи у своєму розпорядженні п'ять початкових та п'ять центральних моментів, обчислити значення:

а)математичне очікування;

б)дисперсію;

в)стандартне відхилення;

г)коефіцієнт варіації;

д)коефіцієнт асиметрії;

е)коефіцієнт ексцесії.

За отриманими даними якісно описати густину ймовірності даного процесу.

1. Теоретичні відомості

Розподіл випадкових величин та функції розподілу

Розподіл числової випадкової величини – це функція, яка однозначно визначає ймовірність того, що випадкова величинаприймає задане значенняабо належить до певного заданого інтервалу.

Перше – якщо випадкова величина приймає кінцеве числозначень. Тоді розподіл задається функцією Р (Х = х),ставить кожному можливе значення хвипадкової величини Xймовірність того, що X = x.

Друге - якщо випадкова величина набуває нескінченно багато значень. Це можливо лише тоді, коли ймовірнісний простір, на якому визначено випадкову величину, складається з нескінченного числа елементарних подій. Тоді розподіл задається набором ймовірностей Р (аХ для всіх пар чисел а, bтаких, що а Розподіл може бути поставлений за допомогою т.зв. функції розподілу F(x) = Р(Х<х), визначальною для всіх дійсних хймовірність того, що випадкова величина Xприймає значення, менші х.Зрозуміло, що

Р (аХ

Це співвідношення показує, що розподіл може бути розрахований за функцією розподілу, так і, навпаки, функція розподілу - по розподілу.

Функції розподілу, що використовуються в ймовірносно-статистичних методах прийняття рішень та інших прикладних дослідженнях, бувають або дискретними, або безперервними, або їх комбінаціями.

Дискретні функції розподілу відповідають дискретним випадковим величинам, що приймають кінцеве число значень або значення з множини, елементи якого можна перенумерувати натуральними числами (такі множини в математиці називають лічильними). Їх графік має вигляд ступінчастих сходів (рис. 1).

приклад 1.Число Xдефектних виробів у партії приймає значення 0 із ймовірністю 0,3, значення 1 із ймовірністю 0,4, значення 2 із ймовірністю 0,2 та значення 3 із ймовірністю 0,1. Графік функції розподілу випадкової величини Xзображено на рис. 1.

Мал. 1. Графік функції розподілу числа дефектних виробів.

Безперервні функції розподілу немає стрибків. Вони монотонно зростають зі збільшенням аргументу - від 0 при х→∞ до 1 при х→+∞. Випадкові величини, що мають безперервні функції розподілу, називають безперервними.

Безперервні функції розподілу, які у вероятностно-статистических методах прийняття рішень, мають похідні. Перша похідна f(x)функції розподілу F(x)називається щільністю ймовірності,

За густиною ймовірності можна визначити функцію розподілу:

Для будь-якої функції розподілу

Перелічені властивості функцій розподілу завжди використовуються у вероятностно-статистических методах прийняття рішень. Зокрема, з останньої рівності випливає конкретний вид констант у формулах для густин ймовірностей, що розглядаються нижче.

приклад 2.Часто використовується така функція розподілу:

(1)

де аі b -деякі числа, а Знайдемо щільність ймовірності цієї функції розподілу:

(У точках х = аі х = bпохідна функції F(x)не існує).

Випадкова величина з функцією розподілу (1) називається «рівномірно розподіленою на відрізку ».

Змішані функції розподілу зустрічаються, зокрема, тоді, коли спостереження у якийсь момент припиняються. Наприклад, при аналізі статистичних даних, отриманих при використанні планів випробування на надійність, що передбачають припинення випробувань після деякого терміну. Або при аналізі даних про технічні вироби, які вимагали гарантійного ремонту.

приклад 3.Нехай, наприклад, термін служби електричної лампочки – випадкова величина з функцією розподілу F(t),а випробування проводиться до виходу лампочки з ладу, якщо це станеться менш ніж за 100 годин від початку випробувань, або до моменту t0 = 100 годин. Нехай G(t) -функція розподілу часу експлуатації лампочки у справному стані при цьому випробуванні. Тоді

Функція G(t)має стрибок у точці t0 , оскільки відповідна випадкова величина набуває значення t0 з ймовірністю 1-F(t0 )>0.

Характеристики випадкових величинУ ймовірносно-статистичних методах прийняття рішень використовується ряд характеристик випадкових величин, що виражаються через функції розподілу та щільності ймовірностей.

При описі диференціації доходів, при знаходженні довірчих кордонів для параметрів розподілу випадкових величин і в багатьох інших випадках використовується таке поняття, як «квантиль порядку р»,де 0 <р < 1 (позначається хр). Квантиль порядку р- значення випадкової величини, для якого функція розподілу набуває значення рабо має місце "стрибок" зі значення менше рдо значення більше р(Рис. 2). Може статися, що ця умова виконується для всіх значень х, що належать цьому інтервалу (тобто функція розподілу постійна на цьому інтервалі і дорівнює р).Тоді кожне таке значення називається «квантилем порядку р».Для безперервних функцій розподілу, як правило, існує єдиний квантиль хр порядку р(рис. 2), причому

F(xp) = p.(2)

Мал. 2. Визначення квантилю хр порядку нар.

приклад 4.Знайдемо квантиль хр порядку рдля функції розподілу F(x)із (1).

При 0 <р < 1 квантиль хр знаходиться з рівняння

тобто. хр= а+ p(b - а) = а (1-р) + bр.При р = 0 будь-яке хає квантилем порядку p= 0. Квантилем порядку р= 1 є будь-яке число хb.

Для дискретних розподілів, як правило, не існує хр, задовольняють рівняння (2). Точніше, якщо розподіл довільної величини дається табл. 1, де x1 < х 2 <… < х до, та рівність (2), що розглядається як рівняння щодо хр, має рішення тільки для kзначень р,а саме,

p = p1

p = p1 +p2 ,

p = p1 +p2 +p3 ,

p = p1 +p2 + рт, 3<т<к,

р = р, + р2 +… +pk

Таблиця 1. Розподіл дискретної випадкової величини

Значення х випадкової величини 1 х2 хkЙмовірності Р (Х = х) P1 Р2 Рk

Для перерахованих дозначень ймовірності рРішення хр рівняння (2) не єдине, а саме,

F(x) = р, + р2 +… + Рт

для всіх хтаких, що хт < х < х т+1. Тобто. хр - будь-яке число з інтервалу т; xm+1). Для всіх інших різ проміжку (0; 1), які не входять до переліку (3), має місце «стрибок» зі значення менше рдо значення більше нар.А саме, якщо

p1 +p2 +… + pт 1 +p2 + … + pт+ pт+1,

то xр=xт+1.

Розглянута властивість дискретних розподілів створює значні труднощі при табулюванні та використанні подібних розподілів, оскільки неможливим виявляється точно витримати типові чисельні значення характеристик розподілу. Зокрема, це так для критичних значень та рівнів значущості непараметричних статистичних критеріїв (див. нижче), оскільки розподіл статистик цих критеріїв дискретні.

Велике значення у статистиці має квантиль порядку p =½. Він називається медіаною (випадкової величини Xабо її функції розподілу F(x))і позначається Ме(Х).У геометрії є поняття "медіана" - пряма, що проходить через вершину трикутника і ділить протилежну його сторону навпіл. У математичній статистиці медіана ділить навпіл не бік трикутника, а розподіл випадкової величини: рівність F(x0,5 ) = 0,5 означає, що ймовірність потрапити ліворуч x0,5 і можливість потрапити правіше x0,5 (або безпосередньо x0,5 ) рівні між собою та рівні ½ , тобто.

Медіана вказує центр розподілу. З точки зору однієї з сучасних концепцій – теорії стійких статистичних процедур – медіана є найкращою характеристикою випадкової величини, ніж математичне очікування. При обробці результатів вимірювань у порядковій шкалі (див. розділ про теорію вимірювань) медіаною можна користуватися, а математичним очікуванням – ні.

Ясний сенс має така характеристика випадкової величини, як мода - значення (або значення) випадкової величини, що відповідає локальному максимуму щільності ймовірності безперервної випадкової величини або локальному максимуму ймовірності для дискретної випадкової величини.

Якщо х0 - мода випадкової величини із щільністю f(x),те, як відомо

з диференціального обчислення,

У випадкової величини може бути багато мод. Так, для рівномірного розподілу (1) кожна точка хтака, що а< х < b, є модою. Однак це виняток. Більшість випадкових величин, які у вероятностно-статистических методах прийняття рішень та інших прикладних дослідженнях, мають одну моду. Випадкові величини, густини, розподіли, що мають одну моду, називаються унімодальними.

Математичне очікування для дискретних випадкових величин із кінцевим числом значень розглянуто у розділі «Події та ймовірності». Для безперервної випадкової величини Xматематичне очікування М(Х)задовольняє рівності

Приклад 5.Математичне очікування для рівномірно розподіленої випадкової величини Xодно

Для аналізованих у цьому розділі випадкових величин вірні всі властивості математичних очікувань і дисперсій, які були розглянуті раніше для дискретних випадкових величин з кінцевим числом значень. Однак докази цих властивостей не наводимо, оскільки вони вимагають поглиблення математичних тонкощів, що не є необхідним для розуміння і кваліфікованого застосування імовірнісно-статистичних методів прийняття рішень.

Зауваження.У цьому підручнику свідомо обходяться математичні тонкощі, пов'язані, зокрема, з поняттями вимірних множин і функцій, - алгебри подій тощо. Бажаючим освоїти ці поняття необхідно звернутися до спеціальної літератури, зокрема до енциклопедії.

Кожна з трьох характеристик – математичне очікування, медіана, мода – описує «центр» розподілу ймовірностей. Поняття «центр» можна визначати різними способами – звідси три різні характеристики. Однак для важливого класу розподілів – симетричних унімодальних – усі три характеристики збігаються.

Щільність розподілу f(x)- густина симетричного розподілу, якщо знайдеться число х0 таке, що

(3)

Рівність (3) означає, що графік функції у = f (x)симетричний щодо вертикальної прямої, що проходить через центр симетрії х = х0 . З (3) випливає, що функція симетричного розподілу задовольняє співвідношення

(4)

Для симетричного розподілу з однією модою математичне очікування, медіана та мода збігаються і рівні х0 .

Найважливіший випадок симетрії щодо 0, тобто. хп = 0. Тоді (3) і (4) переходять у рівності

(5)

(6)

відповідно. Наведені співвідношення показують, що симетричні розподіли немає необхідності табулювати при всіх х,достатньо мати таблиці при х х0 .

Відзначимо ще одну властивість симетричних розподілів, що постійно використовується у ймовірносно-статистичних методах прийняття рішень та інших прикладних дослідженнях. Для безперервної функції розподілу

Р(а) = Р(-аа) = F(a) - F(-a),

де F- функція розподілу випадкової величини X.Якщо функція розподілу Fсиметрична щодо 0, тобто. для неї справедлива формула (6), то

Р(а) = 2F(a) - 1.

Часто використовують інше формулювання розглянутого твердження: якщо

Якщо і - Квантилі порядку α та 1- α відповідно (див. (2)) функції розподілу, симетричної щодо 0, то з (6) випливає, що

Від характеристик становища – математичного очікування, медіани, моди – перейдемо до характеристик розкиду випадкової величини X:

дисперсії , середнього квадратичного відхилення σ та коефіцієнтом варіації v. Визначення та властивості дисперсії для дискретних випадкових величин розглянуті у попередньому розділі. Для безперервних випадкових величин

Середнє квадратичне відхилення – це невід'ємне значення квадратного кореня з дисперсії:

Коефіцієнт варіації – це відношення середнього квадратичного відхилення до математичного очікування:

Коефіцієнт варіації застосовується при М(Х)>0.Він вимірює розкид у відносних одиницях, тоді як середнє квадратичне відхилення - в абсолютних.

Приклад 6.Для рівномірно розподіленої випадкової величини Xзнайдемо дисперсію, середньоквадратичне відхилення та коефіцієнт варіації. Дисперсія дорівнює:

Заміна змінної дає можливість записати:

де з = (b- а)/2. Отже, середнє квадратичне відхилення одно , А коефіцієнт варіації такий:

За кожною випадковою величиною Xвизначають ще три величини – центровану Y,нормовану Vта наведену U.Центрована випадкова величина Y -це різниця між даною випадковою величиною Xта її математичним очікуванням М(Х),тобто. Y = Х - М (Х).Математичне очікування центрованої випадкової величини Р дорівнює 0, а дисперсія - дисперсії даної випадкової величини: M(Y) =0, D(Y) = D(X).Функція розподілу FY(x)центрованої випадкової величини Yпов'язана з функцією розподілу F(x)вихідної випадкової величини Xспіввідношенням:

FY(x) = F (x + М (Х)).

Для щільностей цих випадкових величин справедлива рівність

fY(x) = f (x + М (Х)).

Нормована випадкова величина V-це відношення даної випадкової величини Хдо її середнього квадратичного відхилення σ , тобто. . Математичне очікування та дисперсія нормованої випадкової величини Vвиражаються через характеристики Xтак:

де v- Коефіцієнт варіації вихідної випадкової величини X.Для функції розподілу Fv(x)та щільності fv(x)нормованої випадкової величини Vмаємо:

де F(x)- функція розподілу вихідної випадкової величини X,a f(x) -її щільність імовірності.

Наведена випадкова величина U -це центрована та нормована випадкова величина:

Для наведеної випадкової величини:

(7)

Нормовані, центровані та наведені випадкові величини постійно використовуються як у теоретичних дослідженнях, так і в алгоритмах, програмних продуктах, нормативно-технічній та інструктивно-методичній документації. Зокрема, тому, що дозволяють спростити обґрунтування методів, формулювання теорем та розрахункові формули.

Використовуються перетворення випадкових величин та більш загального плану. Так, якщо Y= аХ+ b,де аі b - Деякі числа, то

(8)

Приклад 7.Якщо то У -наведена випадкова величина і формули (8) переходять у формули (7).

З кожною випадковою величиною Xможна пов'язати безліч випадкових величин Y,заданих формулою У= аХ+bпри різних а>0і b.Це безліч називають масштабно-зсувним сімейством,породженим випадковою величиною X.Функції розподілу FY(x)складають масштабно зсувне сімейство розподілів, породжене функцією розподілу F(x).Замість Y= аХ+ bчасто використовують запис

(9)

Число зназивають параметром зсуву, а число d- Параметром масштабу. Формула (9) показує, що Х -результат виміру деякої величини - перетворюється на У - результат виміру тієї ж величини, якщо початок виміру перенести на точку с,а потім використовувати нову одиницю вимірювання, dразів більшу за стару.

Для масштабно-сдвигового сімейства (9) розподіл X називають стандартним. У імовірнісно-статистичних методах прийняття рішень та інших прикладних дослідженнях використовують стандартний нормальний розподіл, стандартний розподіл Вейбулла-Гніденко, стандартний гамма-розподіл та ін. (Див. нижче).

Застосовують інші перетворення випадкових величин. Наприклад, для позитивної випадкової величини Xрозглядають Y=g X,де lg X-десятковий логарифм числа X.Ланцюжок рівностей

Лабораторна робота №4

ВИПАДКОВІ ПРОЦЕСИ
ТА ЇХ ХАРАКТЕРИСТИКИ

4.1. МЕТА РОБОТИ

Ознайомлення із основними поняттями теорії випадкових процесів. Виконує виміри моментних характеристик та оцінки ПРВ миттєвих значень випадкових процесів. Аналіз виду автокореляційної функції (АКФ) та спектральної щільності потужності (СПМ) випадкового процесу. Дослідження перетворень випадкового процесу лінійними стаціонарними та нелінійними безінерційними ланцюгами.

4.2. ТЕОРЕТИЧНІ ВІДОМОСТІ

Випадкові події та випадкові величини
Подія, яка може статися або не відбутися в деякому досвіді, називається випадковою подієюі характеризується ймовірністюздійснення
. Випадкова величина(СВ)
може прийняти у досвіді одне значення з деякої множини
; це значення називається реалізацією цієї СВ. може бути, наприклад, безліччю речових чисел або його підмножиною. Якщо множина звичайно або рахункова (дискретна СВ), можна говорити про ймовірність
здійснення події, яке полягає у прийнятті випадковою величиною значення , тобто на множині значень дискретної випадкової величини задається розподіл ймовірностей. Якщо безліч незліченна (наприклад, вся речова пряма), то повний опис випадкової величини дає функція розподілу,обумовлена ​​виразом

,

де
. Якщо функція розподілу безперервна і диференційована, можна визначити щільність розподілу ймовірностей(ПРВ), звану також для стислості ймовірності
(а іноді просто щільністю):

, при цьому
.

Очевидно, функція розподілу - невід'ємна незнижена функція з властивостями
,
. Отже,
ПРВ – невід'ємна функція, що задовольняє умові нормування
.

Іноді обмежуються числовими характеристиками випадкової величини, найчастіше моментами. Початковиймомент -го порядку (-й початковий момент)

,

де горизонтальна риса та
– символічні позначення інтегрального оператора усереднення ансамблю. Перший початковий момент
, називається математичним очікуваннямчи центром розподілу.

Центральниймомент-го порядку (-й центральний момент)

Найбільш уживаним із центральних моментів є другий центральний момент, або дисперсія

Замість дисперсії часто оперують середньоквадратичним відхиленням(СКО) випадкової величини
.

^ Середній квадрат, або другий початковий момент
, пов'язаний з дисперсією та математичним очікуванням:

Для опису форми ПРВ використовують коефіцієнт асиметрії
та коефіцієнт ексцеса
(Іноді ексцес характеризують величиною
).

Часто використовується нормальний, або гауссівський (гаусовий), розподіл з ПРВ

,

де і – параметри розподілу (математичне очікування та СКО відповідно). Для Гаусівського розподілу
,
.

Дві випадкові величини та характеризуються спільноїщільністю розподілу
. Числовими характеристиками спільної щільності є початкові та центральні змішанімоменти

,
,

де і - довільні цілі позитивні числа;
і – математичні очікування СВ xі y.

Найчастіше використовуються змішані моменти другого порядку – початковий ( кореляційниймомент):

та центральний ( коварійниймомент, або коваріація)

.

Для пари гауссівських випадкових величин двовимірна спільна ПРВ має вигляд

де , - Середньоквадратичні відхилення;
– математичні очікування; коефіцієнт кореляції– нормований підступний момент

.

При нульовому коефіцієнті кореляції очевидно,

,

тобто. некорельованігауссівські випадкові величини незалежні.
^

Випадкові процеси

Випадковий процес – це послідовність випадкових величин, впорядкована за зростанням деякою змінною (найчастіше часу). Перейти від опису випадкової величини до опису випадкового процесу можна розглядаючи спільні розподіли двох, трьох і більше значень процесу в деякі різні моменти часу. Зокрема, розглядаючи процес у тимчасових перерізах(при
), отримуємо -мірні спільні функцію розподілу та щільність розподілу ймовірностей випадкових величин

, що визначаються виразом

.

Випадковий процес вважається цілком певним, якщо для будь-кого можна записати його спільну ПРВ за будь-якого вибору моментів часу
.

Часто при описі випадкового процесу можна обмежитись сукупністю його змішаних початкових моментів (якщо вони існують, тобто сходяться відповідні інтеграли)

та змішаних центральних моментів

при цілих невід'ємних
і цілому.

У випадку моменти спільної ПРВ залежить від розташування перерізів на осі часу і називаються моментними функціями. Найчастіше використовують другий змішаний центральний момент

,

званий функцією автокореляції або автокореляційною функцією (АКФ). Нагадаємо, що тут і надалі явно не вказано залежність від часу, а саме – функціями часу є
,
і
.

Можна розглядати спільно два випадкові процеси
і
; такий розгляд передбачає їх опис як спільної багатовимірної ПРВ, і навіть як сукупності всіх моментів, зокрема змішаних. Найчастіше у своїй використовують другий змішаний центральний момент

,

званий взаємно-кореляційною функцією
.

Серед усіх випадкових процесів виділяють СП, котрим спільна -вимірна ПРВ не змінюється при одночасному зміні (зрушенні) всіх тимчасових перерізів однією й саму величину. Такі процеси називаються стаціонарними у вузькому значенніабо строго стаціонарними.

Найчастіше розглядають ширший клас випадкових процесів з ослабленими властивостями стаціонарності. СП називається стаціонарним у широкому розумінніякщо при одночасному зрушенні перерізів не змінюються лише його моменти не вище за другийпорядку. Практично це означає, що СП стаціонарний у широкому значенні, якщо він має постійні середня(математичне очікування) та дисперсію
, а АКФ залежить тільки від різниці моментів часу, але не від їх положень на тимчасовій осі:

1)
,

2) ,
.

Зауважимо, що
, звідки і випливає сталість дисперсії.

Неважко переконатися, що процес, стаціонарний у вузькому значенні, стаціонарний і широкому значенні. Зворотне твердження взагалі неправильне, хоча існують процеси, котрим стаціонарність у сенсі тягне стаціонарність у вузькому значенні.

Спільна-вимірна ПРВ відліків
гаусівського процесу, взятих у тимчасових перерізах, має вигляд

, (4.1)

де - Визначник квадратної матриці, складеної з попарних коефіцієнтів кореляції відліків;
– алгебраїчне доповнення елемента цієї матриці.

Спільна гаусовська ПРВ за будь-якого повністю визначається математичними очікуваннями, дисперсіями і коефіцієнтами кореляції відліків, тобто моментними функціями не вище другого порядку. Якщо гаусовский процес стаціонарний у сенсі, всі математичні очікування однакові, все дисперсії (отже, і СКО) рівні одне одному, а коефіцієнти кореляції визначаються лише тим, наскільки тимчасові перерізи відстоять друг від друга. Тоді, очевидно, ПРВ (4.1) не зміниться, якщо всі тимчасові перерізи зрушити ліворуч або праворуч на одну й ту саму величину. Звідси слідує що гаусівський процес, стаціонарний у широкому розумінні, стаціонарний та у вузькому сенсі(Строго стаціонарний).

Серед строго стаціонарних випадкових процесів часто виділяють вужчий клас ергодичнихвипадкових процесів. Для ергодичних процесів моменти, знайдені усередненням по ансамблю, дорівнюють відповідним моментам, знайденим усередненням за часом:

,

(тут – символічне позначення оператора усереднення за часом).

Зокрема, для ергодичного процесу математичне очікування, дисперсія та АКФ рівні відповідно

,

,

Ергодичність дуже бажана, тому що дає можливість практично вимірювати (оцінювати) числові показники випадкового процесу. Справа в тому, що зазвичай спостерігачеві доступна лише одна (хоча, можливо, досить довга) реалізація випадкового процесу. Ергодичність означає, по суті, що ця єдина реалізація є повноправним представником всього ансамблю.

Вимір характеристик ергодичного процесу може бути виконано за допомогою простих вимірювальних пристроїв; так, якщо процес є напругою, що залежить від часу, то вольтметр магнітоелектричноїсистеми вимірює його математичне очікування (постійну складову), вольтметр електромагнітної або термоелектричної системи, підключений через розподільчу ємність (для виключення постійної складової) – його середньоквадратичне значення (СКО). Пристрій, структурна схема якого показано на рис. 4.1 дозволяє виміряти значення функції автокореляції при різних . Фільтр нижніх частот відіграє роль інтегратора, конденсатор виконує центрування процесу, оскільки не пропускає постійну складову струму. Цей пристрій називається корелометром.


Мал. 4.1

Достатніми умовами ергодичності стаціонарного випадкового процесу є умова
, а також менш сильне умова Слуцького
.
^

Дискретні алгоритми оцінювання параметрів СП

Наведені вище вирази знаходження оцінок параметрів СП і кореляційної функції справедливі для безперервного часу. У цій лабораторній роботі (як і в багатьох сучасних технічних системах та приладах) аналогові сигнали генеруються та обробляються цифровими пристроями, що призводить до необхідності певної зміни відповідних виразів. Зокрема, для визначення оцінки математичного очікування використовується вираз вибіркового середнього

,

де
- Послідовність відліків процесу ( вибіркаобсягу
). Оцінкою дисперсії є вибіркова дисперсія, що визначається виразом

.

Оцінка автокореляційної функції, інакше звана корелограмою, знаходиться як

.

Оцінка щільності розподілу ймовірностей миттєвого значення ССП служить гістограма. Для її знаходження діапазон можливих значень СП розбивається на інтервалів рівної ширини, потім для кожного -го інтервалу підраховується кількість відліків вибірки, які у нього. Гістограма є набір чисел
зазвичай зображується у вигляді гратчастої діаграми. Кількість інтервалів при заданому обсязі вибірки вибирається виходячи з компромісу між точністю оцінювання та роздільною здатністю (ступенем подробиці) гістограми.
^

Кореляційно-спектральна теорія випадкових процесів

Якщо цікавитися лише моментними характеристиками першого і другого порядку, які визначають властивість стаціонарності у сенсі, то опис стаціонарного СП складає рівні автокореляційної функції
та спектральної щільності потужності
, пов'язаних парою перетворень Фур'є ( теорема Вінера-Хінчина):

,
.

Очевидно, СПМ – невід'ємнафункція. Якщо процес має ненульове математичне очікування, то до СПМ додається доданок
.

Для речового процесу АКФ і СПМ – парні речові функції.

Іноді можна обмежитися числовими характеристиками – інтервалом кореляції та ефективною шириною спектра. ^ Інтервал кореляції визначають по-різному, зокрема, відомі такі визначення

Ми мали багато випадків переконатися в тому, яке велике значення в теорії ймовірностей мають основні числові характеристики випадкових величин: математичне очікування та дисперсія – для однієї випадкової величини, математичні очікування та кореляційна матриця – для системи випадкових величин. Мистецтво користуватися числовими характеристиками, залишаючи наскільки можна осторонь закони розподілу, - основа прикладної теорії ймовірностей. Апарат числових характеристик є дуже гнучкий і потужний апарат, що дозволяє порівняно просто вирішувати багато практичних завдань.

Абсолютно аналогічним апаратом користуються і теорії випадкових функцій. Для випадкових функцій вводяться найпростіші основні характеристики, аналогічні числовим характеристикам випадкових величин, і встановлюються правила дій з цими характеристиками. Такий апарат виявляється достатнім для вирішення багатьох практичних завдань.

На відміну від числових характеристик випадкових величин, що дають певні числа, характеристики випадкових функцій є у випадку не числа, а функції.

Математичне очікування випадкової функції визначається в такий спосіб. Розглянемо переріз випадкової функції при фіксованому. У цьому перерізі маємо звичайну випадкову величину; визначимо її математичне очікування. Вочевидь, у випадку воно залежить від , т. е. є деяку функцію :

. (15.3.1)

Таким чином, математичним очікуванням випадкової функції називається невипадкова функція, яка при кожному значенні аргументу дорівнює математичному очікуванню відповідного перерізу випадкової функції.

За змістом математичне очікування випадкової функції є деяка середня функція, при якій по-різному варіюються конкретні реалізації випадкової функції.

На рис. 15.3.1 тонкими лініями показано реалізацію випадкової функції, жирною лінією - її математичне очікування.

Аналогічним чином визначається дисперсія випадкової функції.

Дисперсією випадкової функції називається невипадкова функція, значення якої для кожного дорівнює дисперсії відповідного перерізу випадкової функції:

. (15.3.2)

Дисперсія випадкової функції при кожному характеризує розкид можливих реалізацій випадкової функції щодо середнього, тобто «ступінь випадковості» випадкової функції.

Вочевидь є невід'ємна функція. Витягаючи з неї квадратний корінь, отримаємо функцію - середнє відхилення випадкової функції:

. (15.3.3)

Математичне очікування та дисперсія є дуже важливими характеристиками випадкової функції; проте для опису основних особливостей випадкової функції цих характеристик недостатньо. Щоб переконатися в цьому, розглянемо дві випадкові функції і наочно зображені сімействами реалізацій на рис. 15.3.2 та 15.3.3.

У випадкових функцій і приблизно однакові математичні очікування та дисперсії; проте характер цих випадкових функцій різко різний. Для випадкової функції (рис. 15.3.2) характерна плавна, поступова зміна. Якщо, наприклад, у точці випадкова функція прийняла значення, що помітно перевищує середнє, то ймовірно, що і в точці вона також набуде значення більше середнього. Для випадкової функції характерна яскраво виражена залежність між її значеннями за різних. Навпаки, випадкова функція (рис. 15.3.3) має різко коливальний характер із неправильними, безладними коливаннями. Для такої випадкової функції характерне швидке згасання залежності між її значеннями в міру збільшення відстані між ними.

Вочевидь, внутрішня структура обох випадкових процесів абсолютно різна, але це відмінність не вловлюється ні математичним очікуванням, ні дисперсією; на його описи необхідно вести спеціальну характеристику. Ця характеристика називається кореляційною функцією (інакше – автокореляційною функцією). Кореляційна функція характеризує рівень залежності між перерізами випадкової функції, що належать до різних .

Нехай є довільна функція (рис. 15.3.4); розглянемо два її перерізи, що належать до різних моментів: і , тобто дві випадкові величини і . Вочевидь, що з близьких значеннях і величини пов'язані тісної залежністю: якщо величина прийняла якесь значення, те й величина з великою ймовірністю прийме значення, близьке щодо нього. Очевидно також, що при збільшенні інтервалу між перерізами, залежність величин і взагалі повинна зменшуватися.

Ступінь залежності величин і може бути значною мірою охарактеризовано їх кореляційним моментом; Зрозуміло, він є функцією двох аргументів і . Ця функція називається кореляційною функцією.

Таким чином, кореляційною функцією випадкової функції називається невипадкова функція двох аргументів, яка при кожній парі значень дорівнює кореляційному моменту відповідних перерізів випадкової функції:

, (15.3.4)

, .

Повернемося до прикладів випадкових функцій (рис. 15.3.2 і 15.3.3). Ми бачимо тепер, що при однакових математичних очікуваннях і дисперсіях випадкові функції мають абсолютно різні кореляційні функції. Кореляційна функція випадкової функції повільно зменшується в міру збільшення проміжку; навпаки, кореляційна функція випадкової функції швидко зменшується зі збільшенням цього проміжку.

З'ясуємо, у що звертається кореляційна функція, коли її аргументи збігаються. Вважаючи, маємо:

, (15.3.5)

т. е. при кореляційній функції звертається в дисперсію випадкової функції.

Таким чином, необхідність дисперсії як окремої характеристики випадкової функції відпадає: як основні характеристики випадкової функції досить розглядати її математичне очікування і кореляційну функцію.

Оскільки кореляційний момент двох випадкових величин і залежить від послідовності, у якій ці величини розглядаються, то кореляційна функція симетрична щодо своїх аргументів, т. е. змінюється при зміні аргументів місцями:

. (15.3.6)

Якщо зобразити кореляційну функцію як поверхні, то ця поверхня буде симетрична щодо вертикальної площині , що проходить через бісектрису кута (рис. 15.3.5).

Зауважимо, що властивості кореляційної функції природно випливають із властивостей кореляційної матриці системи випадкових величин. Справді, замінимо приблизно випадкову функцію системою випадкових величин . При збільшенні та відповідному зменшенні проміжків між аргументами кореляційна матриця системи, що представляє собою таблицю про два входи, в межі переходить у функцію двох безперервно змінюваних аргументів, що володіє аналогічними властивостями. Властивість симетричності кореляційної матриці щодо головної діагоналі перетворюється на властивість симетричності кореляційної функції (15.3.6). По головній діагоналі кореляційної матриці стоять дисперсії випадкових величин; аналогічно при кореляційній функції звертається в дисперсію.

Насправді, якщо потрібно побудувати кореляційну функцію випадкової функції , зазвичай надходять так: задаються рядом рівновіддалених значень аргументу і будують кореляційну матрицю отриманої системи випадкових величин. Ця матриця не що інше, як таблиця значень кореляційної функції для прямокутної сітки значень аргументів на площині . Далі, шляхом інтерполювання чи апроксимації можна побудувати функцію двох аргументів .

Замість кореляційної функції можна користуватися нормованою кореляційною функцією:

, (15.3.7)

яка є коефіцієнт кореляції величин , . Нормована кореляційна функція аналогічна до нормованої кореляційної матриці системи випадкових величин. При нормовані кореляційна функція дорівнює одиниці.

Лекція 13. Випадкові процеси Основні поняття. Закон розподілу та . Стаціонарні, ергодичес

Лекція 13
Випадкові процеси
Основні поняття. Закон розподілу та основні характеристики
випадкових процесів. Стаціонарні, ергодичні, елементарні випадкові
процеси
(Ахметов С.К.)

Визначення

Випадковим процесом X(t) називається процес, значення якого при
будь-яким фіксованим t = ti є СВ X(ti)
Реалізацією випадкового процесу X(t) називається невипадкова функція
х(t), на яку перетворюється випадковий процес X(t) в результаті досвіду
Перетин випадкового процесу (випадкової функції) – це випадкова
величина X(ti) за t = ti.

Випадковий процес X(t) називається процесом з дискретним
часом, якщо система, в якій він протікає, може міняти
свої стани тільки в моменти t1, t2, t3….. tn, кількість яких
звичайно чи рахунково

часом, якщо переходи системи зі стану до стану можуть
відбуватися в будь-який момент часу t періоду, що спостерігається
Випадковий процес X(t) називається процесом з безперервним
станом, якщо його перетин у будь-який момент t представляє
собою не дискретну, а безперервну величину
Випадковий процес X(t) називається процесом з дискретним
станом, якщо в будь-який момент часу t безліч його
станів звичайно або рахунково, тобто, якщо його перетин у будь-якій
момент t характеризується дискретною випадковою величиною

Класифікація випадкових процесів

Таким чином, всі СП можна розділити на 4 класи:
Процеси
часом;
Процеси
часом;
Процеси
часом;
Процеси
часом.
з дискретним станом та дискретним
з дискретним станом та безперервним
з безперервним станом та дискретним
з безперервним станом та безперервним
Більшість гідрологічних процесів є
процесами з безперервним станом та безперервним
часом. Але при введенні кроку дискретності за часом вони
перетворюються з процесу з безперервним часом у
процес із дискретним часом. При цьому процес залишається
безперервним за станом

Основні характеристики випадкових процесів

Перетин випадкового процесу х(t) за будь-якого фіксованого значення
аргументу t є СВ, яка має закон розподілу
F(t, x) = P(X(t)< x}
Це одновимірний закон розподілу випадкового процесу X(t)
Але, він не є вичерпною характеристикою СП, оскільки
характеризує властивості будь-якого, але окремо взятого перерізу і не дає
уявлення про спільний розподіл двох або більше перерізів.
Це видно на малюнку, де показано два СП з різними імовірнісними
структурами, але примірне однаковими розподілами СВ у кожному
перерізі

Основні характеристики випадкових процесів

Тому повнішою характеристикою СП є двовимірний закон
розподілу
F(t1, t2, x1, x2) = P (X (t1)< x1, X(t2) < x2}
Загалом вичерпною характеристикою СП є n мірний закон розподілу
На практиці замість багатовимірних законів розподілу використовують
основні характеристики СП, такі як МО, дисперсія, початкові та
центральні моменти, але тільки для СП ці характеристики не будуть
числами, а функціями
Математичне очікування СП X(t) - невипадкова функція mx(t),
яка за будь-якого значення аргументу t дорівнює математичному
очікування відповідного перерізу СП:
де f1(x,t) – одномірна густина розподілу СП X(t)

Основні характеристики випадкових процесів

МО СП є деякою «середньою» функцією, навколо
якої відбувається розкид СП
Якщо з СП X(t) відняти його МО, то отримаємо центрований СП:
X0(t) = X(t) – mx(t)
Дисперсією СП X(t) називається невипадкова функція СП X(t), яка
при будь-якому значенні аргументу t дорівнює дисперсії соот – го перерізу СП X(t)
СП X(t) = D = M(2)
Середньоквадратичним відхиленням СП X(t) називається невипадковим
функція σx(t), яка дорівнює кореню квадратному з дисперсії СП:
σx(t) = σ = √Dx(t)

Основні характеристики випадкових процесів

Для повної характеристики СП необхідно враховувати взаємозв'язок
між різними перерізами. Тому до комплексу перерахованих
Показників необхідно додати також кореляційну функцію СП:
Кореляційною (або коваріаційною) функцією СП X(t) називається
невипадкова функція Kx(t,t'), яка за кожної пари значень
аргументів t і t' дорівнює кореляції відповідних перерізів X(t) та X(t')
Kx(t,t') = M(x)
або
Kx(t,t') = M = M - mx(t) mx(t')
Властивості кореляційної функції:
- за рівності t = t' кореляційна функція дорівнює дисперсії СП, тобто.
Kx(t,t') = Dx(t)
- кореляційна функція Kx(t,t') симетрична щодо своїх
аргументів, тобто
Kx(t,t') = Kx(t',t)

Основні характеристики випадкових процесів

Нормованою кореляційною функцією rx(t,t') СП X(t) називається
функція, отримана розподілом кореляційної функції на твір
середньоквадратичних відхилень σx(t) σx(t’)
rx(t,t’) = /(σx(t)σx(t’)) = /(√(Dx(t)Dx(t’))
Властивості нормованої кореляційної функції:
- за рівності аргументів t і t' нормована кореляційна функція
дорівнює одиниці rx(t,t') = 1
-нормована кореляційна функція симетрична щодо
своїх аргументів, тобто rx(t,t') = rx(t',t)
- нормована кореляційна функція за модулем не перевищує
одиницю rx(t,t’) ≤ 1

Основні характеристики випадкових процесів

Скалярний СП – це коли йдеться про одне СП, як було досі
пір.
Векторний СП це коли розглядаються 2 і більше СП.
Допустимо задані витрати води у кількох створах у часі
У цьому випадку для характеристики СП необхідно знати для кожного
скалярного процесу:
-МО
-кореляційну функцію
-взаємну кореляційну функцію
Взаємною кореляційною функцією Ri,j(t,t') двох випадкових
процесів X(t) і X(t') називається невипадкова функція двох
аргументів t і t', яка при кожній парі значень t і t' дорівнює
коваріації (лінійного зв'язку) двох перерізів СП X(t) та X(t')
Ri,j(t,t') = M

Стаціонарні випадкові процеси

Стаціонарні СП - це СП, у яких всі імовірнісні
Показники не залежать від часу, тобто:
- mx = const
- Dx = const
Відмінність стаціонарних та нестаціонарних СП показано на малюнку
а) стаціонарний СП
б) нестаціонарний СП з МО
с) нестаціонарне СП з дисперсії

Властивості кореляційної функції стаціонарного СП

Четність функції від свого аргументу, тобто kx(τ) = kx(-τ)
τ – зрушення всіх тимчасових аргументів СП на однакову величину Θ
k – кореляційна функція СП при Kx(t1,t2) = kx(τ)
Значення кореляційної функції стаціонарного СП при нульовому
зсуві τ дорівнює дисперсії СП
Dx = Kx (t1, t2) = kx (t - t) = kx (0)
|kx(τ)| ≤ kx(0)
Крім кореляційної функції використовується нормована
кореляційна функція стаціонарного СП, яку називають
автокореляційною функцією
rx(τ) = kx(τ)/Dx = kx(τ)/kx(0)

Ергодичні випадкові процеси

Ергодична властивість СП - це коли по одній достатньо
тривалої реалізації СП можна судити про СП загалом
Достатньою умовою ергодичності СП є умова
lim kx(τ) = 0
при ? → ∞, тобто. зі збільшенням зсуву між перерізами
кореляційна функція згасає
На малюнку показані а) неергодичний та б) ергодичний СП
На практиці (найчастіше) ми змушені приймати гіпотезу про
стаціонарності та ергодичності гідрологічних процесів, щоб
існуючій раді судити про всю генеральну сукупність

Елементарні випадкові процеси

Елементарний СП (е.с.п) – це така функція аргументу t для
якої залежність від t представлена ​​звичайною невипадковою функцією,
в яку як аргумент входить одна або кілька звичайних СВ
Тобто кожна СВ породжує свою реалізацію СП
Наприклад, якщо в якомусь створі гілка спаду повені є
стійкою та описується рівнянням
Q(t) = Qне-at
a - районний параметр (a>0)
Qн – витрата води в початковий момент часу t = t0
то процес спаду повені можна вважати е.с.п., де a - невипадкова
величина, Qн -випадкова величина

СЕВАСТОПОЛЬСЬКИЙ ДЕРЖАВНИЙ УНІВЕРСИТЕТ

М.М. Гхашим, Т.В.Чернеуцану

ВИПАДКОВІ ФУНКЦІЇ

Навчальний посібник

Затверджено

вченою радою інституту

Севастополь


Гхашим М.М., Т.В.Чернеуцану

Випадкові функції: учеб.-метод. допомога. - Севастополь: ПівнДУ, 2015.

У даному посібнику розглянуто три основні розділи: «», «», «». Кожен із розділів включає у собі основні питання теорії, розбір типових прикладів, завдання самостійної роботи з відповідями до них.

призначено для студентів третього курсу щодо теми « ».

Рецензенти:

к.ф.-м.

к.т.н, доцент

нк.ф.-м.н. доцент

© Видання ПівнДУ, 2015

§ 1. Поняття про випадкову функцію……………………………………

§ 2. Характеристики випадкових функций……………………………

§ 3. Оператор динамічної системи……………………………….

§ 4. Лінійні перетворення випадкових функций………………

§ 5. Стаціонарні випадкові процеси……………………

§ 6. Спектральне розкладання стаціонарної випадкової функції………

§ 7. Ергодична властивість стаціонарних випадкових функций………….

Рішення типових завдань………………………………………………..

Завдання для самостійного рішення………………………………

ЛІТЕРАТУРА………………………………………………………………

Випадкові функції

Концепція випадкової функції.

У курсі теорії ймовірностей основним предметом дослідження були випадкові величини, які характеризувалися тим, що в результаті досвіду набували деяке одне, заздалегідь невідоме, але єдине значення. Тобто випадкові явища вивчалися як би в «статиці», в якихось фіксованих постійних умовах окремого досвіду. Однак на практиці часто доводиться мати справу з випадковими величинами, які постійно змінюються в процесі досвіду. Наприклад, кут попередження при безперервному прицілюванні по меті, що рухається; відхилення траєкторії керованого снаряда від теоретичної у процесі управління чи самонаведення, тощо. У принципі, будь-які системи з автоматизованим управлінням висувають певні вимоги до відповідної теоретичної бази – теорії автоматичного управління. Розвиток цієї теорії неможливий без аналізу помилок, які неминуче супроводжують процеси управління, які завжди протікають в умовах безперервно діючих випадкових збурень або «перешкод». Ці збурення за своєю природою є випадковими функціями. Отже:



Визначення . Випадковою функцією X(t) називають функцію невипадкового аргументу t, Що при кожному фіксованому значенні аргументу є випадковою величиною.

Конкретний вид, що приймається випадковою функцією X(t) в результаті досвіду, називається реалізацією довільної функції.

приклад . Літак на повітряному курсі має теоретично постійну повітряну швидкість V. Фактично його швидкість коливається біля цього середнього номінального значення і є випадковою функцією часу. Політ можна розглядати як досвід, у якому випадкова функція V(t) приймає певну реалізацію (Рис.1).


Від досвіду до досвіду вид реалізації змінюється. Якщо літаку встановлено самописець, він у кожному польоті запише нову, відмінну з інших, реалізацію випадкової функції. Внаслідок кількох польотів можна отримати сімейство реалізацій випадкової функції V(t) (Рис.2).

Насправді зустрічаються випадкові функції, що залежать не від одного аргументу, а від декількох, наприклад, стан атмосфери (температура, тиск, вітер, опади). У цьому курсі ми розглядатимемо лише випадкові функції одного аргументу. Оскільки цим аргументом найчастіше є час, будемо позначати його літерою t. Крім того, умовимося позначати випадкові функції великими літерами ( X(t), Y(t), …) на відміну від невипадкових функцій ( x(t),y(t), …).

Розглянемо деяку випадкову функцію X(t). Припустимо, що над нею зроблено nнезалежних дослідів, в результаті яких отримано n реалізацій, які ми позначимо відповідно до номерів дослідів x 1 (t), x 2 (t), …, x n(t). Очевидно, кожна реалізація є звичайною (не випадковою) функцією. Таким чином, у результаті кожного досвіду випадкова функція X(t) перетворюється на не випадкову функцію.

Зафіксуємо тепер певне значення аргументу t. В цьому випадку випадкова функція X(t) перетвориться на випадкову величину.

Визначення. Перетином випадкової функції X(t) називають випадкову величину, що відповідає фіксованому значенню аргументу випадкової функції.

Ми, що випадкова функція поєднує у собі риси випадкової величини і функції. Надалі часто будемо поперемінно розглядати ту саму функцію X(t) як випадкову функцію, як випадкову величину, залежно від цього, розглядається вона у всьому діапазоні зміни tабо за його фіксованого значення.

Розглянемо випадкову величину X(t) - переріз випадкової функції в момент t. Ця випадкова величина, очевидно, має закон розподілу, який у загальному випадку залежить від t. Позначимо його f(x, t). Функція f(x, t) називається одномірним законом розподілувипадкової функції X(t).

Очевидно, функція f(x, t) не є повною, вичерпною характеристикою випадкової функції X(t), т.к. вона характеризує лише закон розподілу X(t) для даного, хоч і довільного tі не відповідає на запитання щодо залежності випадкових величин X(t) при різних t. З цієї точки зору повнішою характеристикою випадкової функції X(t) є так званий двомірний закон розподілу: f(x 1 , x 2 ; t 1 , t 2). Це – закон розподілу системи двох випадкових величин X(t 1), X(t 2), тобто. двох довільних перерізів випадкової функції X(t). Але й ця характеристика у випадку не є вичерпною. Очевидно, теоретично можна необмежено збільшувати кількість аргументів і отримувати все більш повну характеристику випадкової функції, але оперувати такими громіздкими характеристиками, що залежать від багатьох аргументів, дуже важко. У межах цього курсу ми взагалі користуватися законами розподілу, а обмежимося розглядом найпростіших характеристик випадкових функцій, аналогічних числовим характеристикам випадкових величин.



Останні матеріали розділу:

Валентин Олексійович Соболєв
Валентин Олексійович Соболєв

Заступник секретаря Ради Безпеки РФ з квітня 1999 р. (був знову затверджений на цій посаді у травні 2000 р.); народився 11 березня 1947 р. в аулі.

Сума проекцій сил на вісь
Сума проекцій сил на вісь

У тих випадках, коли на тіло діє більше трьох сил, а також коли невідомі напрямки деяких сил, зручніше під час вирішення завдань користуватися...

Чому неприйнятні уроки статевого «освіти» у школах?
Чому неприйнятні уроки статевого «освіти» у школах?

Статеве виховання в російській школі: чи потрібний нам досвід Америки? Р.Н.Федотова, Н.А.Самарец Малюки ростуть на очах, і, не встигнувши озирнутися, ми...