Закон розподілу випадкових величин – сума. Нормальний закон розподілу системи двох випадкових величин

Нехай простір елементарних результатів випадкового експериментутаке, що кожному результату i j ставитися у відповідність значення випадкової величини, що дорівнює x i і значення випадкової величини, що дорівнює y j.

  • 1. Уявімо велику сукупність деталей, що мають вигляд стрижня. Експеримент полягає у випадковому виборі одного стрижня. Цей стрижень має довжину, яку будемо позначати і товщину (можна вказати інші параметри-обсяг, вага, чистота обробки, виражена в стандартних одиницях).
  • 2. Якщо розглянути акції двох різних корпорацій, то на цей день біржових торгів кожна з них характеризується певною прибутковістю. Випадкові величини - це прибутковості акцій цих корпорацій.

У цих випадках ми можемо говорити про спільний розподіл випадкових величинабо про "двовимірну" випадкову величину.

Якщо дискретні і приймають кінцеве число значень (- nзначень, а - kзначень), то закон спільного розподілу випадкових величин і можна задати, якщо кожній парі чисел x i , y j(де x iналежить безлічі значень, а y j-множині значень) поставити у відповідність ймовірність p i j , рівну ймовірностіподії, що поєднує всі результати i j(і що складається лише з цих результатів), які призводять до значень = xi; = y j.

Такий закон розподілу можна поставити у вигляді таблиці:

Очевидно:

Якщо підсумувати все р i jв i-й рядку, то отримаємо:

Імовірність того, що випадкова величина набуде значення x i . Аналогічно, якщо підсумувати все р i jв j-м стовпці, то отримаємо:

ймовірність того, що набуває значення y j .

Відповідність x i P i (i = 1,2,n) визначає закон розподілу, також як відповідність y j P j (j = 1,2,k) визначає закон розподілу випадкової величини.

Очевидно:

Раніше ми говорили, що випадкові величини і незалежні, якщо:

pij = PiP j (i= 1,2,,n;j= 1,2,k).

Якщо це не виконується, то залежні.

У чому проявляється залежність випадкових величин і як її виявити з таблиці?

Розглянемо стовпець y 1 . Кожному числу x iпоставимо у відповідність число:

p i/ 1 = (1)

яке будемо називати умовною ймовірністю = x iпри = y 1 . Це не ймовірність P iподії = x i, і порівняйте формулу (1) з уже відомою формулоюумовної ймовірності:

Відповідність x i р i / 1 , (i=1,2,n) називатимемо умовним розподілом випадкової величини при = y 1 . Очевидно:

Аналогічні умовні закони розподілу випадкової величини можна побудувати за всіх інших значеннях, рівних y 2 ;y 3 , y n, ставлячи у відповідність до числа x iумовну ймовірність:

p i/j = ().

У таблиці наведено умовний закон розподілу випадкової величини при = y j

Можна запровадити поняття умовного математичного очікування при = y j

Зауважимо, що й рівноцінні. Можна ввести умовний розподіл при = x iвідповідністю

(j = 1,2,k).

Також можна запровадити поняття умовного математичного очікування випадкової величини при = x i :

З визначення випливає, що й незалежні, то всі умовні закони розподілу однакові і збігаються із законом розподілу (нагадуємо, що закон розподілу визначається в таблиці (*) першим та останнім стовпцем). При цьому, очевидно, збігаються всі умовні математичні очікування М:

/ = y j ,

при j = 1,2,kякі рівні М.

Якщо умовні закони розподілу при різних значенняхрізні, то кажуть, що між і має місце статистична залежність.

Приклад I. Нехай закон спільного розподілу двох випадкових величин та заданий наступною таблицею. Тут, як говорилося раніше, перший і останній стовпці визначають закон розподілу випадкової величини, а перший і останній рядок - закон розподілу випадкової величини.

Знайдемо закони розподілу випадкових величин:

Щоб отримати =2 і =0, потрібно, щоб прийняла значення 0, а прийняла значення 2. Так як і незалежні, то

Р(=2; =0)= Р(=0; =2)=Р(=0)Р(=2)=1/12.

Вочевидь також Р(=3; =0)=0.

Побудуємо полігони умовних розподілів. Тут залежність від досить близька до функціональної: значення =1 відповідає єдине =2, значення =2 відповідає єдине =3, але при =0 ми можемо говорити лише, що з ймовірністю 3/4 набуває значення 1 і з ймовірністю 1/4 - значення 2.

Приклад ІІІ. Розглянемо закон спільного розподілу та, заданий таблицею

Закони умовних розподілів не відрізняються друг від друга при =1,2,3 і збігаються із законом розподілу випадкової величини. У даному випадкута незалежні.

Характеристикою залежності між випадковими величинами і є математичне очікування твору відхилень та від своїх центрів розподілів (так іноді називають математичне очікування випадкової величини), яке називається коефіцієнтом коваріації чи просто ковариацией.

cov(;) = M((- M)(- M))

Нехай = x 1 , x 2 ,x 3 , x n , = y 1 ,y 2 ,y 3 ,y k .

Цю формулу можна інтерпретувати так. Якщо при великих значеннях більш ймовірні великі значення, а при малих значеннях більш ймовірні малі значення, то у правій частині формули (2) позитивні доданки домінують, і коваріація приймає позитивні значення.

Якщо ж можливі твори ( x i - M)(y j - M), що складаються з співмножників різного знаку, тобто результати випадкового експерименту, що призводять до великим значеннямв основному призводять до малих значень і навпаки, то коваріація набуває великих за модулем негативних значень.

У першому випадку прийнято говорити про прямий зв'язок: зі зростанням випадкова величина має тенденцію до зростання.

У другому випадку говорять про зворотнього зв'язку: зі зростанням випадкова величина має тенденцію до зменшення чи падіння. Якщо приблизно однаковий вклад у суму дають і позитивні та негативні твори ( x i - M)(y j - M)p i j, то можна сказати, що в сумі вони "гаситимуть" один одного і коваріація буде близька до нуля. І тут не проглядається залежність однієї випадкової величини з іншого.

Легко показати, що якщо:

P((= x i)(= y j)) = P(= x i)P(= y j) (i = 1,2,n; j = 1,2,k),

Дійсно з (2) випливає:

Тут використано дуже важливу властивість математичного очікування: математичне очікування відхилення випадкової величини від її математичного очікування дорівнює нулю.

Доказ (для дискретних випадкових величин з кінцевим числомзначень).

Коваріацію зручно представляти у вигляді

cov(;)= M(- M- M+MM)=M()- M(M)- M(M)+M(MM)= M()- MM- MM+MM=M()- MM

Коваріація двох випадкових величин дорівнює математичному очікуванню їхнього твору мінус добуток математичних очікувань.

Легко доводиться така властивість математичного очікування: якщо і -незалежні випадкові величини, то:

М()=ММ.

(Довести самим, використовуючи формулу:

Таким чином, для незалежних випадкових величин та cov(;)=0.

  • 1. Монету підкидають 5 разів. Випадкова величина - число гербів, що випали, випадкова величина - число гербів, що випали, в останніх двох кидках. Побудувати спільний закон розподілу випадкових величин, побудувати умовні закони розподілу за різних значень. Знайти умовні математичні очікування та підступність в.
  • 2. Дві карти навмання витягуються з колоди в 32 листи. Випадкова величина – число тузів у вибірці, випадкова величина – число королів у вибірці. Побудувати спільний закон розподілу та побудувати умовні закони розподілу при різних значеннях. Знайти умовні математичні очікування та підступність в.

Розглянемо систему двох випадкових безперервних величин. Законом розподілу цієї системи є нормальний закон розподілу, якщо функція щільності ймовірності цієї системи має вигляд

. (1.18.35)

Можна показати, що тут – математичні очікування випадкових величин, – їх середньо квадратичні відхилення, - Коефіцієнт кореляції величин . Обчислення за формулами (1.18.31) та (1.18.35) дають

. (1.18.36)

Легко бачити, що й випадкові величини , розподілені за нормальним законом не корелированны , всі вони є й незалежними

.

Таким чином, для нормального закону розподілу не корелюваність та незалежність – еквівалентні поняття.

Якщо , то випадкові величини залежать. Умовні закони розподілу обчислюються за формулами (1.18.20)

. (1.18.37)

Обидва закони (1.18.37) є нормальними розподілами. Насправді, перетворимо, наприклад, друге із співвідношень (1.18.37) до виду

.

Це справді нормальний закон розподілу, у якого умовне математичне очікування одно

, (1.18.38)

а умовне середньоквадратичне відхилення виражається формулою

. (1.18.39)

Зазначимо, що в умовному законі розподілу величини при фіксованому значенні від цього значення залежить лише умовне математичне очікування, але не умовна дисперсія – .

на координатної площинизалежність (1.18.38) є прямою лінією

, (1.18.40)

яка називається лінією регресії на .

Цілком аналогічно встановлюється, що умовний розподіл величини при фіксованому значенні

, (1.18.41)

є нормальний розподілз умовним математичним очікуванням

, (1.18.42)

умовним середньоквадратичним відхиленням

. (1.18.43)

У цьому випадку лінія регресії має вигляд

. (1.18.44)

Лінії регресії (1.18.40) та (1.18.44) збігаються тільки тоді, коли залежність між величинами і є лінійною. Якщо величини та незалежні, лінії регресії паралельні координатним осям.

Кінець роботи -

Ця тема належить розділу:

Конспект лекцій з математики теорія ймовірностей математична статистика

Кафедра вищої математикита інформатики.. конспект лекцій.. з математики.

Якщо вам потрібно додатковий матеріална цю тему, або Ви не знайшли те, що шукали, рекомендуємо скористатися пошуком по нашій базі робіт:

Що робитимемо з отриманим матеріалом:

Якщо цей матеріал виявився корисним для Вас, Ви можете зберегти його на свою сторінку в соціальних мережах:

Всі теми цього розділу:

Теорія імовірності
Теорія ймовірностей – розділ математики, у якому вивчаються закономірності випадкових масових явищ. Випадковим називається явище, яке

Статистичне визначення ймовірності
Подія називається випадкове явище, яке в результаті досвіду може з'явитися або не з'явиться (двозначне явище). Позначають події великими латинськими літерами

Простір елементарних подій
Нехай з деяким досвідом пов'язано безліч подій, причому: 1) в результаті досвіду з'являється одна і одна

Дії на подіями
Сумою двох подій та

Перестановки
Число різних перестановокз елементів позначається

Розміщення
Розміщенням з елементів по

Поєднання
Поєднанням з елементів за

Формула складання ймовірностей для несумісних подій
Теорема. Імовірність суми двох несумісних подійдорівнює сумі ймовірностей цих подій. (1

Формула складання ймовірностей для довільних подій
Теорема. Імовірність суми двох подій дорівнює сумі ймовірностей цих подій без ймовірності їхнього твору.

Формула множення ймовірностей
Нехай дані дві події в. Розглянемо подію

Формула повної ймовірності
Нехай повна група несумісних подій, їх називають гіпотезами. Розглянемо деяку подію

Формула ймовірностей гіпотез (Байєса)
Розглянемо знову – повну групу несумісних гіпотез та подію

Асимптотична формула Пуассона
У тих випадках, коли кількість випробувань велика, а ймовірність появи події

Випадкові дискретні величини
Випадковою називається величина, яка при повторенні досвіду може приймати неоднакові числові значення. Випадкова величина називається дискретною,

Випадкові безперервні величини
Якщо в результаті досвіду випадкова величина може набувати будь-якого значення з деякого відрізка або всієї дійсної осі, то вона називається безперервною. Законо

Функція густини ймовірності випадкової безперервної величини
Нехай. Розглянемо крапку і дамо їй прирощення

Числові характеристики випадкових величин
Випадкова дискретна чи безперервна величини вважаються повністю заданими, якщо відомі їхні закони розподілу. Насправді, знаючи закони розподілу, можна завжди обчислити ймовірність попадання

Квантилі випадкових величин
Квантилем порядку випадкової безперервної величини

Математичне очікування випадкових величин
Математичне очікування випадкової величини характеризує її середнє значення. Усі значення випадкової величини групуються навколо цього значення. Розглянемо спочатку випадкову дискретну величину

Середньоквадратичне відхилення та дисперсія випадкових величин
Розглянемо спочатку випадкову дискретну величину. Числові характеристикимода, медіана, квантилі та математичне очікування

Моменти випадкових величин
Крім математичного очікування та дисперсії в теорії ймовірностей використовуються числові характеристики вищих порядків, які називаються моментами випадкових величин.

Теореми про числові характеристики випадкових величин
Теорема 1. Математичне очікування невипадкової величини дорівнює самій цій величині. Доказ: Нехай

Біноміальний закон розподілу

Закон розподілу Пуассона
Нехай випадкова дискретна величина, яка приймає значення

Рівномірний закон розподілу
Рівномірним законом розподілу випадкової безперервної величини називається закон функція щільності ймовірності, якого

Нормальний закон розподілу
Нормальним законом розподілу випадкової безперервної величини називається закон функція щільності

Експоненційний закон розподілу
Експонентне або показовий розподілвипадкової величини застосовується в таких додатках теорії ймовірностей, як теорія масового обслуговування, теорія надійності

Системи випадкових величин
На практиці в додатках теорії ймовірностей часто доводиться стикатися із завданнями, в яких результати експерименту описуються не однією випадковою величиною, а відразу кількома випадковими

Система двох випадкових дискретних величин
Нехай дві випадкові дискретні величини утворюють систему. Випадкова величина

Система двох випадкових безперервних величин
Нехай тепер систему утворюють дві випадкові безперервні величини. Законом розподілу цієї системи називається ймовірно

Умовні закони розподілу
Нехай і залежні випадкові безперервні велич

Числові характеристики системи двох випадкових величин
Початковим моментомпорядку системи випадкових величин

Система кількох випадкових величин
Отримані результати для системи їх двох випадкових велич можуть бути узагальнені на випадок систем, що складаються з довільного числавипадкових величин. Нехай система утворена сукупністю

Граничні теореми теорії ймовірностей
Основною метою дисципліни теорія ймовірностей вивчення закономірностей випадкових масових явищ. Практика показує, що спостереження маси однорідних випадкових явищ виявивши

Нерівність Чебишева
Розглянемо випадкову величину з математичним очікуванням

Теорема Чебишева
Якщо випадкові величини попарно незалежні та мають кінцеві обмежені в сукупності дисперсії

Теорема Бернуллі
При необмеженому збільшенні числа дослідів частота появи події сходиться з ймовірністю до ймовірності події

Центральна гранична теорема
При складанні випадкових величин з будь-якими законами розподілу, але з обмеженими в сукупності дисперсіями, закон расп

Основні завдання математичної статистики
Розглянуті вище закони теорії ймовірностей є математичним виразом реальних закономірностей, що фактично існують у різних випадкових масових явищах. Вивчаючи

Проста статистична сукупність. Статистична функція розподілу
Розглянемо деяку випадкову величину, закон розподілу якої невідомий. Потрібен на підставі досвідчених даних про

Статистичний ряд. Гістограма
При великому числіспостережень (порядку сотень) Генеральна сукупністьстає незручною та громіздкою для запису статистичного матеріалу. Для наочності та компактності статистичний матеріал

Числові характеристики статистичного розподілу
Теоретично ймовірностей розглядалися різні числові характеристики випадкових величин: математичне очікування, дисперсію, початкові та центральні моментирізних порядків. Аналогічні числа

Вибір теоретичного розподілу методом моментів
У кожному статистичному розподілі неминуче присутні елементи випадковості, пов'язані з обмеженістю числа спостережень. При великій кількості спостережень ці елементи випадковості згладжуються,

Перевірка правдоподібності гіпотези про вид закону розподілу
Нехай задане статистичний розподілапроксимовано деякою теоретичною кривою або

Критерії згоди
Розглянемо один із найчастіше застосовуваних критеріїв згоди – так званий критерій Пірсона. Припусти

Точкові оцінки для невідомих параметрів розподілу
У п.п. 2.1. – 2.7 ми докладно розглянули способи вирішення першої та другої основних завдань математичної статистики. Це завдання визначення законів розподілу випадкових величин за дослідними даними

Оцінки для математичного очікування та дисперсії
Нехай над випадковою величиною з невідомим математичним очікуванням

Довірчий інтервал. Довірча ймовірність
На практиці при малій кількості дослідів над випадковою величиною наближена заміна невідомого параметра



Функція двох випадкових величин. Розподіл суми

незалежних доданків.

Визначення 10.2.Якщо кожній парі можливих значень випадкових величин Хі Yвідповідає одне можливе значення випадкової величини Z, то Zназивають функцією двох випадкових аргументів Xі Y : Z = φ(X, Y).

Розглянемо як таку функцію суму Х+Y. У деяких випадках можна знайти її закон розподілу, знаючи закони розподілу доданків.

1) Якщо Xі Y– дискретні незалежнівипадкові величини, то для визначення закону розподілу Z = Х + Yпотрібно знайти всі можливі значення Zта відповідні їм ймовірності.

Приклад 4. Розглянемо дискретні випадкові величини Xі Y, закони розподілу яких мають вигляд: Х -2 1 3 Y 0 1 2

р 0,3 0,4 0,3 р 0,2 0,5 0,3

Знайдемо можливі значення Z: -2 + 0 = -2 (р= 0,3 · 0,2 = 0,06), -2 + 1 = -1 ( р= 0,3 · 0,5 = 0,15), -2 + 2 = 0 ( р= 0,3 · 0,3 = 0,09), 1 + 0 = 1 ( р= 0,4 · 0,2 = 0,08), 1 + 1 = 2 ( р= 0,4 · 0,5 = 0,2), 1 + 2 = 3 ( р = 0,4 · 0,3 = 0,12), 3 + 0 = 3 ( р= 0,3 · 0,2 = 0,06), 3 + 1 = 4 ( р= 0,3 · 0,5 = 0,15), 3 + 2 = 5 ( р= 0,3 · 0,3 = 0,09). Склавши ймовірності значення, що повторилося, двічі значення Z = 3, складемо ряд розподілу для Z:


Z

-2

-1

0

1

2

3

4

5

р

0,06

0,15

0,09

0,08

0,2

0,18

0,15

0,09

  1. Якщо Xі Y– безперервні незалежнівипадкові величини, то, якщо щільність імовірності хоча б одного з аргументів задана на (-∞, ∞) однією формулою, то щільність суми g(z) можна знайти за формулами
(10.5)

Де f 1 (x), f 2 (y) - щільності розподілу доданків. Якщо можливі значення аргументів є невід'ємними, то

Зауваження.Щільність розподілу суми двох незалежних випадкових величин називають композицією.

Стійкість нормального розподілу.

Визначення 10.3.Закон розподілу ймовірностей називається стійким, Якщо композиція таких законів є той же закон (можливо, що відрізняється іншими значеннями параметрів).

Зокрема, властивість стійкості має нормальний закон розподілу: композиція нормальних законів теж має нормальний розподіл, причому її математичне очікування та дисперсія дорівнюють сумам відповідних характеристик доданків.

лекція 11.

Нормальний законрозподілу на площині Лінійна регресія. Лінійна кореляція.

Визначення 11.1.Нормальним законом розподілу на площиніназивають розподіл ймовірностей двовимірної випадкової величини ( X, Y), якщо

(11.1)

Таким чином, нормальний закон на площині визначається 5 параметрами: а 1 , а 2 , σ х , σ у , r xy , де а 1 , а 2 – математичні очікування, σ х , σ у- Середні квадратичні відхилення , r xy- Коефіцієнт кореляції Хі Y. Припустимо, що r xy = 0, тобто Хі Yнекорельовані. Тоді з (11.1) отримаємо:

Отже, з некорелювання складових нормально розподіленої двовимірної випадкової величини випливає їх незалежність, тобто для них поняття незалежності та некореленості рівносильні.

Лінійна регресія.

Нехай складові Хі Yдвовимірної випадкової величини ( Х, Y) Залежні. Вважатимемо, що одну з них можна приблизно представити як лінійну функцію іншої, наприклад

Y ≈ g(Х) = α + βХ,(11.2)

І визначимо параметри α і β за допомогою методу найменших квадратів.

Визначення 11.2.Функція g(Х) = α + βХназивається найкращим наближеннямYу сенсі методу найменших квадратів, якщо математичне очікування М(Y - g(Х)) 2 набуває найменшого можливого значення; функцію g(Х) називають середньоквадратичною регресієюYна Х.

Теорема 11.1. Лінійна середня квадратична регресія Yна Хмає вигляд:

(11.3)

Де – коефіцієнт кореляції Хі Y.

Доведення. Розглянемо функцію

F(α, β ) = M(Y – α – βX)² (11.4)

І перетворимо її, враховуючи співвідношення M(X - m x) = M(Y – m y) = 0, M((X - m x)(Y – m y)) = =K xy = rσ x σ y :

Знайдемо стаціонарні точки отриманої функції, вирішивши систему

Рішенням системи буде
.

Можна перевірити, що за цих значень функція F(α, β ) має мінімум, що доводить затвердження теореми.

Визначення 11.3.Коефіцієнт
називається коефіцієнтом регресіїY наХ , а пряма
- (11.5)

- прямої середньоквадратичної регресіїY наХ .

Підставивши координати стаціонарної точки на рівність (11.4), можна знайти мінімальне значенняфункції F(α, β ), рівне
Ця величина називається залишковою дисперсією Yщодо Хта характеризує величину помилки, що допускається при заміні Yна g(Х) = α+βХ.При
залишкова дисперсія дорівнює 0, тобто рівність (11.2) не наближеним, а точним. Отже, при Yі Хпов'язані лінійної функціональною залежністю. Аналогічно можна отримати пряму середньоквадратичну регресію Хна Y:

(11.6)

І залишкову дисперсію Хщодо Y. При обидві прямі регресії збігаються. Вирішивши систему з рівнянь (11.5) і (11.6), можна знайти точку перетину прямих регресій – точку з координатами ( т х , т у), звану центром спільного розподілу величинХ іY .

Лінійна кореляція.

Для двовимірної випадкової величини ( Х, Y) можна ввести так зване умовне математичне очікуванняY при Х = х. Для дискретної випадкової величини воно визначається як

(11.7)

Для безперервної випадкової величини –

. (11.8)

Визначення 11.4.Функцією регресіїY наХ називається умовне математичне очікування

M(Y/x) = f(x).

Аналогічно визначається умовне математичне очікування Хта функція регресії Хна Y.

Визначення 11.5.Якщо обидві функції регресії Хна Yі Yна Хлінійні, то кажуть, що Хі Yпов'язані лінійною кореляційною залежністю.

При цьому графіки лінійних функційрегресії є прямими лініями, причому можна довести, що ці лінії збігаються із прямими середньоквадратичної регресії.

Теорема 11.2. Якщо двовимірна випадкова величина ( Х, Y) розподілена нормально, то Хі Yпов'язані лінійною кореляційною залежністю.

Доведення. Знайдемо умовний закон розподілу Yпри Х = х
, використовуючи формулу двовимірної щільності ймовірності нормального розподілу (11.1) та формулу щільності ймовірності Х:

. (11.9)

Зробимо заміну
. Тоді

=
. Отриманий розподіл є нормальним, а його математичне очікування
є функція регресії Yна Х(див. Визначення 11.4)). Аналогічно можна отримати функцію регресії Хна Y:

.

Обидві функції регресії лінійні, тому кореляція між Хі Yлінійна, що й потрібно було довести. При цьому рівняння прямих регресій мають вигляд

,
,

Тобто збігаються з рівняннями прямих середньоквадратичних регресій (див. формули (11.5), (11.6)).

лекція 12.

Розподіли «хі-квадрат», Стьюдента та Фішера. Зв'язок цих розподілів з нормальним розподілом.

Розглянемо деякі розподіли, пов'язані з нормальним та широко застосовуються в математичній статистиці.

Розподіл «хі-квадрат».

Нехай є кілька нормованих нормально розподілених випадкових величин: Х 1 , Х 2 ,…, Х п (a i = 0, σ i = 1). Тоді сума їхніх квадратів

(12.1)

Є випадковою величиною, розподіленою за так званим закону «хі-квадрат»з k = nступенями свободи; якщо ж доданки пов'язані якимось співвідношенням (наприклад,
), то число ступенів свободи k = n - 1.

Щільність цього розподілу

(12.2)

Тут
- гамма-функція; зокрема, Р( п + 1) = п! .

Отже, розподіл «хі-квадрат» визначається одним параметром – числом ступенів свободи k.

Зауваження 1.Зі збільшенням числа ступенів свободи розподіл «хі-квадрат» поступово наближається до нормального.

Примітка 2.За допомогою розподілу «хі-квадрат» визначаються багато інших розподілів, що зустрічаються на практиці, наприклад, розподіл випадкової величини
- Довжини випадкового вектора (Х 1 , Х 2 ,…, Х п), координати якого незалежні та розподілені за нормальним законом.

Розподіл Стьюдента.

Розглянемо дві незалежні випадкові величини: Z,що має нормальний розподіл та нормовану (тобто М(Z) = 0, σ (Z) = 1), і V, розподілену згідно із законом «хі-квадрат» з kступенями свободи. Тоді величина

(12.3)

Має розподіл, званий t - Розподілом або розподілом Стьюдентаз kступенями свободи.

Зі зростанням числа ступенів свободи розподіл Стьюдента швидко наближається до нормального.

Розподіл F Фішера – Снідекор.

Розглянемо дві незалежні випадкові величини Uі V, розподілені за законом «хі-квадрат» із ступенями свободи k 1 і k 2 і утворюємо з них нову величину

. (12.4)

Її розподіл називають розподіломF Фішера – Снедекорузі ступенями свободи k 1 і k 2 . Щільність його розподілу має вигляд

(12.5)

Де
. Отже, розподіл Фішера визначається двома параметрами – числами ступенів свободи.

  • 2.2. Узагальнена теорема про повторення дослідів.
  • Розділ 3. Поняття випадкової величини. Функція розподілу та її основні властивості.
  • 3.1. Поняття випадкової величини та функції розподілу.
  • 3.2. Властивості функції розподілу.
  • 3.3. Дискретні та безперервні випадкові величини.
  • 3.4. Числові характеристики випадкових величин.
  • Розділ 4. Приклади розподілу випадкових величин.
  • 4.1. Біноміальний розподіл.
  • 4.2. Теорема Пуассона
  • 4.3. Закон Пуассон.
  • 4.4. Рівномірний розподіл.
  • 4.5. Показовий розподіл.
  • 4.6.Нормальний закон розподілу.
  • 5. Системи випадкових величин (випадкові вектори).
  • 5.1. Поняття системи випадкових величин.
  • 5.2. Функція розподілу системи двох випадкових величин.
  • 5.3. Щільність розподілу двох випадкових величин.
  • 5.4. Закони розподілу окремих компонентів, що входять до системи. Умовні закони розподілу.
  • 5.5. Залежні та незалежні випадкові величини.
  • 5.6. Числові характеристики системи двох випадкових величин.
  • 5.7. Система довільного числа випадкових величин (випадкові вектори).
  • 5.8. Числові характеристики системи кількох випадкових величин.
  • Розділ 6. Закони розподілу функцій довільних аргументів.
  • 6.1. Закон розподілу функції одного довільного аргументу.
  • 6.2. Закон розподілу функції двох випадкових величин.
  • 6.3. Закон розподілу суми двох випадкових величин. Композиція законів розподілу.
  • 6.4. Розподіл твору.
  • 6.5. Розподіл квадрата довільної величини.
  • 6.6. Розподіл приватного.
  • 6.7. Числові характеристики функцій випадкових величин.
  • Розділ 7. Теореми про числові характеристики.
  • 7.1. Основні теореми про математичне очікування.
  • 7.2. Теореми про дисперсію випадкової величини.
  • 7.3. Теорема про лінійну залежність випадкових величин.
  • Розділ 8. Характеристичні функції.
  • 8.1. Визначення та найпростіші властивості характеристичних функцій.
  • 8.2. Граничні теореми характеристичних функцій.
  • Розділ 9. Граничні теореми випадкових величин.
  • 9.1. Схожість послідовностей випадкових величин.
  • 9.2. Закон великих чисел.
  • 9.3. Наслідки закону великих чисел.
  • Розділ 10. Граничні теореми теорії ймовірностей.
  • 10.1. Центральна гранична теорема.
  • 10.2. Теорема Ляпунова.
  • 10.3. Теорема Лапласа.
  • 2. Практичні заняття, випробування, самостійна робота. 1. Безпосередній підрахунок ймовірності з використанням класичного визначення ймовірності.
  • 1.1. Коротка теоретична частина.
  • 1.2. Тест.
  • 1.3. Вирішення типових завдань.
  • 1.4. Завдання для самостійної роботи.
  • 2. Геометричне визначення ймовірності.
  • 2.1. Коротка теоретична частина.
  • 2.2. Тест
  • 2.3. Вирішення типових завдань
  • 2.4. Завдання для самостійної роботи
  • Заняття 3. Умовна можливість. Теорема множення ймовірностей.
  • 3.1. Коротка теоретична частина
  • 3.2. Тест
  • 3.3. Вирішення типових завдань
  • 3.4. Завдання для самостійної роботи
  • 4. Теорема складання ймовірностей.
  • 4.1. Коротка теоретична частина
  • 4.2. Тест
  • 4.3. Вирішення типових завдань
  • 4.4. Завдання для самостійної роботи
  • 5. Формула повної ймовірності.
  • 5.1. Коротка теоретична частина
  • 5.2. Тест.
  • 5.3. Вирішення типових завдань
  • 5.4. Завдання для самостійної роботи
  • Заняття 6. Формула Бейєса.
  • 6.1. Коротка теоретична частина
  • 6.2.Тест
  • 6.3. Вирішення типових завдань
  • 6.4. Завдання для самостійної роботи
  • 7. Послідовні незалежні випробування.
  • 7.1. Коротка теоретична частина
  • 7.2. Тест
  • 7.3. Вирішення типових завдань
  • 7.4. Завдання для самостійної роботи
  • Заняття 8. Дискретні та безперервні випадкові величини.
  • 8.1. Коротка теоретична частина а) Ряд, багатокутник та функція розподілу випадкової дискретної величини
  • 8.2. Тест
  • А) тільки до дискретних випадкових величин
  • 8.3. Рішення типових завдань а) Ряд, багатокутник та функція розподілу випадкової дискретної величини
  • Б) Функція розподілу та щільність ймовірності безперервної випадкової величини
  • 8.4. Завдання для самостійної роботи а) Ряд, багатокутник та функція розподілу випадкової дискретної величини
  • Заняття 9. Числові характеристики дискретних випадкових величин.
  • 9.1. Коротка теоретична частина
  • 9.2. Тест
  • 9.3. Вирішення типових завдань
  • 9.4. Завдання для самостійної роботи
  • Заняття 10. Дискретні та безперервні випадкові величини.
  • 10.1. Коротка теоретична частина
  • 10.2. Тест
  • 10.3. Вирішення типових завдань
  • 10.4. Завдання для самостійної роботи
  • Заняття 11. Закон Пуассона.
  • 11.1. Коротка теоретична частина
  • 11.2. Тест
  • 11.3. Вирішення типових завдань
  • 11.4. Завдання для самостійної роботи
  • Заняття 12. Закон нормального розподілу.
  • 12.1. Коротка теоретична частина
  • 12.2. Тест
  • 12.3. Вирішення типових завдань
  • 12.4. Завдання для самостійної роботи
  • Література
  • 6.2. Закон розподілу функції двох випадкових величин.

    Викладемо загальний метод розв'язання задачі для найпростішого випадку функції двох аргументів.

    Є система двох безперервних випадкових величин (X, Y) із щільністю розподілу f(x, y) . Випадкова величина Zзв'язана з Xі Yфункціональною залежністю:

    Потрібно визначити закон розподілу величини Z.

    Для вирішення задачі скористаємося геометричною інтерпретацією. Функція
    зобразиться не кривою, а поверхнею (рис. 6.2.1).

    Знайдемо функцію розподілу величини Z:

    Проведемо площину Q, паралельну площині хОу, на відстані zвід неї. Ця площина перетне поверхню
    за деякою кривою До. Спроектуємо криву Дона площину хОу. Ця проекція, рівняння якої
    , розділить площину хОуна дві області; для однієї з них висота поверхні над площиною хОубуде менше, а для іншої – більше z. Позначимо Dту область, для якої ця висота менша z. Щоб виконувалася нерівність (6.2.1), випадкова точка (X, Y) очевидно, має потрапити в область D; отже,

    Знаючи конкретний вид функції
    , можна виразити межі інтегрування через zта написати вираз g(z) у явному вигляді.

    6.3. Закон розподілу суми двох випадкових величин. Композиція законів розподілу.

    Скористаємося викладеним вище загальним методомдля вирішення одного завдання, а саме для знаходження закону розподілу суми двох випадкових величин. Є система двох випадкових величин (X, Y) із щільністю розподілу f(x,у). Розглянемо суму випадкових величин Xі Y:
    та знайдемо закон розподілу величини Z. Для цього збудуємо на площині хОулінію, рівняння якої
    (Рис. 6.3.1). Це - пряма, що відсікає на осях відрізки, рівні z. Пряма
    ділить площину хоу на дві частини; правіше і вище за неї
    ; ліворуч і нижче

    Область Dв даному випадку – ліва нижня частина площини хОу, заштрихована на рис. 6.3.1. Відповідно до формули (6.3.2) маємо:

    Це загальна формула для щільності розподілу суми двох випадкових величин.

    З міркувань симетричності завдання щодо Xі Yможна написати інший варіант тієї ж формули:

    Потрібно зробити композицію цих законів, тобто знайти закон розподілу величини:
    .

    Застосуємо загальну формулу для композиції законів розподілу:

    Підставляючи ці висловлювання у формулу, що вже зустрічалася нам

    а це є не що інше, як нормальний закон із центром розсіювання

    До того ж висновку можна зробити значно простіше за допомогою наступних якісних міркувань.

    Не розкриваючи дужок і не роблячи перетворень у підінтегральній функції (6.3.3), відразу приходимо до висновку, що показник ступеня є квадратний тричлен щодо хвиду

    де в коефіцієнт Авеличина zне входить зовсім, коефіцієнт Увходить у першому ступені, а коефіцієнт З- в квадраті. Маючи це на увазі і застосовуючи формулу (6.3.4), приходимо до висновку, що g(z) є показова функція, показник ступеня якої - квадратний тричлен щодо z, А щільність розподілу; такого виду відповідає нормальному закону. Таким чином, ми; приходимо до суто якісного висновку: закон розподілу величини z має бути нормальним. Щоб знайти параметри цього закону -
    і
    - скористаємося теоремою складання математичних очікувань та теоремою складання дисперсій. За теоремою складання математичних очікувань
    . За теоремою складання дисперсій
    або
    звідки випливає формула (6.3.7).

    Переходячи від середньоквадратичних відхилень до пропорційних їм можливих відхилень, отримаємо:
    .

    Таким чином, ми прийшли до наступному правилу: при композиції нормальних законів виходить знову нормальний закон, причому математичні очікування та дисперсії (або квадрати ймовірних відхилень) підсумовуються.

    Правило композиції нормальних законів може бути узагальнено у разі довільного числа незалежних випадкових величин.

    Якщо мається nнезалежних випадкових величин:
    підпорядкованих нормальним законам із центрами розсіювання
    та середньоквадратичними відхиленнями
    ,то величина
    також підпорядкована нормальному закону з параметрами

    Якщо система випадкових величин (X, Y) розподілено за нормальним законом, але величини X, Yзалежні, то неважко довести, як і раніше, виходячи із загальної формули (6.3.1), що закон розподілу величини
    є також нормальний закон. Центри розсіювання, як і раніше, складаються алгебраїчно, але для середньоквадратичних відхилень правило стає більш складним: , де, r- Коефіцієнт кореляції величин Xі Y.

    При додаванні кількох залежних випадкових величин, підпорядкованих у своїй сукупності нормальному закону, закон розподілу суми також виявляється нормальним з параметрами

    де - Коефіцієнт кореляції величин X i , X j, а підсумовування поширюється попри всі різні попарні комбінації величин
    .

    Ми переконалися у дуже важливій властивостінормального закону: при комбінації нормальних законів виходить знову нормальний закон. Це – так зване «властивість стійкості». Закон розподілу називається стійким, якщо за композиції двох законів цього виходить знову закон тієї самої типу. Вище ми показали, що нормальний закон є стійким. Властивістю стійкості мають дуже небагато законів розподілу. Закон рівномірної густини нестійкий: при комбінації двох законів рівномірної густини на ділянках від 0 до 1 ми отримали закон Сімпсона.

    Стійкість нормального закону - одне з істотних умов його поширення практично. Однак властивість стійкості, крім нормального, мають і деякі інші закони розподілу. Особливістю нормального закону є те, що при композиції досить великої кількості практично довільних законів розподілу сумарний закон виявляється як завгодно близький до нормального незалежно від того, якими були закони розподілу доданків. Це можна проілюструвати, наприклад, складаючи композицію трьох законів рівномірної щільності на ділянках від 0 до 1. Закон розподілу при цьому g(z) зображено на рис. 6.3.1. Як видно з креслення, графік функції g(z) дуже нагадує графік нормального закону.

    Розглянемо випадок, коли третя випадкова величина Zє сумою двох незалежних випадкових величин Xі Y, тобто

    Щільності цих величин
    відповідно. Щільність розподілу Z

    Цей інтеграл називається згорткоюабо композицієющільностей і позначається так:

    .

    Таким чином, якщо незалежні випадкові величини підсумовуються, їх щільності розподілу згортаються.

    Це правило поширюється на суму будь-якої кількості незалежних доданків. Тобто якщо

    .

    приклад.Визначимо щільність розподілу суми двох рівномірно розподілених величин X 1 і X 2 з густиною:

    Після підстановки цих щільностей (13.2.1) та інтегрування в припущенні
    отримуємо, що

    Ця щільність називається трапеціодальною (див. рис.13.2.1). Якщо
    , то трапеція вироджується в рівнобедрений трикутник і відповідна щільність називається щільністю Сипсона.

    Рис.13.2.1.Трапеціодальний розподіл - згортка двох рівномірних розподілів.

    13.3.Розподіл суми нормально розподілених випадкових величин

    Якщо
    , Xі Yнезалежні та нормально розподілені із щільностями

    то сума Zбуде розподілено теж нормально із щільністю

    ,

    Цей факт доводиться безпосереднім інтегруванням інтеграла згортки (13.2.1) після підстановки
    і
    .

    Справедливіше і загальне твердження: якщо

    , (13.3.1)

    де і b- Константи, а Х i – незалежні нормально розподілені випадкові величини із середніми значеннями
    та дисперсіями , то Yбуде розподілено теж нормально із середнім значенням

    (13.3.2)

    та дисперсією

    . (13.3.3)

    Звідси випливає, що якщо підсумовуються незалежні нормально розподілені випадкові величини, то сума матиме також нормальний розподіл із математичним очікуванням, рівним суміматематичних очікувань доданків та дисперсією, що дорівнює сумі дисперсій доданків. Тобто якщо

    ,

    . (13.3.4)

    14. Граничні теореми

    14.1.Поняття про закон великих чисел

    З досвіду відомо, що у масових явищах результат мало залежить від окремих проявів. Наприклад, тиск, що чиниться газом на стінки судини, складається в результаті ударів молекул газу об стінки. Не дивлячись на те, що кожен удар по силі та напрямку абсолютно випадкові підсумковий тиск виявляється практично детермінованим. Те саме можна сказати про температуру тіла, яка визначає середню кінетичну енергію руху атомів тіла. Сила струму є проявом руху елементарних зарядів (електронів). Конкретні особливості кожного випадкового явища майже позначаються середньому результаті маси таких явищ. Випадкові відхилення від середнього, неминучі у кожному окремому явище, у масі взаємно погашаються, нівелюються, вирівнюються. Саме цей факт - стійкість середніх - лежить в основі закону великих чисел:при великому числі випадкових явищ середній їхній результат практично перестає бути випадковим і може бути передбачений з великим ступенем визначеності.

    Теоретично ймовірностей під законом великих чисел розуміється ряд математичних теорем, у кожній з яких за тих чи інших умов встановлюється факт наближення середніх характеристик великої кількості дослідів до постійних величин або до граничних розподілів.



    Останні матеріали розділу:

    Як ставилися мужики найближчих сіл до Бірюка: причини та несподіваний фінал Бірюк та мужик-злодій
    Як ставилися мужики найближчих сіл до Бірюка: причини та несподіваний фінал Бірюк та мужик-злодій

    Твори за твором Бірюк Бірюк і мужик-злодій Розповідь «Бірюк», написана І. С. Тургенєвим в 1848 році, увійшла до збірки «Записки мисливця».

    Примара замку Гламіс: а чи був він насправді?
    Примара замку Гламіс: а чи був він насправді?

    Відповідями до завдань 1–24 є слово, словосполучення, число чи послідовність слів, чисел. Запишіть відповідь праворуч від номера завдання.

    Доповідь: Пржевальський Микола Михайлович
    Доповідь: Пржевальський Микола Михайлович

    Цю пошукову роботу про сім'ю Пржевальських Михайло Володимирович писав до останніх хвилин свого життя. Багато що сьогодні бачиться інакше. Але наприкінці...