Випадкові величини називаються незалежними якщо. Незалежні випадкові величини

При вивченні систем випадкових величин завжди слід звертати увагу на ступінь та характер їхньої залежності. Ця залежність може бути більш менш яскраво вираженою, більш менш тісною. У деяких випадках залежність між випадковими величинами може бути настільки тісною, що, знаючи значення однієї випадкової величини, можна точно вказати значення іншої. В іншому крайньому випадку залежність між випадковими величинами є настільки слабкою та віддаленою, що їх можна практично вважати незалежними.

Поняття про незалежні випадкові величини – одне з важливих понять теорії ймовірностей.

Випадкова величина називається незалежною від випадкової величини, якщо закон розподілу величини не залежить від того, яке значення набула величина.

Для безперервних випадкових величин умова незалежності може бути записана у вигляді:

при будь-якому.

Навпаки, якщо залежить від , то

.

Доведемо, що залежність чи незалежність випадкових величин завжди взаємні: якщо величина залежить від .

Справді, нехай не залежить від :

. (8.5.1)

З формул (8.4.4) та (8.4.5) маємо:

звідки, беручи до уваги (8.5.1), отримаємо:

що й потрібно було довести.

Так як залежність та незалежність випадкових величин завжди взаємні, можна дати нове визначення незалежних випадкових величин.

Випадкові величини і називаються незалежними, якщо закон розподілу кожної їх залежить від цього, яке значення прийняла інша. В іншому випадку величини і називаються залежними.

Для незалежних безперервних випадкових величин теорема множення законів розподілу набуває вигляду:

, (8.5.2)

тобто щільність розподілу системи незалежних випадкових величин дорівнює добутку щільностей розподілу окремих величин, що входять до системи.

Умова (8.5.2) може розглядатися як необхідна та достатня умова незалежності випадкових величин.

Часто за видом функції можна зробити висновок, що випадкові величини, є незалежними, саме, якщо щільність розподілу розпадається на добуток двох функцій, у тому числі одна залежить лише від , інша - тільки від , то випадкові величини незалежні.

приклад. Щільність розподілу системи має вигляд:

.

Визначити, чи залежні або незалежні випадкові величини і .

Рішення. Розкладаючи знаменник на множники, маємо:

.

З того, що функція розпалася на добуток двох функцій, з яких одна залежить тільки від , а інша - тільки від , укладаємо, що величини і повинні бути незалежними. Дійсно, застосовуючи формули (8.4.2) та (8.4.3), маємо:

;

аналогічно

звідки переконуємось, що

і, отже, величини та незалежні.

Вищевикладений критерій судження залежність чи незалежності випадкових величин виходить із припущення, що закон розподілу системи нам відомий. Насправді частіше буває навпаки: закон розподілу системи не відомий; відомі лише закони розподілу окремих величин, що входять до системи, і є підстави вважати, що величини та незалежні. Тоді можна написати щільність розподілу системи як добуток щільностей розподілу окремих величин, що входять до системи.

Зупинимося дещо докладніше на важливих поняттяхпро «залежність» та «незалежність» випадкових величин.

Поняття "незалежності" випадкових величин, яким ми користуємося в теорії ймовірностей, дещо відрізняється від звичайного поняття "залежності" величин, яким ми оперуємо в математиці. Справді, зазвичай під «залежністю» величин мають на увазі лише один тип залежності – повну, жорстку, так звану – функціональну залежність. Дві величини і називаються функціонально залежними, якщо знаючи значення однієї з них, можна точно вказати значення іншої.

Теоретично ймовірностей ми зустрічаємося з іншим, більш загальним, типом залежності - з імовірнісною чи «стохастичною» залежністю. Якщо величина пов'язана з величиною імовірнісною залежністю, то, знаючи значення , не можна вказати точно значення , а можна вказати тільки її закон розподілу, який залежить від того, яке значення набула величина .

Імовірнісна залежність може бути більш менш тісною; зі збільшенням тісноти вероятностной залежності вона дедалі більше наближається до функціональної. Таким чином, функціональну залежність можна розглядати як крайній, граничний випадок найтіснішої імовірнісної залежності. Інший крайній випадок- Повна незалежність випадкових величин. Між цими двома крайніми випадками лежать усі градації імовірнісної залежності - від найсильнішої до найслабшої. Ті фізичні величини, які на практиці ми вважаємо функціонально залежними, насправді пов'язані дуже тісною імовірнісною залежністю: при заданому значенніоднією з цих величин інша коливається в настільки вузьких межах, що її можна вважати цілком певною. З іншого боку, ті величини, які ми на практиці вважаємо незалежними, і насправді часто перебувають у певній взаємній залежності, але ця залежність настільки слабка, що нею для практичних цілей можна знехтувати.

Імовірнісна залежність між випадковими величинами часто зустрічається практично. Якщо випадкові величини і перебувають у вероятностной залежності, це означає, що із зміною величини величина змінюється цілком певним чином; це лише означає, що зі зміною величини величина має тенденцію також змінюватись (наприклад, зростати або зменшуватися при зростанні). Ця тенденція дотримується лише «в середньому», в загальних рисах, і в кожному окремому випадку від неї можливі відступи.

Розглянемо, наприклад, дві такі випадкові величини: - Зростання навмання взятої людини, - Його вага. Очевидно, величини і знаходяться у певній імовірнісній залежності; вона виявляється у тому, що загалом люди з великим зростанням мають більшу вагу. Можна навіть скласти емпіричну формулу, що приблизно замінює цю імовірнісну залежність функціональної. Така, наприклад, загальновідома формула, що приблизно виражає залежність між зростанням і вагою.

Дві випадкові величини $X$ і $Y$ називаються незалежними, якщо закон розподілу однієї випадкової величини не змінюється від того, які можливі значення набула інша випадкова величина. Тобто, для будь-яких $x$ та $y$ події $X=x$ та $Y=y$ є незалежними. Оскільки події $X=x$ та $Y=y$ незалежні, то за теоремою твори ймовірностей незалежних подій$P\left(\left(X=x\right)\left(Y=y\right)\right)=P\left(X=x\right)P\left(Y=y\right)$.

Приклад 1 . Нехай випадкова величина $X$ виражає грошовий виграш за квитками однієї лотереї «Російське лото», а випадкова величина $Y$ виражає грошовий виграш за квитками іншої лотереї «Золотий ключ». Вочевидь, що випадкові величини $X,\ Y$ будуть незалежними, оскільки виграш за квитками однієї лотереї залежить від закону розподілу виграшів за квитками інший лотереї. У тому випадку, коли випадкові величини $X,\Y$ виражали б виграш по одній і тій же лотереї, то, очевидно, дані випадкові величини були б залежними.

Приклад 2 . Двоє робітників працюють у різних цехах і виготовляють різні вироби, не пов'язані між собою технологіями виготовлення та використовуваною сировиною. Закон розподілу числа бракованих виробів, виготовлених першим робітником за зміну, має такий вигляд:

$\begin(array)(|c|c|)
\hline
Число \ бракованих \ виробів \ x & 0 & 1 \\
\hline
Можливість & 0,8 & 0,2 \\
\hline
\end(array)$

Число бракованих виробів, виготовлених другим робітником за зміну, підпорядковується наступними закономрозподілу.

$\begin(array)(|c|c|)
\hline
Число \ бракованих \ виробів \ y & 0 & 1 \\
\hline
Можливість & 0,7 & 0,3 \\
\hline
\end(array)$

Знайдемо закон розподілу числа бракованих виробів, виготовлених двома робітниками за зміну.

Нехай випадкова величина $X$ - кількість бракованих виробів, виготовлених першим робітником за зміну, а $Y$ - кількість бракованих виробів, виготовлених другим робітником за зміну. За умовою, випадкові величини $ X, \ Y $ незалежні.

Число бракованих виробів, виготовлених двома робітниками за зміну, є випадковою величиною $X+Y$. Її можливі значення дорівнюють $0,\1$ і $2$. Знайдемо ймовірності, з якими випадкова величина $X+Y$ набуває своїх значень.

$P\left(X+Y=0\right)=P\left(X=0,\Y=0\right)=P\left(X=0\right)P\left(Y=0\right) = 0,8 \ cdot 0,7 = 0,56.

$P\left(X+Y=1\right)=P\left(X=0,\Y=1\ або\X=1,\Y=0\right)=P\left(X=0\right )P\left(Y=1\right)+P\left(X=1\right)P\left(Y=0\right)=0,8cdot 0,3+0,2cdot 0,7 = 0,38. $

$P\left(X+Y=2\right)=P\left(X=1,\Y=1\right)=P\left(X=1\right)P\left(Y=1\right) = 0,2 \ cdot 0,3 = 0,06.

Тоді закон розподілу числа бракованих виробів, виготовлених двома робітниками за зміну:

$\begin(array)(|c|c|)
\hline
Число \ бракованих \ виробів & 0 & 1 & 2 \\
\hline
Можливість & 0,56 & 0,38 & 0,06 \\
\hline
\end(array)$

У попередньому прикладі ми виконували операцію над випадковими величинами $X,\Y$, а саме знаходили їхню суму $X+Y$. Дамо тепер більше суворе визначенняоперацій (додавання, різницю, множення) над випадковими величинами і наведемо приклади рішень.

Визначення 1. Добутком $kX$ випадкової величини $X$ на постійну величину$k$ називається випадкова величина, яка приймає значення $kx_i$ з тими ж ймовірностями $p_i$ $\left(i=1,\ 2,\ dots ,\ n\right)$.

Визначення 2. Сумою (різницею або добутком) випадкових величин $X$ і $Y$ називається випадкова величина, яка приймає всі можливі значення виду $x_i+y_j$ ($x_i-y_i$ або $x_i\cdot y_i$), де $i=1 ,\ 2,\dots ,\ n$, з ймовірностями $p_(ij)$ того, що випадкова величина $X$ прийме значення $x_i$, а $Y$ значення $y_j$:

$$p_(ij)=P\left[\left(X=x_i\right)\left(Y=y_j\right)\right].$$

Так як випадкові величини $ X, \ Y $ незалежні, то по теоремі множення ймовірностей для незалежних подій: $ p_ (ij) = P \ left (X = x_i \ right) \ cdot P \ left (Y = y_j \ right) = p_i\cdot p_j$.

Приклад 3 . Незалежні випадкові величини $X,\Y$ задані своїми законами розподілу ймовірностей.

$\begin(array)(|c|c|)
\hline
x_i & -8 & 2 & 3 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end(array)$

$\begin(array)(|c|c|)
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end(array)$

Складемо закон розподілу випадкової величини $Z=2X+Y$. Сумою випадкових величин $X$ і $Y$, тобто $X+Y$, називається випадкова величина, яка набуває всіх можливих значень виду $x_i+y_j$, де $i=1,\ 2,\dots ,\ n$ , з ймовірностями $p_(ij)$ того, що випадкова величина $X$ прийме значення $x_i$, а $Y$ значення $y_j$: $p_(ij)=P\left[\left(X=x_i\right )\left(Y=y_j\right)\right]$. Так як випадкові величини $ X, \ Y $ незалежні, то по теоремі множення ймовірностей для незалежних подій: $ p_ (ij) = P \ left (X = x_i \ right) \ cdot P \ left (Y = y_j \ right) = p_i\cdot p_j$.

Отже, має закони розподілу випадкових величин $2X$ і $Y$ відповідно.

$\begin(array)(|c|c|)
\hline
x_i & -16 & 4 & 6 \\
\hline
p_i & 0,4 & 0,1 & 0,5 \\
\hline
\end(array)$

$\begin(array)(|c|c|)
\hline
y_i & 2 & 8 \\
\hline
p_i & 0,3 & 0,7 \\
\hline
\end(array)$

Для зручності знаходження всіх значень суми $Z=2X+Y$ та їх ймовірностей складемо допоміжну таблицю, у кожній клітині якої помістимо у лівому куті значення суми $Z=2X+Y$, а правому куті - ймовірності цих значень, отримані внаслідок перемноження ймовірностей відповідних значень випадкових величин $2X$ і $Y$.

В результаті отримаємо розподіл $Z=2X+Y$:

$\begin(array)(|c|c|)
\hline
z_i & -14 & -8 & 6 & 12 & 10 & 16 \\
\hline
p_i & 0,12 & 0,28 & 0,03 & 0,07 & 0,15 & 0,35 \\
\hline
\end(array)$

Поняття залежності та незалежності випадкових подій. Умовна можливість. Формули складання та множення ймовірностей для залежних та незалежних випадкових подій. Формула повної ймовірностіта формула Байєса.

Теореми складання ймовірностей

Знайдемо можливість суми подій A і B (у припущенні їх спільності чи несовместности).

Теорема 2.1. Ймовірність суми кінцевого числане спільних подійдорівнює сумі їх ймовірностей:

P(A+B+ldots+N)=P(A)+P(B)+ldots+P(N\).

приклад 1.Імовірність того, що в магазині буде продано пару чоловічого взуття 44-го розміру, дорівнює 0,12; 45-го – 0,04; 46-го та більшого – 0,01. Знайти ймовірність того, що буде продано пару чоловічого взуття не менше 44-го розміру.

Рішення.Подія D, що шукається, відбудеться, якщо буде продана пара взуття 44-го розміру (подія A) або 45-го (подія B), або не менше 46-го (подія C), тобто подія D є сума подій A,B ,C. Події A, B та C несумісні. Тому згідно з теоремою про суму ймовірностей отримуємо

P (D) = P (A + B + C) = P (A) + P (B) + P (C) = 0, 12 +0, 04 +0,\!01 =0,\!17.

приклад 2.За умов прикладу 1 знайти ймовірність того, що черговий буде продано пару взуття менше 44-го розміру.

Рішення.Події "чергової буде продано пару взуття менше 44-го розміру" та "буде продано пару взуття розміру не менше 44-го" протилежні. Тому за формулою (1.2) ймовірність настання події

P (overline (D)) = 1-P (D) = 1-0, 17 = 0, 83.

оскільки P (D \) = 0, 17, як це було знайдено в прикладі 1.

Теорема 2.1 складання ймовірностей справедлива лише для несумісних подій. Використання її для знаходження ймовірності спільних подій може призвести до неправильних, а іноді й абсурдних висновків, що наочно видно на наступний приклад. Нехай виконання замовлення термін фірмою "Electra Ltd" оцінюється ймовірністю 0,7. Яка ймовірність того, що з трьох замовлень фірма виконає в строк хоча б якийсь один? Події, які у тому, що фірма виконає вчасно перший, другий, третій замовлення позначимо відповідно A,B,C . Якщо для пошуку шуканої ймовірності застосувати теорему 2.1 складання ймовірностей, то отримаємо P (A + B + C) = 0, 7 +0, 7 +0, 7 = 2, 1. Імовірність події виявилася більше одиниці, що неможливо. Це тим, що події A,B,C є спільними. Справді, виконання терміном першого замовлення виключає виконання терміном двох інших.

Сформулюємо теорему складання ймовірностей у разі двох спільних подій (враховуватиметься ймовірність їхньої спільної появи).

Теорема 2.2. Імовірність суми двох спільних подій дорівнює сумі ймовірностей цих двох подій без ймовірності їхньої спільної появи:

P(A+B)=P(A)+P(B)-P(AB).

Залежні та незалежні події. Умовна ймовірність

Розрізняють події залежні та незалежні. Дві події називаються незалежними, якщо поява одного з них не змінює ймовірність появи іншого. Наприклад, якщо у цеху працюють дві автоматичні лінії, за умовами виробництва не взаємопов'язані, то зупинки цих ліній є незалежними подіями.

приклад 3.Монета кинута двічі. Імовірність появи "герба" ​​у першому випробуванні (подія A) не залежить від появи або не появи "герба" ​​у другому випробуванні (подія B). У свою чергу, можливість появи "герба" ​​у другому випробуванні не залежить від результату першого випробування. Таким чином, події A та B незалежні.

Декілька подій називаються незалежними у сукупностіякщо будь-яка з них не залежить від будь-якої іншої події і від будь-якої комбінації інших.

Події називаються залежнимиякщо одне з них впливає на ймовірність появи іншого. Наприклад, дві виробничі установки пов'язані єдиним технологічним циклом. Тоді ймовірність виходу з експлуатації однієї з них залежить від того, в якому стані знаходиться інша. Імовірність однієї події B, обчислена у припущенні здійснення іншої події A, називається умовною ймовірністюподії B і позначається P (B | A \) .

Умову незалежності події B від події A записують як P\(B|A\)=P\(B\) , а умова його залежності - як P\(B|A\)\ne(P\(B\)). Розглянемо приклад обчислення умовної ймовірності події.

приклад 4.У ящику знаходяться 5 різців: два зношені і три нові. Виробляється два послідовні вилучення різців. Визначити умовну ймовірність появи зношеного різця при другому витягу за умови, що вилучений вперше різець у ящик не повертається.

Рішення.Позначимо A вилучення зношеного різця в першому випадку, а overline (A) - вилучення нового. Тоді P\(A\)=\frac(2)(5),~P\(\overline(A)\)=1-\frac(2)(5)=\frac(3)(5). Оскільки вилучений різець у ящик не повертається, змінюється співвідношення між кількостями зношених і нових різців. Отже, ймовірність вилучення зношеного різця у разі залежить від цього, яке подія здійснилося перед цим.

Позначимо подію B, що означає вилучення зношеного різця в другому випадку. Імовірності цієї події можуть бути такими:

P\(B|A\)=\frac(1)(4),~~~P\(B|\overline(A)\)=\frac(2)(4)=\frac(1)(2 ).

Отже, ймовірність події B залежить від того, чи відбулася подія A .

Формули множення ймовірностей

Нехай події A та B незалежні, причому ймовірності цих подій відомі. Знайдемо ймовірність поєднання подій A і B.

Теорема 2.3. Імовірність спільної появи двох незалежних подій дорівнює добутку ймовірностей цих подій:

P (AB) = P (A) cdot P (B).

Наслідок 2.1. Імовірність спільної появи кількох подій, незалежних у сукупності, дорівнює добутку ймовірностей цих подій:

P (A_1A_2 \ ldots (A_n) \) = P \ (A_1 \) P \ (A_2 \) \ ldots (P \ (A_n \)).

Приклад 5.Три ящики містять по 10 деталей. У першому ящику - 8 стандартних деталей, у другому - 7, у третій - 9. З кожного ящика навмання виймають по одній деталі. Знайти ймовірність того, що всі три вийняті деталі виявляться стандартними.

Рішення.Імовірність того, що з першої скриньки взято стандартну деталь (подія A ), P(A)=frac(8)(10)=frac(4)(5). Імовірність того, що з другого ящика взято стандартну деталь (подія B ), P\(B\)=\frac(7)(10). Імовірність того, що з третьої скриньки взято стандартну деталь (подію C ), P\(C\)=\frac(9)(10). Так як події A, B і C незалежні в сукупності, то ймовірність (по теоремі множення)

P\(ABC\)=P\(A\)P\(B\)P\(C\)=\frac(4)(5)\frac(7)(10)\frac(9)(10) =0, \!504.

Нехай події A і B залежні, причому ймовірності P (A) і P (B | A) відомі. Знайдемо ймовірність добутку цих подій, тобто ймовірність того, що з'явиться і подія A і подія B .

Теорема 2.4. Імовірність спільної появи двох залежних подій дорівнює добутку ймовірності одного з них на умовну ймовірність іншого, обчислену у припущенні, що перша подія вже настала:

P\(AB\)=P\(A\)\cdot P\(B|A\);\qquad P\(AB\)=P\(B\)\cdot P\(A|B\)

Наслідок 2.2. Імовірність спільної появи кількох залежних подій дорівнює добутку ймовірності одного з них на умовні ймовірності решти, причому ймовірність кожної наступної події обчислюється в припущенні, що всі попередні події вже з'явилися.

Приклад 6.В урні знаходяться 5 білих куль, 4 чорні та 3 сині. Кожне випробування полягає в тому, що навмання витягують одну кулю, не повертаючи її в урну. Знайти ймовірність того, що при першому випробуванні з'явиться біла куля (подія A), при другому - чорна (подія B) і при третьому - синя (подія C).

Рішення.Імовірність появи білої кулі при першому випробуванні P\(A\)=\frac(5)(12). Імовірність появи чорної кулі при другому випробуванні, обчислена в припущенні, що при першому випробуванні з'явилася біла куля, тобто умовна ймовірність P\(B|A\)=\frac(4)(11). Ймовірність появи синьої куліпри третьому випробуванні, обчислена в припущенні, що при першому випробуванні з'явилася біла куля, а при другому - чорна, P\(C|AB\)=\frac(3)(10). Шукана ймовірність

P\(ABC\)=P\(A\)P\(B|A\)P\(C|AB\)=\frac(5)(12)\frac(4)(11)\frac(3 ) (10).

Формула повної ймовірності

Теорема 2.5. Якщо подія A настає лише за умови появи однієї з подій , що утворюють повну групу несумісних подій, то ймовірність події A дорівнює сумі творів ймовірностей кожної з подій B_1,B_2,\ldots(B_n)на відповідну умовну ймовірність події B_1,B_2,\ldots(B_n):

P\(A\)=\sum\limits_(i=1)^(n)P\(B_i\)P\(A|B_i\).

У цьому події B_i,~i=1,\ldots,n називаються гіпотезами, а ймовірності P\(B_i\) - апріорними. Ця формула називається формулою ймовірності.

Приклад 7.На складальний конвеєр надходять деталі з трьох верстатів. Продуктивність верстатів не однакова. На першому верстаті виготовляють 50% всіх деталей, на другому – 30%, на третьому – 20%. Ймовірність якісного складання при використанні деталі, виготовленої на першому, другому та третьому верстаті, відповідно 0,98, 0,95 і 0,8, Визначити ймовірність того, що вузол, що сходить з конвеєра, якісний.

Рішення.Позначимо A подію, що означає придатність зібраного вузла; B_1 , B_2 і B_3 - події, що означають, що деталі зроблено відповідно на першому, другому та третьому верстаті. Тоді

P\(B_1\)=0,\!5;~~~~~P\(B_2\)=0,\!3;~~~~~P\(B_3\)=0,\!2;
P\(A|B_1\)=0,\!98;~~~P\(A|B_2\)=0,\!95;~~~P\(A|B_3\)=0,\!8 .

Шукана ймовірність

Формула Байєса

Ця формула застосовується при вирішенні практичних завдань, коли подія A , що з'являється спільно з будь-якою подією B_1,B_2,\ldots(B_n), що утворюють повну групу подій, відбулося і потрібно провести кількісну переоцінку ймовірностей гіпотез B_1,B_2,\ldots(B_n). Апріорні (до досвіду) ймовірності P \ (B_1 \), P \ (B_2 \), \ ldots (P \ (B_n \))відомі. Потрібно обчислити апостеріорні (після досвіду) ймовірності, тобто, по суті, потрібно знайти умовні ймовірності P\(B_1|A\),P\(B_2|A\),\ldots(P\(B_n|A\)). Для гіпотези B_j формула Байєса виглядає так:

P\(B_j|A\)=\frac(P\(B_j\) P\(A|B_j\))(P\(A\)).

Розкриваючи в цій рівності P(A\) за формулою повної ймовірності (2.1), отримуємо

P\(B_j|A\)=\dfrac(P\(B_j\)P\(A|B_j\))(\sum\limits_(i=1)^(n)P\(B_i\)P\( A|B_i\)).

Приклад 8.За умов прикладу 7 розрахувати ймовірність того, що в складання потрапила деталь, виготовлена ​​відповідно на першому, другому і третьому верстаті, якщо вузол, що сходить з конвеєра, якісний.

Джерело

звідки укладаємо, що m1 , m2 - математичні очікування компонент X, Y двовимірної нормальної випадкової величини (X, Y), σ1 , σ2 - середні квадратичні відхиленняїх компонент.

Графіком двовимірним нормальної щільностів просторі є горбкоподібна поверхня, що розташовується над усією площиною xOy, асимптотично наближається до неї при видаленні на нескінченність, симетрична щодо вертикальної осі, що проходить через центр (m1, m2), і з вершиною в цій точці. Будь-який переріз поверхні графіка нормальної щільності площиною, перпендикулярною xOy, є кривою Гауса.

6.5 Залежність та незалежність двох випадкових величин

Визначення. Випадкові величини X, Y називаються незалежними, якщо незалежними є події X< x и Y < y для любых вещественных x, y. В противном случае случайные величины (X, Y) называются зависимыми.

Теорема. Загальна необхідна та достатня умова незалежності двох випадкових величин:

FXY(x, y) = FX(x) · FY(y)

для будь-яких речових x та y.

Ця умова є інакше записаною необхідною і достатньою умовою незалежності двох подій: P (AB) = P (A) P (B) для випадку подій A = (X< x), B = (Y < y).

Теорема. Необхідна та достатня умова незалежності двох безперервних випадкових величин:

fXY(x, y) = fX(x) · fY(y), x, y.

Теорема. Необхідна та достатня умова незалежності двох дискретних випадкових величин:

p ik = p i · p k

для будь-яких i = 1, 2, . . . m; k = 1, 2, . . . n.

Зауваження. Рівність нулю коефіцієнта кореляції ρ є необхідною і достатньою умовоюнезалежності компонент X, Y двовимірної нормальної випадкової величини (X, Y).

6.6 Умовні закони розподілу. Числові характеристики двовимірної випадкової величини. Зв'язок між випадковими величинами

6.6.1 Умовні закони розподілу

Визначення. Умовним законом розподілу однією з одномірних складових двовимірної випадкової величини (X, Y) називається її закон розподілу, обчислений за умови, що інша складова прийняла певне значення(або потрапила доякийсь інтервал).

У разі дискретних випадкових величин формули для знаходження умовних ймовірностеймають вигляд:

pj (xi) =

P [(X = xi) (Y = yj)]

Pi (yj) =

P [(X = xi) (Y = yj)]

P (Y = yj)

P (X = xi)

У разі безперервних випадкових величин ці формули набудуть вигляду

fY(x) =

fXY (x, y)

FX(y) =

fXY (x, y)

fY(y)

fX(x)

тобто. умовна густина ймовірності однієї з одновимірних складових двовимірної випадкової величини дорівнює відношенню її спільної густини до густини ймовірності її іншої складової.

Дані співвідношення записані у вигляді

fXY(x, y) = fX(x)fX(y) = fX(y)fY(x),

називаються теоремою (правило) множення густин розподілів.

Використовуючи формули для отримання одновимірних складових безперервної випадкової величини, запишемо формули для умовних складових:

fY(x) =

fXY (x, y)

FX(y) =

fXY (x, y)

fXY (x, y)dx

fXY (x, y)dy

6.6.2 Числові характеристики

Розглянемо випадкову величину (X, Y), що є функцією компонент X, Y двовимірної випадкової величини (X, Y). Справедливі загальні формули:

для дискретного випадку.

Тут fXY (x, y) - щільність ймовірності випадкової величини (X, Y), а pik = P (X = xi, Y = yk) (i = 1, . . , m; k = 1, . . . , n) - закон розподілу дискретної двовимірної випадкової вели-

За допомогою цих формул можна записати формули для математичного очікування та дисперсії одновимірних компонентів дискретної випадкової величини.

Формули для знаходження математичного очікування мають вигляд:

M(X) = Z Z

xfXY(x, y)dxdy;

M(Y) = yfXY(x, y)dxdy

для безперервних випадкових величин;

M(X) = xi pik;

M(Y) = yk pik

для дискретного випадку.

Формули для обчислення дисперсії одновимірних компонент двовимірної випадкової величини мають вигляд:

D(Y) = M[(Y − M(Y))2 ] = (yk − M(Y))pik

для дискретного випадку.

6.6.3 Кореляційні момент та коефіцієнт кореляції

Вище були сформульовані функціональні характеристикизалежність двох випадкових величин. Розглянемо тепер числові характеристикизв'язок між випадковими величинами.

Визначення. Кореляційним моментом K XY, інакше - коваріацією двох випадкових величин X, Y називається математичне очікуваннятвори відхилень цих випадкових величин від своїх математичних очікувань:

KXY = M [(X - mX) (Y - mY)].

Вочевидь, що KXY = KY X .

Формули для обчислення KXY мають вигляд:

KXY = Z Z

(x − mX )(y − mY )fXY (x, y)dxdyXY = ρY X .

Кореляційний момент та коефіцієнт кореляції – це числові характеристики двовимірної випадкової величини, причому ρXY – безрозмірна характеристика. З їх властивостей випливає, що вони характеризують зв'язок між випадковими величинами.

Властивості кореляційного моменту та коефіцієнта кореляції. Властивість 1.

KXY = M − mX mY .

Цю формулу зручно застосовувати для обчислення підступності.

Властивість 2.

−1 ≤ ρ ≤ 1.

Ця властивість означає, що коефіцієнт кореляції – нормована характеристика. Властивість 3. Для незалежних випадкових величин X, Y їх кореляційний момент,

отже, і коефіцієнт кореляції, рівні нулю.

Зауваження. Зворотня пропозиція у загальному випадкуневірно, тобто. існують незалежні випадкові величини (X, Y), котрим KXY = 0.

Визначення. Дві випадкові величини X, Y називаються некорельованими, якщо їхній кореляційний момент дорівнює нулю. Якщо KXY 6= 0, то кажуть, що X, Y корелюють між собою.

Зауваження. Якщо KXY 6= 0, випадкові величини X, Y залежні.

4. Для випадкових величин X, Y = aX + b, пов'язаних лінійною залежністюкоефіцієнт кореляції дорівнює 1, якщо a > 0, і −1, якщо a< 0.

Властивість 5. Якщо | XY | = 1 то випадкові величини X, Y пов'язані лінійною залежністю з ймовірністю одиниця.

Зауваження. Величина M = α 1,1 називається другим змішаним початковим моментом двовимірної випадкової величини (X, Y), а її кореляційний момент K XY -

другим змішаним центральним моментом.



Останні матеріали розділу:

Прародина слов'ян Праслов'яни (предки слов'ян) жили в пору відокремлення від інших індоєвропейців на берегах верхів'я річок Одри
Прародина слов'ян Праслов'яни (предки слов'ян) жили в пору відокремлення від інших індоєвропейців на берегах верхів'я річок Одри

Попередній перегляд:Щоб користуватися попереднім переглядом презентацій, створіть собі обліковий запис Google і увійдіть до нього:...

Презентація збо загартовування організму
Презентація збо загартовування організму

Слайд 1 Слайд 2 Слайд 3 Слайд 4 Слайд 5 Слайд 6 Слайд 7 Слайд 8 Слайд 9 Слайд 10 Слайд 11 Слайд 12 Слайд 13 Презентацію на тему "Гартування...

Позакласний захід для початкової школи
Позакласний захід для початкової школи

Час має свою пам'ять – історію. Час має свою пам'ять – історію. 2 лютого ми згадуємо одну з найбільших сторінок Великої...