Теорія високих цифр. Закон великих чисел у формі чебишева

Закон великих чиселв теорії ймовірностей стверджує, що емпіричне середнє (середнє арифметичне) досить великий кінцевої вибірки з фіксованого розподілу близько до теоретичного середнього (математичного очікування) цього розподілу. Залежно від виду збіжності розрізняють слабкий закон великих чисел, коли має місце збіжність, ймовірності, і посилений закон великих чисел, коли має місце збіжність, майже всюди.

Завжди знайдеться таке кінцеве число випробувань, при якому з будь-якою заданою ймовірністю наперед менше 1 відносна частота появи деякої події як завгодно мало відрізнятиметься від його ймовірності.

Загальний зміст закону великих чисел: спільна дія великої кількості однакових і незалежних випадкових факторів призводить до результату, що в межі не залежить від випадку.

У цьому властивості засновані методи оцінки ймовірності з урахуванням аналізу кінцевої вибірки. Наочним прикладом є прогноз результатів виборів на основі опитування вибірки виборців.

Енциклопедичний YouTube

    1 / 5

    ✪ Закон великих чисел

    ✪ 07 – Теорія ймовірностей. Закон великих чисел

    ✪ 42 Закон великих чисел

    ✪ 1 - Закон великих чисел Чебишева

    ✪ 11 клас, 25 урок, Гауссова крива. Закон великих чисел

    Субтитри

    Давайте розберемо закон великих чисел, який є, мабуть, найінтуїтивнішим законом у математиці та теорії ймовірностей. І оскільки він застосовується до багатьох речей, його іноді використовують і розуміють неправильно. Давайте спочатку для точності дам йому визначення, а потім вже ми поговоримо про інтуїцію. Візьмемо випадкову величину, наприклад Х. Припустимо, ми знаємо її математичне очікування чи середнє для сукупності. Закон великих чисел просто каже, що, якщо ми візьмемо приклад n-ої кількості спостережень випадкової величини і виведемо середню кількість всіх цих спостережень… Давайте візьмемо змінну. Назвемо її Х із нижнім індексом n і з рисою нагорі. Це середнє арифметичне n-ої кількості спостережень нашої випадкової величини. Ось моє перше спостереження. Я проводжу експеримент один раз та роблю це спостереження, потім я проводжу його ще раз та роблю ось це спостереження, я проводжу його знов та отримую ось це. Я проводжу цей експеримент n-е кількість разів, а потім поділяю на кількість моїх спостережень. Ось моє середнє вибіркове значення. Ось середнє значення всіх спостережень, які я зробила. Закон великих чисел говорить нам, що моє середнє вибіркове буде наближатися до математичного очікування випадкової величини. Або я можу також написати, що моє вибіркове середнє буде наближатися до середнього за сукупністю для n-ої кількості, що прагне нескінченності. Я не чітко розділяти поняття «наближення» і «збіжність», але сподіваюся, ви інтуїтивно розумієте, що якщо я візьму досить велику вибірку тут, то я отримаю математичне очікування для сукупності в цілому. Думаю, більшість з вас інтуїтивно розуміє, що, якщо я зроблю достатню кількість випробувань з великою вибіркою прикладів, зрештою, випробування дадуть мені очікувані значення, беручи до уваги математичне очікування, ймовірність і таке інше. Але, думаю, часто буває незрозуміло, чому так відбувається. І перш, ніж я почну пояснювати, чому це так, давайте я наведу конкретний приклад. Закон великих чисел говорить нам, що... Припустимо, ми маємо випадкову величину Х. Вона дорівнює кількості орлів при 100 підкиданнях правильної монети. Насамперед, ми знаємо математичне очікування цієї випадкової величини. Це кількість підкидань монети чи випробувань, помножена на шанси успіху будь-якого випробування. Значить, це одно 50-ти. Тобто закон великих чисел говорить, що якщо ми візьмемо вибірку, або якщо я приведу до середнього значення ці випробування, я отримаю. .. Вперше, коли я проводжу випробування, я підкидаю монету 100 разів або візьму ящик з сотнею монет, струсну його, а потім порахую, скільки в мене випаде орлів, і отримаю, припустимо, число 55. Це буде Х1. Потім я знову струсну ящик і отримаю число 65. Потім ще раз – і отримаю 45. І я проробляю цю кількість разів, а потім ділю це на кількість випробувань. Закон великих чисел говорить нам, що це середнє (середнє значення всіх моїх спостережень) буде прагнути до 50-ти в той час, як n прагнутиме нескінченності. Тепер я хотіла б трохи поговорити про те, чому так відбувається. Багато хто вважає, що якщо після 100 випробувань, у мене результат вищий за середній, то за законами ймовірності у мене має випасти більше або менше орлів для того, щоб, так би мовити, компенсувати різницю. Це не зовсім те, що станеться. Це часто називають «помилка азартного гравця». Давайте я покажу різницю. Я використовуватиму наступний приклад. Давайте зображу графік. Поміняємо колір. Це n, моя вісь Х – це n. Це кількість випробувань, які я проведу. А моя вісь Y буде середнім вибірковим. Ми знаємо, що математичне очікування цієї довільної змінної дорівнює 50-ти. Давайте це намалюю. Це 50. Повернемося до нашого прикладу. Якщо n дорівнює… Під час мого першого тесту я отримала 55, це є моє середнє значення. У мене лише одна точка введення даних. Потім, після двох випробувань, я отримую 65. Отже, моє середнє значення буде 65+55, поділене на 2. Це 60. І моє середнє значення трохи зросло. Потім я отримала 45, що знову знизило моє середнє арифметичне. Я не наноситиму на графіку 45. Тепер мені потрібно привести все це до середнього значення. Чому дорівнює 45+65? Давайте я вирахую це значення, щоб позначити точку. Це 165 ділити на 3. Це 53. Ні, 55. Отже, середнє значення знову опускається до 55-ти. Ми можемо продовжити ці випробування. Після того, як ми зробили три випробування і отримали це середнє, багато людей думають, що боги ймовірності зроблять так, що у нас випаде менше орлів у майбутньому, що в наступних кількох випробуваннях результати будуть нижчими, щоб зменшити середнє значення. Але це завжди так. Надалі ймовірність завжди залишається такою самою. Імовірність того, що в мене випаде орел, завжди буде 50%. Не те, що в мене спочатку випадає певна кількість орлів, більша, ніж я очікую, а далі раптово мають випасти решки. Це «помилка гравця». Якщо у вас випадає непомірно велика кількість орлів, це не означає, що у певний момент у вас почне випадати непомірно велика кількість решок. Це не зовсім так. Закон великих чисел говорить нам, що це не має значення. Припустимо, після певної кінцевої кількості випробувань, ваше середнє... Імовірність цього досить мала, проте... Припустимо, ваше середнє досягло цієї позначки – 70-ти. Ви думаєте: «Ого, ми ґрунтовно відійшли від математичного очікування». Але закон великих чисел каже, що йому байдуже, скільки випробувань ми провели. У нас все одно залишилася нескінченна кількість випробувань попереду. Математичне очікування цієї нескінченної кількості випробувань, особливо у подібній ситуації, буде наступним. Коли ви приходите до кінцевого числа, яке виражає якесь велике значення, нескінченне число, яке зійдеться з ним, знову призведе до математичного очікування. Це, звичайно, дуже вільне тлумачення, але це те, що каже нам закон великих чисел. Це важливо. Він не каже нам, що якщо у нас випало багато орлів, то якимось чином ймовірність випадання решіки збільшиться, щоб це компенсувати. Цей закон говорить нам, що не має значення, який результат при кінцевій кількості випробувань, якщо у вас ще залишилася нескінченна кількість випробувань попереду. І якщо ви зробите достатню їх кількість, ви знову повернетеся до математичного очікування. Це важливий момент. Подумайте про нього. Але це не використовується щодня на практиці з лотереями і в казино, хоча відомо, що якщо ви зробите достатню кількість випробувань... Ми навіть можемо це порахувати... чому дорівнює ймовірність того, що ми серйозно відхилимося від норми? Але казино та лотереї щодня працюють за тим принципом, що якщо взяти достатню кількість людей, природно, за короткий термін, з невеликою вибіркою, кілька людей зірвуть куш. Але за великий термін казино завжди залишиться у виграші через параметри ігор, у які вони запрошують вас грати. Це важливий принцип ймовірності, що є інтуїтивним. Хоча іноді, коли вам його формально пояснюють із випадковими величинами, все це виглядає трохи заплутано. Все, що цей закон говорить, – що чим більше вибірок, тим більше середнє арифметичне цих вибірок прагнутиме до справжнього середнього. А якщо бути більш конкретною, то середнє арифметичне вашої вибірки зійдеться з математичним очікуванням випадкової величини. От і все. До зустрічі у наступному відео!

Слабкий закон великих чисел

Слабкий закон великих чисел також називається теоремою Бернуллі , на честь Якоба Бернуллі , що доказав його в 1713 році .

Нехай є нескінченна послідовність (послідовне перерахування) однаково розподілених та некорельованих випадкових величин. Тобто їхня коваріація c o v (X i , X j) = 0, ∀ i ≠ j (\displaystyle \mathrm (cov) (X_(i),X_(j))=0,\;\forall i\not =j). Нехай. Позначимо через вибіркове середнє перших n (\displaystyle n)членів:

.

Тоді X n → P μ (\displaystyle (\bar (X))_(n)\to ^(\!\!\!\!\!\!\mathbb (P) )\mu ).

Тобто для будь-якого позитивного ε (\displaystyle \varepsilon)

lim n → ∞ Pr (| X n − μ |< ε) = 1. {\displaystyle \lim _{n\to \infty }\Pr \!\left(\,|{\bar {X}}_{n}-\mu |<\varepsilon \,\right)=1.}

Посилений закон великих чисел

Нехай є нескінченна послідовність незалежних однаково розподілених випадкових величин ( X i ) i = 1 ∞ (\displaystyle \(X_(i)\)_(i=1)^(\infty )), визначених на одному ймовірнісному просторі (Ω , F , P) (\displaystyle (Omega ,(\mathcal (F)), \mathbb (P))). Нехай E X i = μ , ∀ i ∈ N (\displaystyle \mathbb (E) X_(i)=\mu ,\;\forall i\in \mathbb (N) ). Позначимо через X n (\displaystyle (\bar (X))_(n))вибіркове середнє перших n (\displaystyle n)членів:

X n = 1 n ∑ i = 1 n X i , n ∈ N (\displaystyle (\bar(X))_(n)=(\frac(1)(n))\sum \limits _(i= 1)^(n)X_(i),\;n\in \mathbb (N) ).

Тоді X n → μ (\displaystyle (\bar (X))_(n)\to \mu )майже завжди.

Pr (lim n → ∞ X n = μ) = 1. right) = 1.) .

Як і будь-який математичний закон, закон великих чисел може бути застосовним до реального світу тільки за відомих припущень, які можуть виконуватися лише з деяким ступенем точності. Так, наприклад, умови послідовних випробувань часто не можуть зберігатися нескінченно довго і з абсолютною точністю. Крім того, закон великих чисел говорить лише про неймовірностізначного відхилення середнього значення від математичного очікування.

Якщо явище стійкості середніхмає місце насправді, то в математичній моделі, за допомогою якої ми вивчаємо випадкові явища, повинна існувати теорема, що відображає цей факт.
У разі цієї теореми введемо обмеження на випадкові величини X 1 , X 2 , …, X n:

а) кожна випадкова величина Х iмає математичне очікування

M(Х i) = a;

б) дисперсія кожної випадкової величини кінцева або, можна сказати, що дисперсії обмежені зверху одним і тим самим числом, наприклад З, тобто.

D(Х i) < C, i = 1, 2, …, n;

в) випадкові величини попарно незалежні, тобто будь-які дві X iі X jпри i¹ jнезалежні.

Тоді, очевидно

D(X 1 + X 2 + … + X n)=D(X 1) + D(X 2) + ... + D(X n).

Сформулюємо закон великих чисел у вигляді Чебишева.

Теорема Чебишева:при необмеженому збільшенні числа nнезалежних випробувань « середня арифметична значень випадкової величини, що спостерігаються, сходиться по ймовірності до її математичного очікування. », тобто для будь-якого позитивного ε

Р(| а| < ε ) = 1. (4.1.1)

Сенс вираження «Середня арифметична = сходиться ймовірно до a» полягає в тому, що ймовірність того, що буде скільки завгодно мало відрізнятися від a, необмежено наближається до 1 зі зростанням числа n.

Доведення.Для кінцевого числа nнезалежних випробувань застосуємо нерівність Чебишева для випадкової величини = :

Р(|- M()| < ε ) ≥ 1 – . (4.1.2)

Враховуючи обмеження а – в, обчислимо M( ) та D( ):

M( ) = = = = = = а;

D( ) = = = = = = .

Підставляючи M( ) та D( ) у нерівність (4.1.2), отримаємо

Р(| а| < ε )≥1 .

Якщо в нерівності (4.1.2) взяти скільки завгодно мале ε >0і n® ¥, то отримаємо

що й доводить теорему Чебишева.

З розглянутої теореми випливає важливий практичний висновок: невідоме значення математичного очікування випадкової величини ми маємо право замінити середнім арифметичним значенням, отриманим за досить великому числу дослідів. При цьому, чим більше дослідів для обчислення, тим з більшою ймовірністю (надійністю) очікується, що пов'язана з цією заміною помилка ( – а) не перевершить задану величину ε .

З іншого боку, можна вирішувати інші практичні завдання. Наприклад, за значенням ймовірності (надійності) Р=Р(| а|< ε )і максимальної припустимої помилки ε визначити необхідну кількість дослідів n; по Рі пвизначити ε; по ε і пвизначити межу ймовірності події | а |< ε.

Окремий випадок. Нехай при nвипробуваннях спостерігаються nзначень випадкової величини X,має математичне очікування M(X) та дисперсію D(X). Отримані значення можна як випадкові величини Х 1 ,Х 2 ,Х 3 , ... ,Х n,. Це слід розуміти так: серія з пвипробувань проводиться неодноразово, тому в результаті i-го випробування, i= l, 2, 3, ..., п, у кожній серії випробувань з'явиться те чи інше значення випадкової величини X, не відоме заздалегідь. Отже, i-e значення x iвипадкової величини, отримане в i-м випробуванні змінюється випадковим чином, якщо переходити від однієї серії випробувань до іншої. Таким чином, кожне значення x iможна вважати випадковою величиною X i.


Припустимо, що випробування задовольняють наступним вимогам:

1. Випробування незалежні. Це означає, що результати Х 1 , Х 2 ,
Х 3 , ..., Х nвипробувань – незалежні випадкові величини.

2. Випробування проводяться в однакових умовах - це означає, з точки зору теорії ймовірностей, що кожна з випадкових величин Х 1 ,Х 2 ,Х 3 , ... ,Х nмає такий самий закон розподілу, що і вихідна величина Xтому M(X i) = M(XD(X i) = D(X), i = 1, 2, .... п.

Враховуючи вищезазначені умови, отримаємо

Р(| а| < ε )≥1 . (4.1.3)

Приклад 4.1.1. Xдорівнює 4. Скільки потрібно зробити незалежних дослідів, щоб із ймовірністю не менше 0,9 можна було очікувати, що середнє арифметичне значення цієї випадкової величини відрізнятиметься від математичного очікування менш ніж на 0,5?

Рішення. За умовою завдання ε = 0,5; Р(| а|< 0,5) 0,9. Застосувавши формулу (4.1.3) для випадкової величини Х, отримаємо

P(|- M(X)| < ε ) ≥ 1 .

Зі співвідношення

1 = 0,9

визначимо

п= = = 160.

Відповідь: потрібно зробити 160 незалежних дослідів.

Якщо припустити, що середня арифметична розподілена нормально, то отримуємо:

Р(| а|< ε )= 2Φ () 0,9.

Звідки, скориставшись таблицею функції Лапласа, отримаємо
1,645, або 6,58, тобто. n ≥49.

Приклад4.1.2.Дисперсія випадкової величини Хдорівнює D( Х) = 5. Зроблено 100 незалежних дослідів, за якими обчислено . Замість невідомого значення математичного очікування априйнято . Визначити максимальну величину помилки, що допускається при цьому з ймовірністю не менше 0,8.

Рішення.За умовою завдання n= 100, Р(| а|< ε ) ≥0,8. Застосуємо формулу (4.1.3)

Р(| а|< ε ) ≥1 .

Зі співвідношення

1 = 0,8

визначимо ε :

ε 2 = = = 0,25.

Отже, ε = 0,5.

Відповідь: максимальна величина помилки ε = 0,5.

4.2. Закон великих чисел у формі Бернуллі

Хоча основу будь-якого статистичного висновку лежить поняття ймовірності, ми лише у випадках можемо визначити ймовірність події безпосередньо. Іноді цю ймовірність можна встановити з міркувань симетрії, рівної можливості тощо, але універсального методу, який дозволяв би для довільної події вказати його ймовірність, немає. Теорема Бернуллі дає можливість наближеної оцінки ймовірності, якщо для події, що цікавить нас. Аможна проводити повторні незалежні випробування. Нехай зроблено пнезалежних випробувань, у кожному з яких ймовірність появи деякої події Апостійна і рівна нар.

Теорема Бернуллі.При необмеженому зростанні кількості незалежних випробувань пвідносна частота появи події Асходиться ймовірно до ймовірності pпояви події А,Т. е.

P(½ - p½≤ ε) = 1, (4.2.1)

де ε - скільки завгодно мале позитивне число.

Для кінцевого nза умови, що , нерівність Чебишева для випадкової величини матиме вигляд:

P(| - p |< ε ) 1 .(4.2.2)

Доведення.Застосуємо теорему Чебишева. Нехай X i- Число появи події Ав i-ом випробуванні, i= 1, 2, . . . , n. Кожна з величин X iможе прийняти лише два значення:

X i= 1 (подія Анастало) з ймовірністю p,

X i= 0 (подія Ане настало) з ймовірністю q= 1- p.

Нехай Y n=. Сума X 1 + X 2 + … + X nдорівнює числу mпояви події Ав nвипробуваннях (0 m n), а значить, Y n= - Відносна частота появи події Ав nвипробуваннях. Математичне очікування та дисперсія X iрівні відповідно:

M( ) = 1∙p + 0∙q = p,

Приклад 4.2.1.З метою встановлення частки шлюбу продукції було перевірено за схемою зворотної вибірки 1000 одиниць. Яка ймовірність того, що встановлена ​​цією вибіркою частка шлюбу за абсолютною величиною відрізнятиметься від частки шлюбу по всій партії не більше ніж на 0,01, якщо відомо, що в середньому на кожні 10 000 виробів припадає 500 бракованих?

Рішення.За умовою завдання кількість незалежних випробувань n= 1000;

p= = 0,05; q= 1 – p= 0,95; ε = 0,01.

Застосовуючи формулу (4.2.2), отримаємо

P(| p|< 0,01) 1 – = 1 – = 0,527.

Відповідь: з ймовірністю не менше 0,527 очікується, що вибіркова частка шлюбу (відносна частота появи шлюбу) відрізнятиметься від частки шлюбу у всій продукції (від ймовірності шлюбу) не більше ніж на 0,01.

Приклад 4.2.2.При штампуванні деталей можливість шлюбу становить 0,05. Скільки потрібно перевірити деталей, щоб із ймовірністю не менше 0,95 можна було очікувати, що відносна частота бракованих виробів відрізнятиметься від ймовірності шлюбу менш ніж на 0,01?

Рішення.За умовою завдання р= 0,05; q= 0,95; ε = 0,01;

P(| p|<0,01) 0,95.

З рівності 1 = 0,95 знаходимо n:

n= = =9500.

Відповідь: необхідно перевірити 9500 деталей.

Зауваження.Оцінки необхідного числа спостережень, які одержують при застосуванні теореми Бернуллі (або Чебишева), дуже перебільшені. Існують більш точні оцінки, запропоновані Бернштейном і Хінчин, але потребують складнішого математичного апарату. Щоб уникнути перебільшення оцінок, іноді користуються формулою Лапласа

P(| p|< ε ) ≈ 2Φ .

Недоліком цієї формули є відсутність оцінки похибки, що допускається.


У чому секрет найуспішніших продавців? Якщо спостерігати за найкращими продавцями будь-якої компанії, ви помітите, що їх поєднує одна загальна якість. Кожен із них зустрічається з великою кількістю людей та робить більше презентацій, ніж менш успішні продавці. Ці люди розуміють, що продажі - гра чисел, і чим більшій кількості людей вони розкажуть про свої продукти чи послуги, тим більше угод укладуть - ось і все. Вони розуміють, що якщо спілкуватимуться не лише з тими небагатьма, хто виразно скаже їм "так", а й з тими, чий інтерес до їхньої пропозиції не такий великий, то закон середніх чисел спрацює на їхню користь.


Ваші доходи будуть залежати від кількості продажів, але в той же час вони будуть прямо пропорційні кількості презентацій, які ви робите. Як тільки ви зрозумієте та почнете застосовувати на практиці закон середніх чисел, тривога, пов'язана з початком нового бізнесу чи роботи у новій сфері, почне знижуватися. А в результаті почне зростати почуття контролю та впевненість у своїй здатності заробляти. Якщо ви просто робитимете презентації і відточуватимете в цьому процесі свої навички, з'являться й угоди.

Чим думати про кількість угод, думайте краще про кількість презентацій. Немає сенсу прокидатися вранці або приходити додому ввечері і гадати, хто купить у вас продукт. Натомість, найкраще кожен день планувати, скільки дзвінків вам необхідно зробити. А потім, незважаючи ні на що – зробити всі ці дзвінки! Такий підхід спростить вам роботу – тому що це проста та конкретна мета. Якщо ви знатимете, що перед вами стоїть цілком певне та досяжне завдання, вам буде легше зробити заплановану кількість дзвінків. Якщо в цьому процесі ви кілька разів почуєте "так" - то краще!

А якщо "ні", то ввечері ви відчуватимете, що чесно зробили все, що могли, і вас не мучитимуть думки про те, скільки грошей ви заробили, або як багато компаньйонів придбали за день.

Припустимо, у вашій компанії або у вашому бізнесі середній продавець укладає одну угоду на чотири презентації. Тепер уявіть собі, що ви витягуєте карти з колоди. Кожна карта трьох мастей – піки, бубни та трефи – це презентація, на якій ви професійно представляєте продукт, послугу чи можливість. Ви робите це так добре, як тільки можете, але все одно не укладаєте угоду. А кожна черв'яка карта - це угода, що дозволяє вам отримати гроші або придбати нового компаньйона.

У такій ситуації, хіба вам не захочеться витягти з колоди якнайбільше карт? Припустимо, вам пропонують витягнути стільки карт, скільки ви хочете, і при цьому платити вам або пропонувати нового компаньйона щоразу, коли ви витягуєте червову карту. Ви почнете захоплено тягнути карти, ледь помічаючи, який масті карту щойно витягли.

Ви знаєте, що у колоді з п'ятдесяти двох карт - тринадцять червових. А у двох колодах – двадцять шість червових карт, і так далі. Чи будете ви розчаровані, витягнувши списи, бубни чи трефи? Ні звичайно! Ви думатимете тільки про те, що кожний такий "промах" наближає вас - до чого? До червової карти!

Але знаєте, що? Вам уже зробили таку пропозицію. Ви знаходитесь в унікальній ситуації, що дозволяє заробити стільки, скільки вам захочеться, і витягнути стільки хробаків, скільки ви хочете витягнути у своєму житті. І якщо ви просто сумлінно "тягнете карти", удосконалюєте свої навички і стійко переносите трохи пік, бубон і треф, то станете чудовим продавцем і досягнете успіху.

Одна з речей, що роблять процес продажу настільки захоплюючим - те, що кожного разу, коли тасуєш колоду, карти перемішуються по-різному. Іноді всі черви виявляються на початку колоди, і після вдалої смуги (коли нам уже здається, що ми ніколи не програємо!) на нас чекає довгий ряд карт іншої масті. А вдруге, щоб дістатися першої черви, доведеться пройти через нескінченну кількість пік, треф та бубон. А іноді карти різної масті випадають по черзі. Але в будь-якому випадку, в кожній колоді з п'ятдесяти двох карток, у якомусь порядку, завжди є тринадцять червових карток. Просто витягайте карти доти, доки їх не знайдете.



Від: Leylya,  

Виявлений на великому та різноманітному матеріалі феномен стабілізації частот появи випадкових подій спочатку не мав якогось обґрунтування та сприймався як суто емпіричний факт. Першим теоретичним результатом у цій галузі стала опублікована 1713 р. знаменита теорема Бернуллі, яка започаткувала закони великих чисел.

Теорема Бернуллі за своїм змістом є граничною теоремою, тобто твердженням асимптотичного сенсу, що говорить, що буде з ймовірнісними параметрами при великій кількості спостережень. Батьківщиною всіх сучасних численних тверджень такого типу є теорема Бернуллі.

На сьогодні видається, що математичний закон великих чисел є відображенням деякої загальної якості багатьох реальних процесів.

Маючи бажання надати закону великих чисел можливо більшого охоплення, що відповідає далеко ще не вичерпаним потенційним можливостям застосування цього закону, один із найбільших математиків нашого століття А. Н. Колмогоров наступним чином сформулював його суть: закон великих чисел - «загальний принцип, в силу якого сукупне дія великої кількості випадкових факторів призводить до результату, що майже не залежить від випадку».

Таким чином, закон великих чисел має два трактування. Одна - математична, пов'язана з конкретними математичними моделями, формулюваннями, теоріями, і друга - загальніша, що виходить за ці рамки. Друге трактування пов'язана з феноменом освіти, що нерідко відзначається на практиці, в тій чи іншій мірі спрямованої дії на тлі великої кількості прихованих або видимих ​​діючих факторів, що зовні такої безперервності не мають. Прикладами, пов'язаними з другим трактуванням, є ціноутворення на вільному ринку, формування громадської думки з того чи іншого питання.

Відзначивши це загальне трактування закону великих чисел, звернемося до конкретних математичних формулювань цього закону.

Як ми вже сказали вище, першою і важливою для теорії ймовірностей є теорема Бернуллі. Зміст цього математичного факту, що відбиває одну з найважливіших закономірностей навколишнього світу, зводиться до наступного.

Розглянемо послідовність не пов'язаних між собою (тобто незалежних) випробувань, умови проведення яких відтворюються незмінно від випробування до випробування. Результатом кожного випробування є поява або непоява цікавої для нас події А.

Цю процедуру (схему Бернуллі), очевидно, можна визнати типовою для багатьох практичних областей: «хлопчик – дівчинка» у послідовності новонароджених, щоденні метеорологічні спостереження («був дощ – не був»), контроль потоку виробів («нормальне – дефектне») і т.д.

Частина появи події Апри пвипробуваннях ( т А -

частота появи події Ав пвипробуваннях) має зі зростанням птенденцію до стабілізації свого значення це емпіричний факт.

Теорема Бернуллі.Виберемо будь-яке скільки завгодно мале позитивне число е. Тоді

Підкреслимо, що математичний факт, встановлений Бернуллі у певній математичній моделі (у схемі Бернуллі), не слід змішувати з емпірично встановленою закономірністю стійкості частот. Бернуллі не задовольнявся лише твердженням формули (9.1), але, враховуючи потреби практики, оцінив присутній у цій формулі нерівності. До такого трактування ми ще звернемося нижче.

Закон великих чисел Бернуллі був предметом досліджень багатьох математиків, які прагнули уточнити його. Одне з таких уточнень було отримано англійським математиком Муавром і в даний час зветься теореми Муавра - Лапласа. У схемі Бернуллі розглянемо послідовність нормованих величин:

Інтегральна теорема Муавра – Лапласа.Виберемо якісь два числа х (і х 2 .При цьому х, х 7 тоді при п -» °°

Якщо у правій частині формули (9.3) змінну х хспрямувати до нескінченності, то отримана межа, яка залежить тільки від х 2 (індекс 2 при цьому можна прибрати), буде функцією розподілу, вона називається стандартним нормальним розподілом,або законом Гауса.

Права частина формули (9.3) дорівнює у = F(x 2) - F(x x). F(x 2)-> 1 при х 2-> ° ° і F(x,) -> 0 при х, -> За рахунок вибору досить великого

X] > 0 і досить великого за абсолютною величиною X] п отримаємо нерівність:

Зважаючи на формулу (9.2), ми можемо отримати практично достовірні оцінки:

Якщо достовірність у = 0,95 (тобто ймовірність помилки 0,05) може здатися комусь недостатньою, можна «перестрахуватися» і побудувати трохи ширший довірчий інтервал, використовуючи згадане вище правило трьох сигм:

Цьому інтервалу відповідає дуже високий рівень довіри = 0,997 (див. таблиці нормального розподілу).

Розглянемо приклад, що полягає у киданні монети. Нехай ми кинули монету п = 100 разів. Чи може статися, що часто рсильно відрізнятиметься від ймовірності р= 0,5 (у припущенні симетричності монети), наприклад, дорівнюватиме нулю? Для цього треба, щоб герб не випав жодного разу. Така подія теоретично можлива, проте ми вже розраховували подібні ймовірності, для цієї події вона виявиться рівною Ця величина

надзвичайно мала, її порядок – число з 30 нулями після коми. Подія з такою ймовірністю сміливо можна вважати практично неможливою. Які ж відхилення частоти від ймовірності за великої кількості дослідів практично можливі? Використовуючи теорему Муавра - Лапласа, ми відповідаємо це питання так: з ймовірністю у= 0,95 Частина герба рукладається в довірчий інтервал:

Якщо помилка в 0,05 здається чимало, треба збільшити кількість дослідів (кидань монети). При збільшенні пширина довірчого інтервалу зменшується (на жаль, не так швидко, як нам хотілося б, а обернено пропорційно -Jn).Наприклад, при п= 10 000 отримаємо, що рлежить у довірчому інтервалі з довірчою ймовірністю у= 0,95: 0,5±0,01.

Таким чином, ми розібралися кількісно у питанні про наближення до ймовірності.

Тепер знайдемо ймовірність події щодо його частості та оцінимо помилку цього наближення.

Нехай ми зробили велику кількість дослідів п(кидали монету), знайшли частину події Аі хочемо оцінити його ймовірність нар.

Із закону великих чисел пвипливає, що:

Тепер оцінимо практично можливу помилку наближеної рівності (9.7). Для цього скористаємося нерівністю (9.5) у формі:

Для знаходження рпо ртреба розв'язати нерівність (9.8), для цього її треба звести в квадрат і розв'язати відповідне квадратне рівняння. В результаті отримаємо:

де

Для наближеної оцінки рпо рможна у формулі (9.8) рправоруч замінити на рабо ж у формулах (9.10), (9.11) вважати, що

Тоді отримаємо:

Нехай у п= 400 дослідах отримано значення частоти р= 0,25, тоді за рівня довіри у = 0,95 знайдемо:

А якщо нам потрібно знати можливість точніше, з помилкою, скажімо, не більше 0,01? Для цього треба збільшити кількість дослідів.

Вважаючи у формулі (9.12) ймовірність р= 0,25, прирівняємо величину помилки заданій величині 0,01 і отримаємо рівняння щодо п:

Вирішуючи це рівняння, отримаємо п ~ 7500.

Розглянемо тепер ще одне питання: можна пояснити отримане в дослідах відхилення частоти від ймовірності випадковими причинами чи це відхилення показує, що ймовірність не така, якою ми її припускали? Іншими словами, чи підтверджує досвід прийняту статистичну гіпотезу чи, навпаки, вимагає її відхилити?

Нехай, наприклад, кинувши монету п= 800 разів, ми отримаємо частоту появи герба р= 0,52. У нас виникла підозра, що монета несиметрична. Чи обґрунтовано таку підозру? Щоб відповісти на це питання, виходитимемо з припущення, що монета симетрична (Р = 0,5). Знайдемо довірчий інтервал (при довірчій ймовірності у= 0,95) для частоти появи герба. Якщо отримане у досвіді значення р= 0,52 вкладається в цей інтервал - все в нормі, прийнята гіпотеза про симетрію монети не суперечить досвідченим даним. Формула (9.12) при р= 0,5 дає інтервал 0,5±0,035; отримане значення р = 0,52 вкладається в цей інтервал, отже, доведеться "очистити" монету від підозр у несиметрії.

Аналогічними методами користуються у тому, щоб судити: випадкові чи «значні» різні відхилення від математичного очікування, які у випадкових явищах. Наприклад, чи випадково було отримано недовагу в кількох зразках розфасованих товарів чи він вказує на систематичний обман покупців? Чи випадково підвищився відсоток одужань у хворих, які застосовували новий препарат, чи це пов'язано з дією препарату?

Нормальний закон грає особливо важливу роль у теорії ймовірностей та її практичних додатках. Вище ми вже бачили, що випадкова величина - кількість появ певної події в схемі Бернуллі - при п- ° ° зводиться до нормального закону. Однак має місце набагато загальніший результат.

Центральна гранична теорема.Сума великої кількості незалежних (або слабко залежних) випадкових величин, порівнянних між собою по порядку своїх дисперсій, розподілена за нормальним законом незалежно від того, якими були закони розподілу доданків. Наведене твердження - це грубе якісне формулювання центральної граничної теорії. Ця теорема має багато форм, що відрізняються між собою умовами, яким повинні задовольняти випадкові величини, щоб їх сума зі збільшенням числа доданків «нормалізувалася».

Щільність нормального розподілу Дх) виражається формулою:

де а -математичне очікування випадкової величини Х з= V7) – її стандартне відхилення.

Для обчислення ймовірності попадання х у межі інтервалу (х 1? х 2) використовується інтеграл:

Так як інтеграл (9.14) при густині (9.13) не виражається через елементарні функції («не береться»), то для обчислення (9.14) користуються таблицями інтегральної функції розподілу стандартного нормального розподілу, коли а = 0, а = 1 (такі таблиці є у будь-якому підручнику з теорії ймовірностей):

Імовірність (9.14) за допомогою рівняння (10.15) виражається формулою:

приклад. Знайти ймовірність того, що випадкова величина X,має нормальний розподіл із параметрами а, а, відхилиться від свого математичного очікування за модулем не більше ніж на За.

Користуючись формулою (9.16) та таблицею функції розподілу нормального закону, отримаємо:

приклад. У кожному із 700 незалежних досвідів подія Авідбувається з постійною ймовірністю р= 0,35. Знайти ймовірність того, що подія Авідбудеться:

  • 1) точно 270 разів;
  • 2) менше ніж 270 та більше ніж 230 разів;
  • 3) більше ніж 270 разів.

Знаходимо математичне очікування а = прта стандартне відхилення:

випадкової величини – числа появи події А:

Знаходимо центроване та нормоване значення X:

За таблицями щільності нормального розподілу знаходимо f(x):

Знайдемо тепер Р ш (х,> 270) = Р 700 (270 F(1,98) = = 1 - 0,97615 = 0,02385.

Серйозний крок у дослідженнях проблематики великих чисел було зроблено у 1867 р. П. Л. Чебишевим. Він розглянув загальний випадок, коли від незалежних випадкових величин не потрібно нічого, крім існування математичних очікувань та дисперсій.

Нерівність Чебишева.Для будь-якого малого позитивного числа е виконується нерівність:

Теорема Чебишева.Якщо х х, х 2 , ..., х п -попарно незалежні випадкові величини, кожна з яких має математичне очікування E(Xj) = ciта дисперсію D(x,) =), причому дисперсії рівномірно обмежені, тобто. 1,2 ..., то для скільки завгодного малого позитивного числа евиконується співвідношення:

Слідство. Якщо а, =аіо, -о 2 , i= 1,2 ..., то

Завдання. Скільки разів треба кинути монету, щоб із ймовірністю не меншою, ніж у - 0,997, можна було стверджувати, що частина випадання герба перебуватиме в інтервалі (0,499; 0,501)?

Припустимо, що монета симетрична, р - q - 0,5. Застосуємо теорему Чебишева у формулі (9.19) до випадкової величини X -частоті появи герба в пкидання монети. Вище ми вже показували, що X = Х х + Х 2 + ... +Х„,де X t -випадкова величина, яка набирає значення 1, якщо випав герб, і значення 0, якщо випала решка. Отже:

Запишемо нерівність (9.19) для події, протилежної події, вказаній під знаком ймовірності:

У разі [е = 0,001, cj 2 = /?-р)]т - число випадань герба в пкиданнях. Підставляючи ці величини в останню нерівність і враховуючи, що за умовою завдання має виконуватися нерівність, отримаємо:

Наведений приклад ілюструє можливість використання нерівності Чебишева для оцінок ймовірностей тих чи інших ухилень випадкових величин (а також пов'язаних із обчисленням цих ймовірностей завдань типу цього прикладу). Перевагою нерівності Чебишева і те, що вона вимагає знання законів розподілів випадкових величин. Зрозуміло, якщо такий закон відомий, то нерівність Чебишева дає надто грубі оцінки.

Розглянемо цей приклад, але використовуючи той факт, що кидання монети є окремим випадком схеми Бернуллі. Число успіхів (у прикладі - число гербів) підпорядковується біноміальному закону, а за великого пцей закон можна з інтегральної теореми Муавра - Лапласа подати нормальним законом з математичним очікуванням а = пр = п? 0,5 та зі стандартним відхиленням а = yfnpq - 25 = 0,5 л / л. Випадкова ж величина – частота випадання герба – має математичне очікування = 0,5 та стандартне відхилення

Тоді маємо:

З останньої нерівності отримуємо:

З таблиць нормального розподілу знаходимо:

Бачимо, що нормальне наближення дає кількість кидань монети, що забезпечує задану похибку в оцінюванні ймовірності герба, в 37 разів менше порівняно з оцінкою, отриманою з використанням нерівності Чебишева (але нерівність Чебишева дає можливість подібних розрахунків і в тому випадку, коли ми не володіємо інформацією про закон розподілу досліджуваної випадкової величини).

Розглянемо тепер прикладне завдання, яке вирішується за допомогою формули (9.16).

Завдання про конкуренцію. Дві конкуруючі залізничні компанії мають по одному поїзду, що курсує між Москвою та Санкт-Петербургом. Ці поїзди обладнані приблизно однаково, вирушають і прибувають також приблизно в один і той самий час. Припустимо, що п= 1000 пасажирів незалежно і навмання вибирають собі поїзд, тому як математичну модель вибору поїзда пасажирами використовуємо схему Бернуллі з пвипробуваннями та ймовірністю успіху р= 0,5. Компанія має вирішити питання, скільки місць передбачити в поїзді з урахуванням двох взаємно суперечливих умов: з одного боку, не хочеться мати порожні місця, з іншого - не хочеться, щоб з'явилися незадоволені відсутністю місць (наступного разу вони віддадуть перевагу конкуруючим фірмам). Зрозуміло, можна передбачити у поїзді п= 1000 місць, але тоді наперед будуть порожні місця. Випадкова величина – кількість пасажирів у поїзді – в рамках прийнятої математичної моделі з використанням інтегральної теорії Муавра – Лапласа підпорядковується нормальному закону з математичним очікуванням а = пр = п/2 та дисперсією а 2 = npq = п/4послідовно. Імовірність того, що на поїзд прийде більше sпасажирів визначається співвідношенням:

Задамо рівень ризику а, тобто ймовірність того, що прийде більше sпасажирів:

Звідси:

Якщо а- корінь ризику останнього рівняння, що знаходиться за таблицями функції розподілу нормального закону, отримуємо:

Якщо, наприклад, п = 1000, а= 0,01 (такий рівень ризику означає, що кількість місць sбуде достатнім у 99 випадках зі 100), то х а ~ 2,33 та s = 537 місць. При цьому, якщо обидві компанії приймуть однакові рівні ризику а= 0,01, то два поїзди матимуть загалом 1074 місця, 74 з яких будуть порожніми. Аналогічно можна обчислити, що 514 місць було б достатньо 80% всіх випадків, а 549 ​​місць - 999 з 1000 випадків.

Подібні міркування застосовні і в інших завданнях конкуруючого обслуговування. Наприклад, якщо ткінотеатрів змагаються через одних і тих же пглядачів, то слід прийняти р= -. Отримаємо,

що кількість місць sу кінотеатрі має визначатися співвідношенням:

Загальна кількість порожніх місць при цьому дорівнює:

Для а = 0,01, п= 1000 та т= 2, 3, 4 значення цього числа приблизно рівні відповідно 74, 126, 147.

Розглянемо ще один приклад. Нехай поїзд складається з п - 100 вагонів. Вага кожного вагона – випадкова величина з математичним очікуванням а - 65 т та середнім квадратичним очікуванням про = 9 т. Локомотив може везти поїзд, якщо його вага не перевищує 6600 т; інакше доводиться підчіпляти другий локомотив. Потрібно знайти ймовірність того, що цього робити не доведеться.

ваг окремих вагонів: , що мають одне і те ж математичне очікування а - 65 і ту саму дисперсію d -про 2 = 81. За правилом математичних очікувань: Е(х) - 100 * 65 = 6500. За правилом складання дисперсій: D(x) = 100 х 81 = 8100. Виймаючи корінь, знайдемо середнє квадратичне відхилення. Для того, щоб один локомотив міг везти поїзд, потрібно, щоб вага поїзда Xвиявився граничним, тобто потрапив у межі інтервалу (0; 6600). Випадкову величину х - суму 100 доданків - вважатимуться розподіленою нормально. За формулою (9.16) отримаємо:

Звідси випливає, що локомотив «впорається» з поїздом приблизно з ймовірністю 0,864. Зменшимо тепер кількість вагонів у поїзді на два, тобто візьмемо п= 98. Підраховуючи тепер ймовірність того, що локомотив «впорається» з поїздом, отримаємо величину порядку 0,99, тобто практично достовірну подію, хоча для цього довелося забрати всього два вагони.

Отже, якщо маємо справу з сумами великої кількості випадкових величин, можна використовувати нормальний закон. Звичайно, при цьому виникає питання: скільки потрібно скласти випадкових величин, щоб закон розподілу суми вже нормалізувався? Це від того, які закони розподілу доданків. Бувають такі хитромудрі закони, що нормалізація настає тільки при дуже великій кількості доданків. Але ці закони вигадують математики, а природа, як правило, спеціально не влаштовує таких неприємностей. Зазвичай практично для того, щоб можна було користуватися нормальним законом, буває достатньо п'яти-шести доданків.

Швидкість, з якою нормалізується закон розподілу суми однаково розподілених випадкових величин, можна проілюструвати на прикладі випадкових величин з рівномірним розподілом на інтервалі (0, 1). Крива такого розподілу має вигляд прямокутника, що несхоже на нормальний закон. Складемо дві такі незалежні величини – отримаємо випадкову величину, розподілену за так званим законом Сімпсона, графічне зображення якого має вигляд рівнобедреного трикутника. Теж не схоже на нормальний закон, але вже краще. А якщо скласти три такі рівномірно розподілені випадкові величини, вийде крива, що складається з трьох відрізків парабол, дуже схожа на нормальну криву. Якщо ж скласти шість таких випадкових величин, вийде крива, яка не відрізняється від нормальної. На цьому заснований широко застосовуваний метод отримання нормально розподіленої випадкової величини, датчиками рівномірно розподілених (0, 1) випадкових чисел оснащені всі сучасні ЕОМ.

Як один із практичних способів перевірки цього рекомендується наступний спосіб. Будуємо довірчий інтервал для частоти події з рівнем у= 0,997 за правилом трьох сигм:

і якщо обидва його кінця не виходять за межі відрізка (0, 1), то можна користуватися нормальним законом. Якщо ж якась із меж довірчого інтервалу виявляється за межами відрізка (0, 1), то нормальним законом користуватися не можна. Проте в деяких умовах біноміальний закон для частоти деякої випадкової події, якщо він не прагне нормального, то може прагнути іншого закону.

У багатьох додатках як математичну модель випадкового досвіду використовується схема Бернуллі, у якій кількість випробувань пвелике, випадкове подія досить рідко, тобто. р = прЧимало, а й не велике (вагається в інтервалі О -5- 20). У цьому випадку має місце граничне співвідношення:

Формула (9.20) називається пуассонівським наближенням для біномного закону, оскільки ймовірнісний розподіл у її правій частині називається законом Пуассона. Говорять, що пуассонівський розподіл є імовірнісним розподілом для рідкісних подій, оскільки він має місце, коли виконуються межі: п -»°°, р-»0, але X = пров.

приклад. Дні народження. Яка ймовірність Р т (к)того, що у суспільстві з 500 осіб долюдина народилися у день Нового року? Якщо ці 500 осіб обрані навмання, то можна застосувати схему Бернуллі з ймовірністю успіху Р = 1/365. Тоді

Розрахунки ймовірностей для різних додають такі величини: Р у = 0,3484...; Р 2 = 0,2388...; Р 3 = 0,1089...; Р 4 = 0,0372...; Р 5 = 0,0101...; Р 6= 0,0023... Відповідні наближення за формулою Пуассона при X = 500 1/365 = 1,37

дають такі величини: Ру = 0,3481...; Р 2 = 0,2385...; Р ' = 0,1089; Р 4 = 0,0373...; Р 5 = 0,0102...; Р 6 = 0,0023... Усі помилки лише у четвертому десятковому знаку.

Наведемо приклади ситуацій, де можна використати закон рідкісних подій Пуассона.

На телефонній станції неправильне з'єднання відбувається з малою ймовірністю р,зазвичай р~ 0,005. Тоді формула Пуассона дозволяє знайти ймовірність неправильних з'єднань за заданої загальної кількості з'єднань. п ~ 1000, коли Х = пр =1000 0,005 = 5.

При випіканні булочок у тісто кладуть родзинки. Слід очікувати, що завдяки розмішування частота булок з родзинками приблизно підпорядковуватиметься розподілу Пуассона Р п (до, X),де X -щільність родзинок у тесті.

Радіоактивна речовина випромінює я-частинки. Подія полягає в тому, що число й-часток, що досягають протягом часу tзаданої ділянки простору, що приймає фіксоване значення до,підпорядковується закону Пуассона.

Число живих клітин із зміненими хромосомами під дією рентгенівських променів слідує розподілу Пуассона.

Отже, закони великих чисел дозволяють вирішувати завдання математичної статистики, пов'язані з оцінюванням невідомих ймовірностей елементарних результатів випадкового досвіду. Завдяки цим знанням ми робимо методи теорії ймовірностей практично змістовними та корисними. Закони великих чисел дозволяють також вирішувати завдання отримання інформації про невідомі елементарні ймовірності та в іншій формі - формі перевірки статистичних гіпотез.

Розглянемо докладніше формулювання та ймовірнісний механізм розв'язання задач перевірки статистичних гіпотез.

ЛЕКЦІЯ 5

Повторення пройденого

Частина 1 - РОЗДІЛ 9. ЗАКОН ВЕЛИКИХ ЧИСЕЛ. Граничні ТЕОРЕМИ

За статистичного визначення
ймовірності вона сприймається як деяке
число, якого прагне відносна
Частота випадкової події. При
аксіоматичному визначенні ймовірність –
це, по суті, адитивний захід множини
результатів, які сприяють випадковому
події. У першому випадку маємо справу з
емпіричною межею, у другій – з
теоретичним поняттям міри. Зовсім НЕ
очевидно, що вони відносяться до одного і того ж
поняттю. Зв'язок різних визначень
ймовірності встановлює теорема Бернуллі,
що є окремим випадком закону великих
чисел.

При збільшенні кількості випробувань
біноміальний закон прагне
нормальному розподілу. Це теорема
Муавра-Лапласа, яка є
окремим випадком центральної граничної
теореми. Остання говорить, що функція
розподілу суми незалежних
випадкових величин із зростанням числа
доданків прагне нормального
закону.
Закон великих чисел та центральна
гранична теорема лежать у основі
математичної статистики.

9.1. Нерівність Чебишева

Нехай випадкова величина ξ має
кінцеві математичне очікування
M[ξ] та дисперсію D[ξ]. Тоді для
будь-якого позитивного числа ε
справедлива нерівність:

Примітки

Для протилежної події:
Нерівність Чебишева справедлива для
будь-якого закону розподілу.
Поклавши
факт:
, отримуємо нетривіальний

9.2. Закон великих чисел у формі Чебишева

Теорема Нехай випадкові величини
попарно незалежні та мають кінцеві
дисперсії, обмежені однієї і тієї ж
постійною
Тоді для
будь-якого
маємо
Таким чином, закон великих чисел говорить про
збіжності за ймовірністю середнього арифметичного випадкових величин (тобто випадкової величини)
до середнього арифметичного їх мат. очікувань (тобто.
до не випадкової величини).

9.2. Закон великих чисел у формі Чебишева: доповнення

Теорема (Маркова): закон великих
чисел виконується, якщо дисперсія
суми випадкових величин зростає не
занадто швидко зі зростанням n:

10. 9.3. Теорема Бернуллі

Розглянемо схему Бернуллі.
Нехай μn – число настань події А в
n незалежних випробуваннях, р – ймовірність настання події А в одному
випробування. Тоді для будь-кого
Тобто. ймовірність того, що відхилення
відносної частоти випадкової події від
його ймовірності р буде по модулю як завгодно
мало, воно прагне одиниці зі зростанням числа
випробувань n.

11.

Доказ: Випадкова величина μn
розподілена за біноміальним законом, тому
маємо

12. 9.4. Характеристичні функції

Характеристичною випадковою функцією
величини називається функція
де exp(x) = ex.
Таким чином,
являє собою
математичне очікування деякої
комплексної випадкової величини
пов'язаної із величиною. Зокрема, якщо
– дискретна випадкова величина,
задана поряд розподілу (xi, pi), де i
= 1, 2,..., n, то

13.

Для безперервної випадкової величини
із щільністю розподілу
ймовірності

14.

15. 9.5. Центральна гранична теорема (теорема Ляпунова)

16.

Повторили пройдене

17. ОСНОВИ ТЕОРІЇ МОЖЛИВОСТЕЙ І МАТЕМАТИЧНОЇ СТАТИСТИКИ

ЧАСТИНА ІІ. МАТЕМАТИЧНА
СТАТИСТИКА

18. Епіграф

«Існує три види брехні: брехня,
нахабна брехня та статистика»
Бенджамін Дізраелі

19. Вступ

Дві основні завдання математичної
статистики:
збір та угруповання статистичних
даних;
розробка методів аналізу
отриманих даних в залежності від
цілей дослідження.

20. Методи статистичного аналізу даних:

оцінка невідомої ймовірності події;
оцінка невідомої функції
розподілу;
оцінка параметрів відомого
розподілу;
перевірка статистичних гіпотез про вид
невідомого розподілу або про
значення параметрів відомого
розподілу.

21. РОЗДІЛ 1. ОСНОВНІ ПОНЯТТЯ МАТЕМАТИЧНОЇ СТАТИСТИКИ

22. 1.1. Генеральна сукупність та вибірка

Генеральна сукупність – все
безліч досліджуваних об'єктів,
Вибірка – набір об'єктів випадково
відібраних із генеральної сукупності
для дослідження.
Обсяг генеральної сукупності та
обсяг вибірки - кількість об'єктів у генеральній сукупності та вибірці - будемо
позначати відповідно як N та n.

23.

Вибірка буває повторною, коли
кожен відібраний об'єкт перед
вибором наступного повертається до
генеральну сукупність, та
безповторною, якщо відібраний
об'єкт у генеральну сукупність не
повертається.

24. Репрезентативна вибірка:

правильно представляє особливості
генеральної сукупності, тобто. є
репрезентативної (представницької).
За законом великих чисел, можна стверджувати,
що ця умова виконується, якщо:
1) обсяг вибірки n досить великий;
2) кожен об'єкт вибірки обрано випадково;
3) для кожного об'єкта можливість потрапити
у вибірку однакова.

25.

Генеральна сукупність та вибірка
можуть бути одновимірними
(однофакторними)
та багатовимірними (багатофакторними)

26. 1.2. Вибірковий закон розподілу (статистичний ряд)

Нехай у вибірці обсягом n
цікава для нас випадкова величина ξ
(якийсь параметр об'єктів
генеральної сукупності) приймає n1
раз значення x1, n2 рази – значення x2,... і
nk разів – значення xk. Тоді спостерігаються
значення x1, x2,..., xk випадкової величини
ξ називаються варіантами, а n1, n2,..., nk
- Їх частотами.

27.

Різниця xmax - xmin є розмах
вибірки, відношення ωi = ni /n -
відносна частота варіанти xi.
Очевидно, що

28.

Якщо ми запишемо варіанти у порядку, що зростає, то отримаємо варіаційний ряд. Таблиця, що складається з таких
упорядкований варіант та їх частот
(і/або відносних частот)
називається статистичним рядом або
вибірковим законом розподілу.
- Аналог закону розподілу дискретної
випадкової величини в теорії ймовірності

29.

Якщо варіаційний ряд складається з дуже
великої кількості чисел
досліджується деякий безперервний
ознака, що використовують груповану
вибірку. Для її отримання інтервал,
якому укладені всі спостерігаються
значення ознаки, що розбивають на
декілька зазвичай рівних частин
(підінтервалів) довжиною h. При
складанні статистичного ряду в
якості xi зазвичай вибирають середини
підінтервалів, а ni прирівнюють числу
варіант, що потрапили в i-й підінтервал.

30.

40
- Частоти -
35
30
n2
n3
ns
n1
25
20
15
10
5
0
a
a+h/2 a+3h/2
- Варіанти -
b-h/2
b

31. 1.3. Полігон частот, вибіркова функція розподілу

Відкладемо значення випадкової величини xi по
осі абсцис, а значення ni - по осі ординат.
Ламана лінія, відрізки якої з'єднують
точки з координатами (x1, n1), (x2, n2),..., (xk,
nk), називається полігоном
частот. Якщо замість
абсолютних значень ni
на осі ординат відкласти
відносні частоти ωi,
то отримаємо полігон відносних частот

32.

За аналогією з функцією розподілу
дискретної випадкової величини за
вибірковим законом розподілу можна
побудувати вибіркову (емпіричну)
функцію розподілу
де підсумовування виконується по всіх
частотам, яким відповідають значення
варіант, менший x. Зауважимо, що
емпірична функція розподілу
залежить від обсягу вибірки n.

33.

На відміну від функції
знайденої
для випадкової величини ξ досвідченим
шляхом в результаті обробки статистичних даних, справжню функцію
розподілу
пов'язану з
генеральною сукупністю, називають
теоретичної. (Зазвичай генеральна
сукупність настільки велика, що
обробити її неможливо, тобто.
досліджувати її можна лише
теоретично).

34.

Зауважимо, що:

35. 1.4. Властивості емпіричної функції розподілу

Ступінчастий
вигляд

36.

Ще одним графічним поданням
цікавить нас вибірки є
гістограма - ступінчаста фігура,
що складається з прямокутників, основами яких є підінтервали
шириною h, а висотами – відрізки завдовжки
ni/h (гістограма частот) або ωi/h
(Гістограма відносних частот).
В першому випадку
площа гістограми дорівнює обсягу
вибірки n,
другому – одиниці

37. Приклад

38. РОЗДІЛ 2. ЧИСЛОВІ ХАРАКТЕРИСТИКИ ВИБІРКИ

39.

Завдання математичної статистики –
за наявною вибіркою отримати
інформацію про генеральну
сукупності. Числові характеристики репрезентативної вибірки - оцінка відповідних характеристик
досліджуваної випадкової величини,
пов'язаної з генеральною
сукупністю.

40. 2.1. Вибіркова середня та вибіркова дисперсія, емпіричні моменти

Вибірковим середнім називається
середнє арифметичне значень
варіант у вибірці
Вибіркове середнє використовується для
статистичної оцінки математичного
очікування досліджуваної випадкової величини.

41.

Вибірковою дисперсією називається
величина, рівна
Вибірковим середнім квадратичним
відхиленням –

42.

Легко показати, що виконується
наступне співвідношення, зручне для
обчислення дисперсії:

43.

Іншими характеристиками
варіаційного ряду є:
мода M0 - варіанти, що має
найбільшу частоту, і медіана me –
варіанта, що ділить варіаційний
ряд на дві частини, рівні числу
різновид.
2, 5, 2, 11, 5, 6, 3, 13, 5 (мода = 5)
2, 2, 3, 5, 5, 5, 6, 11,13 (медіана = 5)

44.

За аналогією з відповідними
теоретичними виразами можна
побудувати емпіричні моменти,
застосовувані для статистичної
оцінки початкових та центральних
моментів досліджуваної випадкової
величини.

45.

За аналогією з моментами
теорії
ймовірностей початковим емпіричним
моментом порядку m називається величина
центральним емпіричним моментом
порядку m -

46. ​​2.2. Властивості статистичних оцінок параметрів розподілу: незміщеність, ефективність, спроможність

2.2. Властивості статистичних оцінок
параметрів розподілу: незміщеність, ефективність, спроможність
Після отримання статистичних оцінок
параметрів розподілу випадкової
величини ξ: вибіркового середнього, вибіркової дисперсії і т. д., необхідно переконатися,
що вони є добрим наближенням
для відповідних параметрів
теоретичного розподілу ξ.
Знайдемо умови, які мають для цього
виконуватись.

47.

48.

Статистична оцінка A* називається
незміщеною, якщо її математичне
очікування дорівнює оцінюваному параметру
генеральної сукупності A за будь-якого
обсяг вибірки, тобто.
Якщо ця умова не виконується, оцінка
називається зміщеною.
Незміщеність оцінки не є достатньою
умовою гарного наближення статистичної
оцінки A* до справжнього (теоретичного) значення
оцінюваного параметра A.

49.

Розкид окремих значень
щодо середнього значення M
залежить від величини дисперсії D.
Якщо дисперсія велика, то значення
знайдене за даними однієї вибірки,
може значно відрізнятися від
оцінюваного параметра.
Отже, для надійного
оцінювання дисперсія D повинна
бути малою. Статистична оцінка
називається ефективною, якщо при
заданому обсязі вибірки n вона має
найменшу можливу дисперсію.

50.

До статистичних оцінок
пред'являється ще вимога
спроможності. Оцінка називається
заможною, якщо за n → вона
прагне ймовірності до
оцінюваного параметра. Зауважимо, що
незміщена оцінка буде
заможною, якщо за n → її
дисперсія прагне 0.

51. 2.3. Властивості вибіркового середнього

Вважатимемо, що варіанти x1, x2,..., xn
є значеннями відповідних
незалежних однаково розподілених випадкових величин
,
які мають математичне очікування
та дисперсію
. Тоді
вибіркове середнє можна
розглядати як випадкову величину

52.

Незміщеність. З властивостей
математичного очікування слід, що
тобто. вибіркове середнє є
незміщеною оцінкою математичного
очікування випадкової величини.
Можна також показати ефективність
оцінки з вибіркового середнього математичного очікування (для нормального
розподілу)

53.

Спроможність. Нехай a – оцінюваний
параметр, а саме математичне
очікування генеральної сукупності
- Дисперсія генеральної сукупності
.
Розглянемо нерівність Чебишева
У нас:
тоді
. При n → права частина
нерівності прагне нулю для будь-якого ε > 0, тобто.
і, отже, величина X, що представляє вибіркову
оцінку, прагне оцінюваного параметра a по ймовірності.

54.

Таким чином, можна зробити висновок,
що вибіркове середнє є
незміщеною, ефективною (по
принаймні для нормального
розподілу) та заможної
оцінкою математичного очікування
випадкової величини, пов'язаної з
генеральною сукупністю.

55.

56.

ЛЕКЦІЯ 6

57. 2.4. Властивості вибіркової дисперсії

Досліджуємо незміщеність вибіркової дисперсії D* як
оцінки дисперсії випадкової величини

58.

59.

60. Приклад

Знайти вибіркове середнє, вибіркове
дисперсію та середнє квадратичне
відхилення, моду та виправлену вибіркову
дисперсію для вибірки, що має наступний
закон розподілу:
Рішення:

61.

62. РОЗДІЛ 3. ТОЧКОВЕ ОЦІНЮВАННЯ ПАРАМЕТРІВ ВІДОМОГО РОЗПОДІЛУ

63.

Вважатимемо, що загальний вигляд закону
розподілу нам відомий і
залишається уточнити деталі –
параметри, що визначають його
дійсну форму. Існує
кілька методів вирішення цієї
завдання, два з яких ми
розглянемо: метод моментів та метод
найбільшої правдоподібності

64. 3.1. Метод моментів

65.

Метод моментів, розвинений Карлом
Пірсоном в 1894 р., заснований на
використання цих наближених рівностей:
моменти
розраховуються
теоретично за відомим законом
розподілу з параметрами θ, а
вибіркові моменти
обчислюються
за наявною вибіркою. Невідомі
параметри
визначаються в
результаті розв'язання системи з r рівнянь,
пов'язують відповідні
теоретичний та емпіричний моменти,
наприклад,
.

66.

Можна показати, що оцінки
параметрів θ, отримані методом
моментів, заможні, їх
математичні очікування відрізняються
від справжніх значень параметрів на
величину порядку n-1, а середні
квадратичні відхилення є
величинами порядку n-0,5

67. Приклад

Відомо, що характеристика об'єктів
генеральної сукупності, будучи випадковою
величиною, має рівномірний розподіл, що залежить від параметрів a і b:
Потрібно визначити методом моментів
параметри a і b за відомим вибірковим
середньому
та вибіркової дисперсії

68. Нагадування

α1 – мат.очікування β2 – дисперсія

69.

(*)

70.

71. 3.2. Метод найбільшої правдоподібності

В основі методу лежить функція правдоподібності
L(x1, x2,..., xn, θ), що є законом
розподіл вектора
, де
випадкові величини
приймають значення
варіант вибірки, тобто. мають однакове
Розподіл. Оскільки випадкові величини
незалежні, функція правдоподібності має вигляд:

72.

Ідея методу найбільшого
правдоподібності полягає в тому, що ми
шукаємо такі значення параметрів θ, при
яких ймовірність появи в
вибірці значень варіант x1, x2,..., xn
є найбільшою. Іншими словами,
як оцінка параметрів θ
береться вектор, при якому функція
правдоподібності має локальний
максимум при заданих x1, x2, …, xn:

73.

Оцінки за методом максимального
правдоподібності виходять з
необхідної умови екстремуму
функції L(x1,x2,..., xn,θ) у точці

74. Примітки:

1. Під час пошуку максимуму функції правдоподібності
для спрощення розрахунків можна виконати
дії, що не змінюють результату: по-перше,
використовувати замість L(x1, x2,..., xn,θ) логарифмічну функцію правдоподібності l(x1, x2,..., xn,θ) =
ln L(x1, x2,..., xn,θ); по-друге, відкинути у виразі
для функції правдоподібності, що не залежать від θ
доданки (для l) або позитивні
помножувачі (для L).
2. Оцінки параметрів, розглянуті нами,
можна назвати точковими оцінками, оскільки для
невідомого параметра θ визначається одна
єдина точка
, що є його
наближеним значенням. Однак такий підхід
може призводити до грубих помилок, і точкова
оцінка може значно відрізнятись від істинного
значення оцінюваного параметра (особливо в
у разі вибірки малого обсягу).

75. Приклад

Рішення. У цій задачі слід оцінити
два невідомі параметри: a та σ2.
Логарифмічна функція правдоподібності
має вигляд

76.

Відкинувши в цій формулі доданок, який не
залежить від a і σ2, складемо систему рівнянь
правдоподібності
Вирішуючи, отримуємо:

77. ГЛАВА 4. ІНТЕРВАЛЬНЕ ОЦІНЮВАННЯ ПАРАМЕТРІВ ВІДОМОГО РОЗПОДІЛУ

78.









(*)

79.

(*)

80. 4.1. Оцінювання математичного очікування нормально розподіленої величини за відомої дисперсії







вибіркове середнє
як значення випадкової



81.

Маємо:
(1)
(2)

82.

(2)
(1)
(*)
(*)

83. 4.2. Оцінювання математичного очікування нормально розподіленої величини за невідомої дисперсії

84.




ступенями свободи. густина

величини є

85.

86. Щільність розподілу Стьюдента c n – 1 ступенями свободи

87.

88.

89.







знаходити за формулами

90. 4.3. Оцінювання середнього квадратичного відхилення нормально розподіленої величини





відхиленням σ.

невідомим математичним
очікуванням.

91. 4.3.1. Окремий випадок відомого математичного очікування






Використовуючи величини
,


вибіркової дисперсії D*:

92.



величини
мають нормальне




93.


умови
де
– щільність розподілу χ2


94.

95.

96.

97. 4.3.2. Окремий випадок невідомого математичного очікування








(де випадкова величина


χ2 з n-1 ступенями свободи.

98.

99. 4.4. Оцінювання математичного очікування випадкової величини для довільної вибірки










Вибір великого обсягу (n >> 1).

100.




величин
, що мають

дисперсію
, а отримане
вибіркове середнє
як значення
випадкової величини

величина
має асимптотично


.

101.






використовувати формулу

102.

103.

Лекція 7

104.

Повторення пройденого

105. ГЛАВА 4. ІНТЕРВАЛЬНЕ ОЦІНЮВАННЯ ПАРАМЕТРІВ ВІДОМОГО РОЗПОДІЛУ

106.

Завдання оцінювання параметра відомого
розподілу можна вирішувати шляхом
побудови інтервалу, в який із заданою
ймовірністю потрапляє справжнє значення
параметра. Такий метод оцінювання
називається інтервальної оцінкою.
Зазвичай у математиці для оцінки
параметра θ будується нерівність
(*)
де число δ характеризує точність оцінки:
що менше δ, то краще оцінка.

107.

(*)

108. 4.1. Оцінювання математичного очікування нормально розподіленої величини за відомої дисперсії

Нехай досліджувана випадкова величина ξ розподілена за нормальним законом із відомим
середнім квадратичним відхиленням σ та
невідомим математичним очікуванням a.
Потрібно за значенням вибіркового середнього
оцінити математичне очікування ξ.
Як і раніше, розглядатимемо одержуване
вибіркове середнє
як значення випадкової
величини, а значення варіант вибірки x1, x2, …,
xn – відповідно як значення однаково
розподілених незалежних випадкових величин
кожна з яких має мат. очікування a та середнє квадратичне відхилення σ.

109.

Маємо:
(1)
(2)

110.

(2)
(1)
(*)
(*)

111. 4.2. Оцінювання математичного очікування нормально розподіленої величини за невідомої дисперсії

112.

Відомо, що випадкова величина tn,
задана таким чином, має
розподіл Стьюдента з k = n - 1
ступенями свободи. густина
розподілу ймовірностей такий
величини є

113.

114. Щільність розподілу Стьюдента c n – 1 ступенями свободи

115.

116.

117.

Примітка. При великій кількості ступенів
свободи k розподіл Стьюдента
прагне нормального розподілу з
нульовим математичним очікуванням та
одиничною дисперсією. Тому при k ≥ 30
довірчий інтервал можна практично
знаходити за формулами

118. 4.3. Оцінювання середнього квадратичного відхилення нормально розподіленої величини

Нехай досліджувана випадкова величина
ξ розподілено за нормальним законом
з математичним очікуванням a та
невідомим середнім квадратичним
відхиленням σ.
Розглянемо два випадки: з відомим і
невідомим математичним
очікуванням.

119. 4.3.1. Окремий випадок відомого математичного очікування

Нехай відоме значення M[ξ] = a і потрібно
оцінити лише σ або дисперсію D[ξ] = σ2.
Нагадаємо, що за відомого мат. очікуванні
незміщеною оцінкою дисперсії є
вибіркова дисперсія D* = (σ*)2
Використовуючи величини
,
визначені вище, введемо випадкову
величину Y, що приймає значення
вибіркової дисперсії D*:

120.

Розглянемо випадкову величину
Суми випадкові, що стоять під знаком
величини
мають нормальне
розподіл із щільністю fN (x, 0, 1).
Тоді Hn має розподіл χ2 з n
ступенями свободи як сума квадратів n
незалежних стандартних (a = 0, σ = 1)
нормальних випадкових величин.

121.

Визначимо довірчий інтервал з
умови
де
– щільність розподілу χ2
та γ – надійність (довірча
ймовірність). Величина γ чисельно дорівнює
площі заштрихованої фігури на рис.

122.

123.

124.

125. 4.3.2. Окремий випадок невідомого математичного очікування

На практиці найчастіше зустрічається ситуація,
коли невідомі обидва параметри нормального
розподілу: математичне очікування a та
середнє квадратичне відхилення σ.
У цьому випадку побудова довірчого
інтервалу ґрунтується на теоремі Фішера, з
Кіт. слід, що випадкова величина
(де випадкова величина
приймаюча значення незміщеною
вибіркової дисперсії s2, має розподіл
χ2 з n-1 ступенями свободи.

126.

127. 4.4. Оцінювання математичного очікування випадкової величини для довільної вибірки

Інтервальні оцінки математичного
очікування M[ξ], отримані для нормально
розподіленої випадкової величини ξ ,
є, взагалі кажучи, непридатними для
випадкових величин, що мають інший вигляд
розподілу. Однак є ситуація, коли
для будь-яких випадкових величин можна
користуватися подібними інтервальними
співвідношеннями, – це має місце при
Вибір великого обсягу (n >> 1).

128.

Як і вище, розглядатимемо варіанти
x1, x2,..., xn як значення незалежних,
однаково розподілених випадкових
величин
, що мають
математичне очікування M[ξi] = mξ і
дисперсію
, а отримане
вибіркове середнє
як значення
випадкової величини
Відповідно до центральної граничної теореми
величина
має асимптотично
нормальний закон розподілу c
математичним очікуванням mξ та дисперсією
.

129.

Тому якщо відомо значення дисперсії
випадкової величини ξ, то можна
користуватися наближеними формулами
Якщо значення дисперсії величини ξ
невідомо, чи при великих n можна
використовувати формулу
де s - виправлене порівн.-кв. відхилення

130.

Повторили пройдене

131. ГЛАВА 5. ПЕРЕВІРКА СТАТИСТИЧНИХ ГІПОТЕЗ

132.

Статистичною гіпотезою називають гіпотезу про
вигляді невідомого розподілу або про параметри
відомого розподілу випадкової величини.
Перевірена гіпотеза, що позначається зазвичай як
H0 називається нульовою або основною гіпотезою.
Додатково використовується гіпотеза H1,
суперечить гіпотезі H0, називається
конкуруючою чи альтернативною.
Статистична перевірка висунутої нульової
гіпотези H0 полягає в її зіставленні з
вибірковими даними. За такої перевірки
можлива поява помилок двох видів:
а) помилки першого роду – випадки, коли відкидається
правильна гіпотеза H0;
б) помилки другого роду – випадки, коли
приймається неправильна гіпотеза H0.

133.

Імовірність помилки першого роду будемо
називати рівнем значимості та позначати
як α.
Основний прийом перевірки статистичних
гіпотез полягає в тому, що за
наявній вибірці обчислюється значення
статистичного критерію – деякої
випадкової величини T, що має відомий
Закон розподілу. Область значень T,
при яких основна гіпотеза H0 має
бути відкинута, називають критичною, а
область значень T, у яких цю гіпотезу
можна прийняти, – областю прийняття
гіпотези.

134.

135. 5.1. Перевірка гіпотез щодо параметрів відомого розподілу

5.1.1. Перевірка гіпотези про математичну
очікуванні нормально розподіленої випадкової
величини
Нехай випадкова величина ξ має
нормальний розподіл.
Потрібно перевірити припущення про те,
що її математичне очікування одно
деякому числу a0. Розглянемо окремо
випадки, коли дисперсія відома і коли
вона невідома.

136.

У разі відомої дисперсії D[ξ] = σ2,
як і у п. 4.1, визначимо випадкову
величину, що приймає значення
вибіркового середнього. Гіпотеза H0
спочатку формулюється як M[ξ] =
a0. Оскільки вибіркове середнє
є незміщеною оцінкою M[ξ], то
гіпотезу H0 можна представити як

137.

Враховуючи незміщеність виправлених
вибіркових дисперсій, нульову гіпотезу можна
записати так:
де випадкова величина
приймає значення виправленої вибіркової
дисперсії величини ξ і аналогічна до випадкової
величині Z, розглянутої у п. 4.2.
Як статистичний критерій виберемо
випадкову величину
приймаючу значення відношення більшою
вибіркової дисперсії до меншої.

145.

Випадкова величина F має
розподіл Фішера – Снедекору з
числом ступенів свободи k1 = n1 – 1 та k2
= n2 – 1, де n1 – обсяг вибірки,
якої вираховано більшу
виправлена ​​дисперсія
, а n2 -
обсяг другої вибірки, за якою
знайдено меншу дисперсію.
Розглянемо два види конкуруючих
гіпотез

146.

147.

148. 5.1.3. Порівняння математичних очікувань незалежних випадкових величин

Спочатку розглянемо випадок нормального
розподілу випадкових величин з відомими
дисперсіями, а потім на його основі – загальніший
випадок довільного розподілу величин при
досить великі незалежні вибірки.
Нехай випадкові величини ξ1 та ξ2 незалежні та
розподілені нормально, та нехай їх дисперсії D[ξ1]
та D[ξ2] відомі. (Наприклад, вони можуть бути знайдені
з якогось іншого досвіду чи розраховані
теоретично). Вилучено вибірки обсягом n1 і n2
відповідно. Нехай
– вибіркові
середні для цих вибірок. Потрібно за вибірковим
середнім при заданому рівні значущості α
перевірити гіпотезу про рівність математичних
очікувань аналізованих випадкових величин зробити з апріорних міркувань,
ґрунтуючись на умовах експерименту, та
тоді припущення про параметри
розподіли досліджуються, як показано
раніше. Однак дуже часто виникає
необхідність перевірити висунуту
гіпотезу про закон розподілу.
Статистичні критерії, призначені
для таких перевірок, зазвичай називаються
критеріями згоди.

154.

Відомо кілька критеріїв згоди. Перевагою
Критерієм Пірсона є його універсальність. З його
допомогою можна перевіряти гіпотези про різні
закони розподілу.
Критерій Пірсона заснований на порівнянні частот,
знайдених за вибіркою (емпіричних частот), з
частотами, розрахованими за допомогою перевіряється
закону розподілу (теоретичними частотами)
Зазвичай емпіричні та теоретичні частоти
різняться. Слід з'ясувати, чи випадково
розходження частот або воно значуще і пояснюється
тим, що теоретичні частоти обчислені виходячи з
невірної гіпотези про розподіл генеральної
сукупності.
Критерій Пірсона, як і будь-який інший, відповідає
питання, чи є згода висунутої гіпотези з
емпіричними даними при заданому рівні
значимості.

155. 5.2.1. Перевірка гіпотези про нормальний розподіл

Нехай є випадкова величина ξ і зроблена
вибірка досить великого обсягу n з більшим
кількістю різних значень варіант. Потрібно
при рівні значимості α перевірити нульову гіпотезу
H0 про те, що випадкова величина розподілена
нормально.
Для зручності обробки вибірки візьмемо два числа
α та β:
і розділимо інтервал [α, β] на s
підінтервалів. Будемо вважати, що значення варіант,
що потрапили в кожен підінтервал, приблизно рівні
числу, що задає середину підінтервалу.
Підрахувавши число варіантів, що потрапили до кожного Квантилью порядку α (0< α < 1) непрерывной
випадкової величини ξ називається таке число xα,
для якого виконується рівність
.
Квантиль x½ називається медіаною випадковою
величини ξ, квантили x¼ та x¾ – її квартилями, a
x0,1, x0,2,..., x0,9 – децилями.
Для нормального стандартного розподілу (a =
0, σ = 1) і, отже,
де FN (x, a, σ) – функція розподілу нормально
розподіленої випадкової величини, а Φ(x) –
функція Лапласа.
Квантиль стандартного нормального розподілу
xα для заданого α можна знайти із співвідношення

162. 6.2. Розподіл Стьюдента

Якщо
– незалежні
випадкові величини, що мають
нормальний розподіл із нульовим
математичним очікуванням та
одиничною дисперсією, то
розподіл випадкової величини
називають розподілом Стьюдента
з n ступенями свободи (W.S. Gosset).

Останні матеріали розділу:

Основний план дій та способи виживання Вночі тихо, вдень вітер посилюється, а надвечір затихає
Основний план дій та способи виживання Вночі тихо, вдень вітер посилюється, а надвечір затихає

5.1. Поняття про місце існування людини. Нормальні та екстремальні умови життєпроживання. Виживання 5.1.1. Поняття про довкілля людини...

Англійські звуки для дітей: читаємо транскрипцію правильно
Англійські звуки для дітей: читаємо транскрипцію правильно

А ви знали, що англійський алфавіт складається з 26 літер та 46 різних звуків? Одна й та сама буква може передавати кілька звуків одночасно.

Контрольний тест з історії на тему Раннє Середньовіччя (6 клас)
Контрольний тест з історії на тему Раннє Середньовіччя (6 клас)

М.: 2019. – 128 с. М.: 2013. – 160 с. Посібник включає тести з історії Середніх віків для поточного та підсумкового контролю та відповідає змісту...