قانون اعداد بزرگ تئوری حد مرکزی

از دست ندهمشترک شوید و لینک مقاله را در ایمیل خود دریافت کنید.

در تعامل روزانه در کار یا مطالعه با اعداد و اعداد، بسیاری از ما حتی شک نمی کنیم که قانون بسیار جالبی از اعداد بزرگ وجود دارد که برای مثال در آمار، اقتصاد و حتی تحقیقات روانشناختی و آموزشی استفاده می شود. به نظریه احتمال اشاره می کند و می گوید که میانگین حسابی هر نمونه بزرگ از یک توزیع ثابت نزدیک به انتظار ریاضی از این توزیع است.

احتمالاً متوجه شده اید که درک ماهیت این قانون آسان نیست، به خصوص برای کسانی که دوستی خاصی با ریاضیات ندارند. بر این اساس، مایلیم در مورد آن به زبان ساده (البته تا جایی که ممکن است) صحبت کنیم تا هرکس حداقل بتواند به طور تقریبی برای خود بفهمد که چیست. این دانش به شما کمک می کند برخی از الگوهای ریاضی را بهتر درک کنید، باهوش تر شوید و تأثیر مثبتی داشته باشید.

مفاهیم قانون اعداد بزرگ و تفسیر آن

علاوه بر تعریف فوق از قانون اعداد بزرگ در نظریه احتمال، می توان تفسیر اقتصادی آن را نیز ارائه داد. در این مورد، بیانگر این اصل است که فراوانی نوع خاصی از زیان مالی را می توان با درجه بالایی از اطمینان پیش بینی کرد، زمانی که به طور کلی سطح بالایی از زیان از این قبیل وجود دارد.

علاوه بر این، بسته به سطح همگرایی ویژگی ها، می توان قوانین ضعیف و قوی اعداد بزرگ را تشخیص داد. وقتی همگرایی در احتمال وجود داشته باشد، ما در مورد ضعیف صحبت می کنیم، و زمانی که تقریباً در همه چیز همگرایی وجود دارد، در مورد قوی صحبت می کنیم.

اگر آن را کمی متفاوت تفسیر کنیم، باید این را بگوییم: همیشه می توان چنین تعداد محدودی از آزمایش ها را یافت، جایی که با هر احتمال از پیش برنامه ریزی شده کمتر از یک، فراوانی نسبی وقوع یک رویداد بسیار کمی با احتمال آن

بنابراین، جوهر کلی قانون اعداد بزرگ را می توان به صورت زیر بیان کرد: نتیجه عمل پیچیده تعداد زیادی از عوامل تصادفی یکسان و مستقل، نتیجه ای خواهد بود که به شانس بستگی ندارد. و اگر به زبان ساده تر صحبت کنیم، پس در قانون اعداد بزرگ، قوانین کمی پدیده های جرمی تنها زمانی خود را به وضوح نشان می دهند که تعداد آنها زیاد باشد (به همین دلیل است که قانون اعداد بزرگ قانون نامیده می شود).

از اینجا می توان نتیجه گرفت که ماهیت قانون این است که در اعدادی که با مشاهده انبوه به دست می آیند، مقداری صحت وجود دارد که در تعداد کمی از حقایق قابل تشخیص نیست.

اصل قانون اعداد بزرگ و نمونه های آن

قانون اعداد بزرگ، کلی ترین الگوهای تصادفی و ضروری را بیان می کند. هنگامی که انحرافات تصادفی یکدیگر را "خاموش" می کنند، میانگین های تعیین شده برای همان ساختار شکل معمولی به خود می گیرند. آنها عملکرد واقعیات اساسی و دائمی را در شرایط خاص زمان و مکان منعکس می کنند.

قاعده مندی های تعریف شده توسط قانون اعداد بزرگ تنها زمانی قوی هستند که نشان دهنده گرایش های توده ای باشند و نمی توانند قوانینی برای موارد فردی باشند. بنابراین، اصل آمار ریاضی به اجرا در می آید که می گوید عمل پیچیده تعدادی از عوامل تصادفی می تواند باعث یک نتیجه غیر تصادفی شود. و بارزترین مثال از عملکرد این اصل همگرایی فراوانی وقوع یک رویداد تصادفی و احتمال آن در هنگام افزایش تعداد آزمایشات است.

بیایید پرتاب سکه را به یاد بیاوریم. از نظر تئوری، سرها و دم ها می توانند با همان احتمال سقوط کنند. به این معنی که اگر مثلاً یک سکه 10 بار پرتاب شود، 5 تای آنها باید سر و 5 تا سرشان بالا بیاید. اما همه می دانند که این تقریباً هرگز اتفاق نمی افتد، زیرا نسبت فرکانس سر و دم می تواند 4 به 6 و 9 به 1 و 2 به 8 و غیره باشد. با این حال، با افزایش تعداد پرتاب سکه ها، به عنوان مثال، تا 100، احتمال سقوط سر یا دم به 50٪ می رسد. اگر از نظر تئوری، تعداد بی‌نهایتی از این آزمایش‌ها انجام شود، احتمال افتادن یک سکه از دو طرف همیشه به 50 درصد خواهد رسید.

اینکه دقیقاً چگونه سکه سقوط خواهد کرد تحت تأثیر تعداد زیادی از عوامل تصادفی است. این موقعیت سکه در کف دست شما و نیرویی که با آن پرتاب می شود و ارتفاع سقوط و سرعت آن و غیره است. اما اگر آزمایش های زیادی وجود داشته باشد، صرف نظر از نحوه عمل عوامل، همیشه می توان استدلال کرد که احتمال عملی به احتمال نظری نزدیک است.

و در اینجا مثال دیگری وجود دارد که به درک ماهیت قانون اعداد بزرگ کمک می کند: فرض کنید باید سطح درآمد افراد در یک منطقه خاص را تخمین بزنیم. اگر 10 مشاهده را در نظر بگیریم، که در آن 9 نفر 20 هزار روبل دریافت می کنند، و 1 نفر - 500 هزار روبل، میانگین حسابی 68 هزار روبل خواهد بود، که البته بعید است. اما اگر 100 مشاهدات را در نظر بگیریم، که در آن 99 نفر 20 هزار روبل دریافت می کنند، و 1 نفر - 500 هزار روبل، پس هنگام محاسبه میانگین حسابی، 24.8 هزار روبل دریافت می کنیم که در حال حاضر به وضعیت واقعی امور نزدیک تر است. با افزایش تعداد مشاهدات، مقدار متوسط ​​را مجبور خواهیم کرد که به مقدار واقعی تمایل پیدا کند.

به همین دلیل است که برای به کارگیری قانون اعداد بزرگ، ابتدا باید مطالب آماری را جمع آوری کرد تا با مطالعه تعداد زیادی مشاهدات، به نتایج واقعی دست یافت. به همین دلیل است که استفاده از این قانون دوباره در آمار یا اقتصاد اجتماعی راحت است.

جمع بندی

اهمیت این واقعیت که قانون اعداد بزرگ کار می کند برای هر حوزه ای از دانش علمی و به ویژه برای پیشرفت های علمی در زمینه نظریه آمار و روش های دانش آماری دشوار است. عمل قانون نیز برای خود اشیاء مورد مطالعه با قاعده‌مندی‌های توده‌ای از اهمیت بالایی برخوردار است. تقریباً تمام روش های مشاهده آماری بر اساس قانون اعداد بزرگ و اصل آمار ریاضی است.

اما، حتی بدون در نظر گرفتن علم و آمار به این صورت، می‌توان با خیال راحت نتیجه گرفت که قانون اعداد بزرگ فقط پدیده‌ای از حوزه تئوری احتمال نیست، بلکه پدیده‌ای است که تقریباً هر روز در زندگی خود با آن مواجه می‌شویم.

امیدواریم اکنون اصل قانون اعداد بزرگ برای شما واضح تر شده باشد و بتوانید به راحتی و به سادگی آن را برای شخص دیگری توضیح دهید. و اگر مبحث ریاضیات و نظریه احتمالات اصولا برای شما جالب است، توصیه می کنیم در مورد و. همچنین با و آشنا شوید. و البته به ما نیز توجه کنید، زیرا پس از گذراندن آن، نه تنها به تکنیک های جدید تفکر مسلط خواهید شد، بلکه توانایی های شناختی خود را به طور کلی بهبود می بخشید، از جمله ریاضی.

قانون اعداد بزرگ

تمرین مطالعه پدیده‌های تصادفی نشان می‌دهد که اگرچه نتایج مشاهدات فردی، حتی مشاهداتی که در شرایط یکسان انجام می‌شوند، می‌توانند بسیار متفاوت باشند، در عین حال، میانگین نتایج برای تعداد کافی مشاهدات ثابت است و به طور ضعیفی به نتایج مشاهدات فردی توجیه نظری این ویژگی قابل توجه پدیده های تصادفی، قانون اعداد بزرگ است. معنای کلی قانون اعداد بزرگ این است که عمل مشترک تعداد زیادی از عوامل تصادفی منجر به نتیجه ای می شود که تقریباً مستقل از شانس است.

تئوری حد مرکزی

قضیه لیاپانوف توزیع گسترده قانون توزیع نرمال را توضیح می دهد و مکانیسم تشکیل آن را توضیح می دهد. این قضیه به ما اجازه می‌دهد تا ادعا کنیم که هرگاه یک متغیر تصادفی در نتیجه اضافه کردن تعداد زیادی متغیر تصادفی مستقل که واریانس‌های آنها در مقایسه با واریانس مجموع کوچک است، تشکیل شود، قانون توزیع این متغیر تصادفی مشخص می‌شود. عملا یک قانون عادی باشد. و از آنجایی که متغیرهای تصادفی همیشه توسط تعداد نامتناهی علت ایجاد می شوند و اغلب هیچ یک از آنها واریانسی قابل مقایسه با واریانس خود متغیر تصادفی ندارند، اکثر متغیرهای تصادفی که در عمل با آنها مواجه می شوند تابع قانون توزیع نرمال هستند.

اجازه دهید با جزئیات بیشتری در مورد محتوای قضایای هر یک از این گروه ها صحبت کنیم.

در تحقیقات عملی، بسیار مهم است که بدانیم در چه مواردی می توان تضمین کرد که احتمال یک رویداد یا به اندازه کافی کم یا خودسرانه نزدیک به وحدت خواهد بود.

زیر قانون اعداد بزرگو به عنوان مجموعه ای از جملات در نظر گرفته می شود که در آنها بیان می شود که با احتمال خودسرانه نزدیک به یک (یا صفر)، رویدادی رخ خواهد داد که به تعداد بسیار زیاد و به طور نامحدودی از رویدادهای تصادفی بستگی دارد، که هر یک فقط دارای یک تاثیر جزئی بر آن

به طور دقیق تر، قانون اعداد بزرگ به عنوان مجموعه ای از جملات درک می شود که در آن بیان می شود که با احتمال دلخواه نزدیک به یک، انحراف میانگین حسابی تعداد به اندازه کافی بزرگ از متغیرهای تصادفی از یک مقدار ثابت، حسابی میانگین انتظارات ریاضی آنها از یک عدد دلخواه خود تجاوز نخواهد کرد.

پدیده های مجزا و منفرد که در طبیعت و زندگی اجتماعی مشاهده می کنیم اغلب به صورت تصادفی ظاهر می شوند (مثلاً مرگ ثبت شده، جنسیت فرزند متولد شده، دمای هوا و غیره) به دلیل اینکه بسیاری از عوامل مرتبط با جوهره ظهور یا توسعه یک پدیده. پیش بینی تأثیر کلی آنها بر پدیده مشاهده شده غیرممکن است و آنها در پدیده های فردی خود را متفاوت نشان می دهند. بر اساس نتایج یک پدیده، نمی توان در مورد الگوهای ذاتی بسیاری از این پدیده ها چیزی گفت.

با این حال، از مدت ها قبل ذکر شده است که میانگین حسابی ویژگی های عددی ویژگی های خاص (تکرار نسبی وقوع یک رویداد، نتایج اندازه گیری ها، و غیره) با تعداد زیادی از تکرارهای آزمایش در معرض بسیار زیاد است. نوسانات جزئی در وسط، همانطور که بود، نظم ذاتی در ذات پدیده ها خود را نشان می دهد؛ در آن، تأثیر عوامل فردی که نتایج مشاهدات فردی را تصادفی می کرد، متقابلاً لغو می شود. از نظر تئوری، این رفتار میانگین را می توان با استفاده از قانون اعداد بزرگ توضیح داد. اگر برخی از شرایط بسیار کلی در مورد متغیرهای تصادفی برآورده شوند، آنگاه ثبات میانگین حسابی عملاً یک رویداد قطعی خواهد بود. این شرایط مهمترین محتوای قانون اعداد بزرگ را تشکیل می دهند.

اولین مثال از عملکرد این اصل می تواند همگرایی فراوانی وقوع یک رویداد تصادفی با احتمال آن با افزایش تعداد آزمایشات باشد - واقعیتی که در قضیه برنولی ثابت شده است (ریاضیدان سوئیسی ژاکوب برنولی(1654-1705)) قضیه برنول یکی از ساده ترین اشکال قانون اعداد بزرگ است و اغلب در عمل استفاده می شود. به عنوان مثال، فراوانی وقوع هر کیفیتی از پاسخ دهنده در نمونه به عنوان تخمینی از احتمال مربوطه در نظر گرفته می شود.

ریاضیدان برجسته فرانسوی سیمئون دنی پواسون(1781-1840) این قضیه را تعمیم داد و آن را به مواردی تعمیم داد که احتمال رویدادها در یک آزمایش مستقل از نتایج آزمایشات قبلی متفاوت باشد. او همچنین اولین کسی بود که از اصطلاح "قانون اعداد بزرگ" استفاده کرد.

ریاضیدان بزرگ روسی پافنوتی لوویچ چبیشف(1821 - 1894) ثابت کرد که قانون اعداد بزرگ در پدیده ها با هر تغییری عمل می کند و همچنین تا نظم میانگین گسترش می یابد.

تعمیم بیشتر قضایای قانون اعداد بزرگ با نام ها مرتبط است A.A.Markov، S.N.Bernshtein، A.Ya.Khinchin و A.N.Kolmlgorov.

فرمول کلی مدرن مسئله، فرمول بندی قانون اعداد بزرگ، توسعه ایده ها و روش هایی برای اثبات قضایای مربوط به این قانون متعلق به دانشمندان روسی است. P. L. Chebyshev، A. A. Markov و A. M. Lyapunov.

نابرابری چبیشف

اجازه دهید ابتدا قضایای کمکی را در نظر بگیریم: لم و نابرابری چبیشف، که می توان از آنها برای اثبات آسان قانون اعداد بزرگ در شکل چبیشف استفاده کرد.

لما (چبیشف).

اگر مقادیر منفی متغیر تصادفی X وجود نداشته باشد، احتمال اینکه مقداری از عدد مثبت A بیشتر شود، بیشتر از کسری نیست که عدد آن انتظار ریاضی متغیر تصادفی است. و مخرج عدد A است:

اثباتاجازه دهید قانون توزیع متغیر تصادفی X شناخته شود:

(i = 1, 2, ..., ) و مقادیر متغیر تصادفی را به ترتیب صعودی مرتب می کنیم.

در رابطه با عدد A، مقادیر متغیر تصادفی به دو گروه تقسیم می شوند: برخی از A تجاوز نمی کنند، در حالی که برخی دیگر بزرگتر از A هستند. فرض کنید که گروه اول شامل اولین مقادیر متغیر تصادفی است. ).

از آنجایی که، پس همه شرایط جمع غیر منفی هستند. بنابراین، با کنار گذاشتن اولین عبارت در عبارت، نابرابری را بدست می آوریم:

از آنجا که

,

سپس

Q.E.D.

متغیرهای تصادفی می توانند توزیع های متفاوتی با انتظارات ریاضی یکسان داشته باشند. با این حال، برای آنها، لم چبیشف همان برآورد احتمال یک یا آن نتیجه آزمایش را ارائه می دهد. این نقص لم به کلیت آن مربوط می شود: رسیدن به تخمین بهتر برای همه متغیرهای تصادفی به طور همزمان غیرممکن است.

نابرابری چبیشف .

احتمال اینکه انحراف یک متغیر تصادفی از انتظار ریاضی آن در مقدار مطلق از عدد مثبت فراتر رود.

اثباتاز آنجایی که یک متغیر تصادفی که مقادیر منفی نمی گیرد، نابرابری را اعمال می کنیم از لم Chebyshev برای یک متغیر تصادفی برای:


Q.E.D.

نتیجه. از آنجا که

,

سپس

- شکل دیگری از نابرابری چبیشف

ما بدون اثبات این واقعیت را می پذیریم که لم و نابرابری چبیشف برای متغیرهای تصادفی پیوسته نیز صادق است.

نابرابری چبیشف زیربنای گزاره های کمی و کیفی قانون اعداد بزرگ است. حد بالایی را بر روی احتمال اینکه انحراف مقدار یک متغیر تصادفی از انتظارات ریاضی آن بیشتر از مقدار معینی باشد، تعریف می کند. قابل توجه است که نابرابری چبیشف تخمینی از احتمال یک رویداد برای یک متغیر تصادفی می دهد که توزیع آن ناشناخته است، فقط انتظارات ریاضی و واریانس آن مشخص است.

قضیه. (قانون اعداد بزرگ به شکل چبیشف)

اگر پراکندگی متغیرهای تصادفی مستقل با یک C ثابت محدود شود و تعداد آنها به اندازه کافی بزرگ باشد، احتمال اینکه انحراف میانگین حسابی این متغیرهای تصادفی از میانگین حسابی انتظارات ریاضی آنها به طور دلخواه نزدیک به وحدت باشد، نخواهد بود. از عدد مثبت داده شده در مقدار مطلق فراتر رود، مهم نیست که چقدر کوچک باشد، هیچکدام از آنها نبودند:

.

ما قضیه را بدون اثبات می پذیریم.

نتیجه 1. اگر متغیرهای تصادفی مستقل انتظارات ریاضی یکسان و مساوی داشته باشند، واریانس آنها با همان ثابت C محدود می شود و تعداد آنها به اندازه کافی بزرگ است، هر چقدر هم که عدد مثبت داده شده کوچک باشد، احتمال انحراف میانگین وجود دارد. به طور خودسرانه نزدیک به حساب واحد این متغیرهای تصادفی از مقدار مطلق تجاوز نخواهد کرد.

این واقعیت که مقدار تقریبی یک کمیت مجهول به عنوان میانگین حسابی نتایج تعداد کافی اندازه گیری انجام شده در شرایط یکسان گرفته می شود، با این قضیه قابل توجیه است. در واقع، نتایج اندازه‌گیری تصادفی هستند، زیرا تحت تأثیر عوامل تصادفی زیادی قرار دارند. عدم وجود خطاهای سیستماتیک به این معنی است که انتظارات ریاضی از نتایج اندازه گیری فردی یکسان و برابر است. در نتیجه، طبق قانون اعداد بزرگ، میانگین حسابی تعداد به اندازه کافی بزرگ عملاً به طور دلخواه با مقدار واقعی مقدار مورد نظر تفاوت کمی خواهد داشت.

(به یاد بیاورید که خطاها در صورتی سیستماتیک نامیده می شوند که نتیجه اندازه گیری را در یک جهت بر اساس یک قانون کم و بیش واضح تحریف کنند. این خطاها شامل خطاهایی است که در نتیجه ناقص بودن ابزارها (خطاهای ابزاری) به دلیل ویژگی های شخصی ظاهر می شوند. ناظر (اشتباهات شخصی) و غیره)

نتیجه 2 . (قضیه برنولی.)

اگر احتمال وقوع رویداد A در هر یک از آزمایش‌های مستقل ثابت باشد و تعداد آنها به اندازه کافی زیاد باشد، این احتمال به طور خودسرانه نزدیک به وحدت است که فراوانی وقوع رویداد به طور خودسرانه کمی با احتمال وقوع آن متفاوت است. وقوع:

قضیه برنولی بیان می‌کند که اگر احتمال یک رویداد در همه آزمایش‌ها یکسان باشد، با افزایش تعداد آزمایش‌ها، فراوانی رویداد به احتمال رویداد تمایل پیدا می‌کند و از تصادفی بودن خارج می‌شود.

در عمل، آزمایش‌هایی نسبتاً نادر هستند که در آنها احتمال وقوع یک رویداد در هر آزمایشی بدون تغییر است، اغلب در آزمایش‌های مختلف متفاوت است. قضیه پواسون به طرح آزمایشی از این نوع اشاره دارد:

نتیجه 3 . (قضیه پواسون.)

اگر با مشخص شدن نتایج آزمایش‌های قبلی، احتمال وقوع یک رویداد در آزمون -تغییر نشود و تعداد آنها به اندازه کافی زیاد باشد، احتمال اینکه فراوانی وقوع یک رویداد به طور دلخواه با میانگین حسابی احتمالات متفاوت باشد. خودسرانه به وحدت نزدیک است:

قضیه پواسون بیان می‌کند که بسامد یک رویداد در یک سری آزمایش‌های مستقل به میانگین حسابی احتمالات آن تمایل دارد و تصادفی نیست.

در خاتمه، متذکر می شویم که هیچ یک از قضایای در نظر گرفته شده، مقدار دقیق یا حتی تقریبی احتمال مورد نظر را نمی دهد، بلکه فقط حد پایین یا بالای آن نشان داده شده است. بنابراین، اگر لازم باشد که مقدار دقیق یا حداقل تقریبی احتمالات رویدادهای مربوطه را مشخص کنیم، احتمالات این قضایا بسیار محدود است.

احتمالات تقریبی برای مقادیر بزرگ را فقط می توان با استفاده از قضایای حدی به دست آورد. در آنها، یا محدودیت های اضافی بر روی متغیرهای تصادفی اعمال می شود (همانطور که مثلاً در قضیه لیاپانوف وجود دارد)، یا متغیرهای تصادفی از نوع خاصی در نظر گرفته می شوند (مثلاً در قضیه انتگرال مویور-لاپلاس).

اهمیت نظری قضیه چبیشف که یک فرمول بسیار کلی از قانون اعداد بزرگ است بسیار زیاد است. با این حال، اگر آن را برای این سؤال به کار ببریم که آیا می‌توان قانون اعداد بزرگ را برای دنباله‌ای از متغیرهای تصادفی مستقل اعمال کرد، در آن صورت، اگر پاسخ مثبت است، این قضیه اغلب مستلزم این است که متغیرهای تصادفی بسیار بیشتری وجود داشته باشد. برای اجرایی شدن قانون اعداد بزرگ ضروری است. این نقص قضیه چبیشف با ویژگی کلی آن توضیح داده می شود. بنابراین، داشتن قضایایی که با دقت بیشتری کران پایین (یا بالایی) احتمال مورد نظر را نشان دهد، مطلوب است. آنها را می توان با اعمال محدودیت های اضافی بر روی متغیرهای تصادفی به دست آورد، که معمولاً برای متغیرهای تصادفی که در عمل با آنها مواجه می شوند، ارضا می شوند.

نکاتی در مورد محتوای قانون اعداد زیاد

اگر تعداد متغیرهای تصادفی به اندازه کافی زیاد باشد و برخی از شرایط بسیار کلی را برآورده کنند، مهم نیست که چگونه توزیع شوند، عملاً مسلم است که میانگین حسابی آنها به طور دلخواه کوچکی از مقدار ثابت - میانگین حسابی انتظارات ریاضی آنها - منحرف می شود. یعنی عملا ثابت است. محتوای قضایای مربوط به قانون اعداد بزرگ چنین است. در نتیجه قانون اعداد بزرگ یکی از تعابیر ارتباط دیالکتیکی بین شانس و ضرورت است.

می توان مثال های زیادی از ظهور حالت های کیفی جدید به عنوان مظاهر قانون اعداد بزرگ، در درجه اول در میان پدیده های فیزیکی، ارائه داد. بیایید یکی از آنها را در نظر بگیریم.

بر اساس مفاهیم مدرن، گازها از ذرات-مولکول های منفرد تشکیل شده اند که در حرکت بی نظم هستند و نمی توان دقیقاً گفت که در یک لحظه معین کجا خواهد بود و این یا آن مولکول با چه سرعتی حرکت می کند. با این حال، مشاهدات نشان می دهد که اثر کل مولکول ها، مانند فشار یک گاز بر روی

دیواره عروق، خود را با ثبات شگفت انگیز نشان می دهد. با تعداد ضربات و قدرت هر یک از آنها مشخص می شود. اگرچه اول و دوم تصادفی هستند، اما ابزارها نوسانات فشار گاز را در شرایط عادی تشخیص نمی دهند. این با این واقعیت توضیح داده می شود که به دلیل تعداد زیاد مولکول ها، حتی در کوچکترین حجم

تغییر فشار به میزان قابل توجهی عملا غیرممکن است. بنابراین، قانون فیزیکی که ثابت بودن فشار گاز را بیان می کند، جلوه ای از قانون اعداد بزرگ است.

ثابت بودن فشار و برخی دیگر از خصوصیات یک گاز در یک زمان به عنوان یک استدلال سنگین علیه نظریه مولکولی ساختار ماده عمل کرد. متعاقباً، آنها یاد گرفتند که تعداد نسبتاً کمی از مولکول ها را جدا کنند و اطمینان حاصل کنند که تأثیر مولکول های منفرد همچنان باقی است و بنابراین قانون اعداد بزرگ نمی تواند به اندازه کافی خود را نشان دهد. سپس می توان نوسانات فشار گاز را مشاهده کرد و فرضیه ساختار مولکولی ماده را تأیید کرد.

قانون اعداد زیاد زیربنای انواع بیمه (بیمه عمر انسان برای دوره های مختلف، اموال، دام، محصولات زراعی و غیره) است.

هنگام برنامه ریزی طیف کالاهای مصرفی، تقاضا برای آنها از سوی جمعیت در نظر گرفته می شود. در این تقاضا، عملکرد قانون اعداد بزرگ آشکار می شود.

روش نمونه گیری که به طور گسترده در آمار استفاده می شود، توجیه علمی خود را در قانون اعداد بزرگ می یابد. به عنوان مثال، کیفیت گندمی که از مزرعه جمعی به محل تدارکات آورده می شود، بر اساس کیفیت غلاتی که به طور تصادفی در یک اندازه کوچک گرفته شده است، قضاوت می شود. در پیمانه دانه های کمی نسبت به کل دسته وجود دارد، اما در هر صورت، پیمانه طوری انتخاب می شود که دانه های کافی در آن وجود داشته باشد.

تجلی قانون اعداد بزرگ با دقتی که نیاز را برآورده می کند. ما این حق را داریم که شاخص های مربوطه را در نمونه به عنوان شاخص های علف هرز، رطوبت و میانگین وزن دانه های کل دسته دانه های ورودی در نظر بگیریم.

تلاش‌های بیشتر دانشمندان برای تعمیق محتوای قانون اعداد بزرگ با هدف دستیابی به کلی‌ترین شرایط برای کاربرد این قانون برای دنباله‌ای از متغیرهای تصادفی بود. برای مدت طولانی هیچ موفقیت اساسی در این مسیر وجود نداشت. پس از P. L. Chebyshev و A. A. Markov، تنها در سال 1926 آکادمیک شوروی A. N. Kolmogorov موفق شد شرایط لازم و کافی را برای اعمال قانون اعداد بزرگ به دنباله ای از متغیرهای تصادفی مستقل به دست آورد. در سال 1928، دانشمند شوروی A. Ya. Khinchin نشان داد که شرط کافی برای کاربرد قانون اعداد بزرگ برای دنباله ای از متغیرهای تصادفی مستقل با توزیع یکسان، وجود انتظارات ریاضی آنها است.

برای عمل، بسیار مهم است که مسئله کاربرد قانون اعداد بزرگ برای متغیرهای تصادفی وابسته کاملاً روشن شود، زیرا پدیده های طبیعت و جامعه به یکدیگر وابسته هستند و متقابلاً یکدیگر را تعیین می کنند. کار زیادی به روشن کردن محدودیت هایی که باید اعمال شود اختصاص داده شده است

به متغیرهای تصادفی وابسته به طوری که بتوان قانون اعداد بزرگ را در مورد آنها به کار برد، که مهمترین آنها دانشمند برجسته روسی A. A. Markov و دانشمندان بزرگ شوروی S. N. Bernshtein و A. Ya. Khinchin هستند.

نتیجه اصلی این مقالات این است که قانون اعداد بزرگ برای متغیرهای تصادفی وابسته قابل اعمال است، اگر فقط وابستگی قوی بین متغیرهای تصادفی با اعداد نزدیک وجود داشته باشد، و بین متغیرهای تصادفی با اعداد دور، وابستگی به اندازه کافی ضعیف است. نمونه هایی از متغیرهای تصادفی از این نوع، ویژگی های عددی اقلیم است. آب و هوای هر روز به طور محسوسی تحت تاثیر آب و هوای روزهای قبل قرار می گیرد و با دوری روزها از یکدیگر این تاثیر به طور محسوسی ضعیف می شود. در نتیجه میانگین بلندمدت دما، فشار و سایر مشخصات آب و هوای یک منطقه معین، مطابق با قانون اعداد بزرگ، عملاً باید نزدیک به انتظارات ریاضی آنها باشد. دومی ویژگی های عینی آب و هوای محلی است.

به منظور تأیید تجربی قانون اعداد بزرگ، آزمایش‌های زیر در زمان‌های مختلف انجام شد.

1. تجربه بوفون. سکه 4040 بار ورق خورده است. نشان 2048 بار سقوط کرد. فراوانی وقوع آن برابر با 0.50694 = بود

2. تجربه پیرسون. سکه 12000 و 24000 بار ورق می خورد. فراوانی از دست دادن نشان اسلحه در مورد اول 0.5016 بود، در مورد دوم - 0.5005.

ح. تجربه وسترگارد. از کوزه ای که در آن توپ های سفید و سیاه به طور مساوی وجود داشت، 5011 توپ سفید و 4989 توپ سیاه با 10000 استخراج به دست آمد (با بازگشت توپ کشیده شده بعدی به کوزه). فرکانس توپ های سفید 0.50110 = () و سیاه - 0.49890 بود.

4. تجربه V.I. رومانوفسکی. چهار سکه 21160 بار پرتاب می شود. فرکانس ها و فرکانس های ترکیب های مختلف نشان و توری به شرح زیر توزیع شد:

ترکیبی از تعداد نشان و دم

فرکانس ها

فرکانس ها

تجربی

نظری

4 و 0

1 181

0,05858

0,0625

3 و 1

4909

0,24350

0,2500

2 و 2

7583

0,37614

0,3750

1 و 3

5085

0,25224

0,2500

1 و 4

0,06954

0,0625

جمع

20160

1,0000

1,0000

نتایج آزمایش‌های آزمایشی قانون اعداد بزرگ ما را متقاعد می‌کند که فرکانس‌های آزمایشی نزدیک به احتمالات هستند.

تئوری حد مرکزی

به راحتی می توان ثابت کرد که مجموع هر تعداد محدودی از متغیرهای تصادفی با توزیع نرمال مستقل نیز طبق قانون نرمال توزیع شده است.

اگر متغیرهای تصادفی مستقل طبق قانون عادی توزیع نشوند، می‌توان محدودیت‌های بسیار ضعیفی را برای آنها اعمال کرد و مجموع آنها همچنان به طور عادی توزیع می‌شود.

این مشکل عمدتاً توسط دانشمندان روسی P. L. Chebyshev و شاگردانش A. A. Markov و A. M. Lyapunov مطرح و حل شد.

قضیه (لیاپانوف).

اگر متغیرهای تصادفی مستقل دارای انتظارات ریاضی محدود و واریانس محدود باشند ، تعداد آنها به اندازه کافی زیاد و با افزایش نامحدود است

,

که در آن ممان مرکزی مطلق مرتبه سوم هستند، سپس مجموع آنها با درجه دقت کافی دارای توزیع است

(در واقع، ما نه قضیه لیاپانوف، بلکه یکی از پیامدهای آن را ارائه می‌کنیم، زیرا این نتیجه برای کاربردهای عملی کاملاً کافی است. بنابراین، شرطی که شرط لیاپانوف نامیده می‌شود، شرطی قوی‌تر از آن چیزی است که برای اثبات لیاپانوف لازم است. خود قضیه.)

منظور از شرط این است که عمل هر اصطلاح (متغیر تصادفی) در مقایسه با عمل کل همه آنها کوچک باشد. بسیاری از پدیده های تصادفی که در طبیعت و در زندگی اجتماعی رخ می دهند دقیقاً بر اساس این الگو پیش می روند. در این راستا قضیه لیاپانوف از اهمیت استثنایی برخوردار است و قانون توزیع نرمال یکی از قوانین اساسی در نظریه احتمالات است.

اجازه دهید، برای مثال، بعد، ابعاد، اندازهمقداری اندازه انحراف های مختلفی از مقادیر مشاهده شده از مقدار واقعی آن (انتظار ریاضی) در نتیجه تأثیر تعداد بسیار زیادی از عوامل به دست می آید که هر یک خطای کوچک ایجاد می کند و . سپس کل خطای اندازه گیری یک متغیر تصادفی است که طبق قضیه لیاپانوف باید طبق قانون عادی توزیع شود.

در تیراندازی با اسلحهتحت تأثیر تعداد بسیار زیادی از علل تصادفی، پوسته ها در یک منطقه خاص پراکنده می شوند. اثرات تصادفی روی مسیر پرتابه را می توان مستقل در نظر گرفت. هر علتی در مقایسه با کل تغییر ناشی از همه علل، تنها یک تغییر کوچک در مسیر حرکت ایجاد می کند. بنابراین، باید انتظار داشت که انحراف محل گسیختگی پرتابه از هدف، یک متغیر تصادفی باشد که طبق قانون عادی توزیع شده است.

با قضیه لیاپانوف، ما حق داریم انتظار داشته باشیم که مثلاً قد نر بالغیک متغیر تصادفی است که طبق قانون عادی توزیع شده است. این فرضیه، و همچنین فرضیه‌هایی که در دو مثال قبلی در نظر گرفته شد، مطابقت خوبی با مشاهدات دارد. برای تأیید، توزیع قد 1000 کارگر مرد بالغ و اعداد نظری مربوط به مردان را ارائه می‌کنیم، یعنی تعداد مردانی که باید رشد این گروه ها را بر اساس رشد فرضی توزیع مردان طبق قانون عادی داشته باشد.

ارتفاع، سانتی متر

تعداد مردان

داده های تجربی

نظری

پیش بینی ها

143-146

146-149

149-152

152-155

155-158

158- 161

161- 164

164-167

167-170

170-173

173-176

176-179

179 -182

182-185

185-188

انتظار توافق دقیق‌تر بین داده‌های تجربی و نظری دشوار است.

می توان به راحتی، به عنوان نتیجه ای از قضیه لیاپانوف، گزاره ای را اثبات کرد که در ادامه برای توجیه روش نمونه گیری مورد نیاز است.

جمله.

مجموع تعداد کافی از متغیرهای تصادفی توزیع شده یکسان با گشتاورهای مرکزی مطلق مرتبه سوم بر اساس قانون عادی توزیع می شود.

قضایای حدی نظریه احتمال، قضایای مویور-لاپلاس ماهیت ثبات فراوانی وقوع یک رویداد را توضیح می دهد. این ماهیت در این واقعیت است که توزیع محدود تعداد وقوع یک رویداد با افزایش نامحدود در تعداد آزمایش‌ها (اگر احتمال یک رویداد در همه آزمایش‌ها یکسان باشد) یک توزیع نرمال است.

سیستم متغیرهای تصادفی

متغیرهای تصادفی در نظر گرفته شده در بالا یک بعدی بودند، یعنی. با یک عدد تعیین شد، اما متغیرهای تصادفی نیز وجود دارند که با دو، سه و غیره تعیین می شوند. شماره. چنین متغیرهای تصادفی دو بعدی، سه بعدی و غیره نامیده می شوند.

بسته به نوع متغیرهای تصادفی موجود در سیستم، اگر سیستم شامل انواع مختلفی از متغیرهای تصادفی باشد، سیستم ها می توانند گسسته، پیوسته یا مختلط باشند.

اجازه دهید سیستم های دو متغیر تصادفی را با جزئیات بیشتری در نظر بگیریم.

تعریف. قانون توزیعسیستم متغیرهای تصادفی به رابطه‌ای گفته می‌شود که بین حوزه‌های مقادیر احتمالی سیستم متغیرهای تصادفی و احتمال وقوع سیستم در این مناطق رابطه برقرار می‌کند.

مثال. از یک کوزه حاوی 2 توپ سفید و 3 توپ سیاه، دو توپ کشیده می شود. تعداد توپ های سفید کشیده شده را در نظر بگیرید و متغیر تصادفی به صورت زیر تعریف می شود:


بیایید یک جدول توزیع از سیستم متغیرهای تصادفی ایجاد کنیم:

از آنجایی که این احتمال وجود دارد که هیچ توپ سفیدی بیرون نیاید (بنابراین، دو توپ سیاه خارج می شود)، در حالی که، پس

.

احتمال

.

احتمال

احتمال این احتمال وجود دارد که هیچ توپ سفیدی بیرون نیاید (و بنابراین، دو توپ سیاه خارج شود)، در حالی که، سپس

احتمال احتمال این است که یک توپ سفید (و بنابراین، یک سیاه) کشیده شود، در حالی که، سپس

احتمال - احتمال اینکه دو توپ سفید کشیده شده باشد (و بنابراین، هیچ توپ سیاهی وجود ندارد)، در حالی که، سپس

.

بنابراین، سری توزیع یک متغیر تصادفی دو بعدی به شکل زیر است:

تعریف. تابع توزیعسیستم دو متغیر تصادفی تابعی از دو آرگومان نامیده می شوداف( ایکس, y) برابر با احتمال تحقق مشترک دو نابرابریایکس< ایکس, Y< y.


ما ویژگی های زیر تابع توزیع یک سیستم متشکل از دو متغیر تصادفی را یادداشت می کنیم:

1) ;

2) تابع توزیع با توجه به هر آرگومان یک تابع غیرنزولی است:

3) موارد زیر درست است:

4)


5) احتمال برخورد به یک نقطه تصادفی ( X، Y ) به یک مستطیل دلخواه با اضلاع موازی با محورهای مختصات، با فرمول محاسبه می شود:


چگالی توزیع یک سیستم از دو متغیر تصادفی.

تعریف.چگالی توزیع مشترکاحتمالات یک متغیر تصادفی دو بعدی ( X، Y ) دومین مشتق جزئی مختلط تابع توزیع نامیده می شود.

اگر چگالی توزیع مشخص باشد، تابع توزیع را می توان با فرمول پیدا کرد:

چگالی توزیع دوبعدی غیر منفی و انتگرال مضاعف با حد نامتناهی چگالی دو بعدی برابر با یک است.

از چگالی توزیع مشترک شناخته شده، می توان چگالی توزیع هر یک از اجزای یک متغیر تصادفی دو بعدی را پیدا کرد.

; ;

قوانین مشروط توزیع

همانطور که در بالا نشان داده شد، با دانستن قانون توزیع مشترک، می توان به راحتی قوانین توزیع را برای هر متغیر تصادفی موجود در سیستم پیدا کرد.

با این حال، در عمل، مشکل معکوس بیشتر است - طبق قوانین شناخته شده توزیع متغیرهای تصادفی، قانون توزیع مشترک آنها را پیدا کنید.

در حالت کلی، این مشکل غیر قابل حل است، زیرا قانون توزیع یک متغیر تصادفی چیزی در مورد رابطه این متغیر با سایر متغیرهای تصادفی نمی گوید.

علاوه بر این، اگر متغیرهای تصادفی به یکدیگر وابسته باشند، قانون توزیع را نمی توان بر حسب قوانین توزیع اجزا بیان کرد، زیرا باید بین اجزاء ارتباط برقرار کند.

همه اینها منجر به نیاز به در نظر گرفتن قوانین توزیع مشروط می شود.

تعریف. توزیع یک متغیر تصادفی موجود در سیستم، که در شرایطی یافت می شود که متغیر تصادفی دیگری مقدار معینی را گرفته باشد، نامیده می شود. قانون توزیع مشروط.

قانون توزیع شرطی را می توان هم با تابع توزیع و هم با چگالی توزیع مشخص کرد.

چگالی توزیع شرطی با فرمول های زیر محاسبه می شود:

چگالی توزیع شرطی دارای تمام خصوصیات چگالی توزیع یک متغیر تصادفی است.

انتظارات ریاضی مشروط

تعریف. انتظار مشروطمتغیر تصادفی گسسته Y در X = x (x مقدار معینی از X است) حاصلضرب همه مقادیر ممکن نامیده می شود Y بر روی احتمالات مشروط آنها

برای متغیرهای تصادفی پیوسته:

,

جایی که f( y/ ایکس) چگالی شرطی متغیر تصادفی است Y زمانی که X = x.

انتظار مشروطم( Y/ ایکس)= f( ایکس) تابعی از ایکسو تماس گرفت تابع رگرسیون X روشن است Y.

مثال.انتظار شرطی جزء را بیابید Y در

X=x1 = 1 برای یک متغیر تصادفی دو بعدی گسسته ارائه شده توسط جدول:

Y

x1=1

x2=3

x3=4

x4=8

y1=3

0,15

0,06

0,25

0,04

y2=6

0,30

0,10

0,03

0,07

واریانس شرطی و گشتاورهای شرطی سیستم متغیرهای تصادفی به طور مشابه تعریف می شوند.

متغیرهای تصادفی وابسته و مستقل.

تعریف. متغیرهای تصادفی نامیده می شوند مستقل، اگر قانون توزیع یکی از آنها به مقداری که متغیر تصادفی دیگر می گیرد بستگی ندارد.

مفهوم وابستگی متغیرهای تصادفی در نظریه احتمال بسیار مهم است.

توزیع های شرطی متغیرهای تصادفی مستقل با توزیع های بدون شرط آنها برابر است.

اجازه دهید شرایط لازم و کافی برای استقلال متغیرهای تصادفی را تعریف کنیم.

قضیه. Y مستقل هستند، لازم و کافی است که تابع توزیع سیستم ( ایکس, Y) برابر حاصل ضرب توابع توزیع اجزا بود.

یک قضیه مشابه را می توان برای چگالی توزیع فرموله کرد:

قضیه. به منظور متغیرهای تصادفی X و Y مستقل هستند، لازم و کافی است که چگالی توزیع مشترک سیستم ( ایکس, Y) برابر حاصل ضرب چگالی توزیع اجزا بود.

فرمول های زیر عملا استفاده می شوند:

برای متغیرهای تصادفی گسسته:

برای متغیرهای تصادفی پیوسته:

لحظه همبستگی برای مشخص کردن رابطه بین متغیرهای تصادفی است. اگر متغیرهای تصادفی مستقل باشند، لحظه همبستگی آنها صفر است.

گشتاور همبستگی ابعادی برابر با حاصلضرب ابعاد متغیرهای تصادفی X و دارد Y . این واقعیت یک نقطه ضعف این مشخصه عددی است، زیرا با واحدهای اندازه گیری مختلف، گشتاورهای همبستگی متفاوتی به دست می آید که مقایسه گشتاورهای همبستگی متغیرهای تصادفی مختلف را دشوار می کند.

برای از بین بردن این نقص، ویژگی دیگری اعمال می شود - ضریب همبستگی.

تعریف. ضریب همبستگی rxy متغیرهای تصادفی X و Y نسبت گشتاور همبستگی به حاصل ضرب انحراف معیار این مقادیر است.

ضریب همبستگی یک کمیت بدون بعد است. برای متغیرهای تصادفی مستقل، ضریب همبستگی صفر است.

ویژگی: مقدار مطلق گشتاور همبستگی دو متغیر تصادفی X و Y از میانگین هندسی پراکندگی آنها تجاوز نمی کند.

ویژگی: مقدار مطلق ضریب همبستگی از واحد تجاوز نمی کند.

متغیرهای تصادفی نامیده می شوند مرتبط استاگر لحظه همبستگی آنها غیر صفر باشد و نامرتبطاگر لحظه همبستگی آنها صفر باشد.

اگر متغیرهای تصادفی مستقل باشند، در این صورت غیر همبسته هستند، اما از عدم همبستگی نمی توان نتیجه گرفت که مستقل هستند.

اگر دو کمیت وابسته باشند، می‌توانند همبسته یا غیر همبسته باشند.

اغلب، با توجه به تراکم توزیع معین سیستمی از متغیرهای تصادفی، می توان وابستگی یا استقلال این متغیرها را تعیین کرد.

همراه با ضریب همبستگی، درجه وابستگی متغیرهای تصادفی را می توان با کمیت دیگری نیز مشخص کرد که به نام ضریب کوواریانس. ضریب کوواریانس با فرمول تعیین می شود:

مثال.چگالی توزیع سیستم متغیرهای تصادفی X ومستقل. البته آنها هم بی ارتباط خواهند بود.

رگرسیون خطی.

یک متغیر تصادفی دو بعدی را در نظر بگیرید ( X، Y)، که در آن X و Y متغیرهای تصادفی وابسته هستند.

اجازه دهید تقریباً یک متغیر تصادفی را به عنوان تابعی از متغیر دیگر نشان دهیم. تطابق دقیق امکان پذیر نیست. فرض می کنیم که این تابع خطی است.

برای تعیین این تابع، تنها یافتن مقادیر ثابت باقی می ماند آو ب.

تعریف. عملکردg( ایکس) تماس گرفت بهترین تقریبمتغیر تصادفی Y به معنای روش حداقل مربعات، اگر انتظارات ریاضی باشد

کمترین ارزش ممکن را می گیرد. همچنین عملکردg( ایکس) تماس گرفت میانگین رگرسیون مربع Y تا X

قضیه. رگرسیون خطی میانگین مربع Y روی X با فرمول محاسبه می شود:

در این فرمول m x= م( متغیر تصادفی X Yنسبت به متغیر تصادفی ایکس.این مقدار بزرگی خطای ناشی از جایگزینی یک متغیر تصادفی را مشخص می کند.Yتابع خطیg( ایکس) = آX +ب.

دیده می شود که اگر r= ± 1، سپس واریانس باقیمانده صفر است و از این رو خطا صفر و متغیر تصادفی استYدقیقاً با یک تابع خطی از متغیر تصادفی نشان داده می شود ایکس.

رگرسیون میانگین مربع ریشه مستقیم ایکسبر رویYبه طور مشابه با فرمول تعیین می شود: X و Yدارای توابع رگرسیون خطی نسبت به یکدیگر هستند، آنگاه می گوییم که کمیت ها ایکسوYمتصل وابستگی همبستگی خطی.

قضیه. اگر یک متغیر تصادفی دو بعدی ( ایکس, Y) به طور معمول توزیع می شود، سپس X و Y توسط یک وابستگی همبستگی خطی به هم متصل می شوند.

به عنوان مثال. نیکیفوروا


پدیده تثبیت فراوانی وقوع رویدادهای تصادفی، کشف شده بر روی یک ماده بزرگ و متنوع، در ابتدا هیچ توجیهی نداشت و به عنوان یک واقعیت کاملاً تجربی درک شد. اولین نتیجه نظری در این زمینه، قضیه معروف برنولی بود که در سال 1713 منتشر شد، که پایه و اساس قوانین اعداد بزرگ را پی ریزی کرد.

قضیه برنولی در محتوای خود یک قضیه حدی است، یعنی بیان معنای مجانبی که می گوید با تعداد زیادی مشاهدات چه اتفاقی برای پارامترهای احتمالی خواهد افتاد. مولد تمام گزاره های متعدد مدرن از این نوع دقیقا قضیه برنولی است.

امروزه به نظر می رسد که قانون ریاضی اعداد بزرگ بازتابی از برخی ویژگی های مشترک بسیاری از فرآیندهای واقعی است.

یکی از بزرگترین ریاضیدانان قرن ما A.N. Kolmogorov با تمایل به پوشش هرچه بیشتر قانون اعداد بزرگ، مطابق با امکانات بالقوه به دور از پایان استفاده از این قانون، جوهر آن را به شرح زیر فرموله کرد: قانون اعداد بزرگ. یک اصل کلی است که به موجب آن عمل تعداد زیادی از عوامل تصادفی منجر به نتیجه ای تقریباً مستقل از شانس می شود.

بنابراین، قانون اعداد بزرگ، همانطور که بود، دو تفسیر دارد. یکی ریاضی است که با مدل‌ها، فرمول‌بندی‌ها، نظریه‌های خاص ریاضی مرتبط است و دومی کلی‌تر است که فراتر از این چارچوب است. تفسیر دوم با پدیده شکل‌گیری مرتبط است که اغلب در عمل به آن اشاره می‌شود، در درجات مختلف کنش جهت‌دار در برابر پس‌زمینه تعداد زیادی از عوامل کنش پنهان یا آشکار که چنین تداومی در ظاهر ندارند. نمونه های مربوط به تفسیر دوم، قیمت گذاری در بازار آزاد، شکل گیری افکار عمومی در مورد یک موضوع خاص است.

با توجه به این تفسیر کلی از قانون اعداد بزرگ، اجازه دهید به فرمول‌های ریاضی خاص این قانون بپردازیم.

همانطور که در بالا گفتیم، اولین و اساساً مهم‌ترین مورد برای نظریه احتمال، قضیه برنولی است. محتوای این واقعیت ریاضی که یکی از مهم ترین قانونمندی های دنیای اطراف را منعکس می کند به موارد زیر خلاصه می شود.

دنباله ای از تست های نامرتبط (یعنی مستقل) را در نظر بگیرید که شرایط آن همواره از آزمونی به آزمون دیگر تکرار می شود. نتیجه هر آزمایش، ظاهر یا عدم ظهور رویداد مورد علاقه ما است. ولی.

این روش (طرح برنولی) به وضوح می تواند برای بسیاری از زمینه های عملی معمولی شناخته شود: "پسر - دختر" در توالی نوزادان، مشاهدات هواشناسی روزانه ("باران بود - نبود")، کنترل جریان محصولات تولیدی ("عادی - معیوب") و غیره.

فراوانی وقوع رویداد ولیدر پآزمایش های ( t A -

فرکانس رویداد ولیکه در پآزمایشات) با رشد دارد پتمایل به تثبیت ارزش آن، این یک واقعیت تجربی است.

قضیه برنولی.اجازه دهید هر عدد مثبت دلخواه کوچک را انتخاب کنیم. سپس

ما تأکید می کنیم که واقعیت ریاضی ایجاد شده توسط برنولی در یک مدل ریاضی خاص (در طرح برنولی) نباید با نظم تجربی ثابت شده ثبات فرکانس اشتباه گرفته شود. برنولی تنها به بیان فرمول (9.1) بسنده نکرد، بلکه با در نظر گرفتن نیازهای عملی، برآوردی از نابرابری موجود در این فرمول ارائه کرد. در ادامه به این تفسیر باز خواهیم گشت.

قانون اعداد بزرگ برنولی موضوع تحقیق تعداد زیادی از ریاضیدانان بوده است که به دنبال اصلاح آن بوده اند. یکی از این اصلاحات توسط ریاضیدان انگلیسی مویور به دست آمد و در حال حاضر قضیه مویور-لاپلاس نامیده می شود. در طرح برنولی، دنباله ای از مقادیر نرمال شده را در نظر بگیرید:

قضیه انتگرال مویور - لاپلاس.هر دو عدد را انتخاب کنید ایکس (و x 2 .در این مورد، x، x 7، سپس زمانی پ -» °°

اگر در سمت راست فرمول (9.3) متغیر x xبه بی نهایت میل کنید، سپس حد حاصل، که فقط به x 2 بستگی دارد (در این مورد، شاخص 2 را می توان حذف کرد)، یک تابع توزیع خواهد بود، به آن می گویند. توزیع نرمال استاندارد،یا قانون گاوس

سمت راست فرمول (9.3) برابر y = است F(x 2) - F(x x). F(x2)-> 1 در x 2-> °° و F(x,) -> 0 برای x، -> با انتخاب اندازه کافی بزرگ

X] > 0 و به اندازه کافی بزرگ در مقدار مطلق X] n نابرابری را بدست می آوریم:

با در نظر گرفتن فرمول (9.2)، می‌توانیم تخمین‌های عملاً قابل اعتماد را استخراج کنیم:

اگر قابلیت اطمینان y = 0.95 (یعنی احتمال خطای 0.05) ممکن است برای کسی ناکافی به نظر برسد، می توانید آن را ایمن کنید و با استفاده از قانون سه سیگما که در بالا ذکر شد فاصله اطمینان کمی ایجاد کنید:

این فاصله مربوط به سطح اطمینان بسیار بالا y = 0.997 است (جدول توزیع نرمال را ببینید).

مثال پرتاب سکه را در نظر بگیرید. بیایید یک سکه پرتاب کنیم n = 100 بار آیا این اتفاق می افتد که فرکانس آربسیار متفاوت از احتمال خواهد بود آر= 0.5 (با فرض تقارن سکه) مثلاً برابر با صفر خواهد بود؟ برای این کار لازم است که نشان حتی یکبار هم نیفتد. چنین رویدادی از نظر تئوری امکان پذیر است، اما ما قبلاً چنین احتمالاتی را محاسبه کرده ایم، برای این رویداد برابر است با این مقدار

بسیار کوچک است، ترتیب آن عددی با 30 رقم اعشار است. رویدادی با چنین احتمالی را می توان با خیال راحت عملاً غیرممکن در نظر گرفت. چه انحرافات فرکانس از احتمال با تعداد زیادی آزمایش عملاً امکان پذیر است؟ با استفاده از قضیه مویور-لاپلاس به این سوال به صورت زیر پاسخ می دهیم: با احتمال در= 0.95 فرکانس نشان آرمتناسب با فاصله اطمینان:

اگر خطای 0.05 کم به نظر نمی رسد، باید تعداد آزمایشات را افزایش داد (پرتاب سکه). با افزایش پعرض فاصله اطمینان کاهش می یابد (متاسفانه نه به سرعتی که ما می خواهیم، ​​بلکه به طور معکوس متناسب با -جان).مثلاً وقتی پ= 10 000 ما آن را دریافت می کنیم آردر فاصله اطمینان با احتمال اطمینان نهفته است در= 0.95: 0.5 ± 0.01.

بنابراین، ما به طور کمی با مسئله تقریب فراوانی به احتمال برخورد کرده ایم.

حال بیایید احتمال یک رویداد را از بسامد آن پیدا کنیم و خطای این تقریب را تخمین بزنیم.

اجازه دهید تعداد زیادی آزمایش انجام دهیم پ(یک سکه پرتاب کرد)، فراوانی رویداد را پیدا کرد ولیو می خواهند احتمال آن را تخمین بزنند آر.

از قانون اعداد بزرگ پبه شرح زیر است که:

اجازه دهید اکنون خطای عملاً ممکن برابری تقریبی (9.7) را تخمین بزنیم. برای این کار از نابرابری (9.5) به شکل زیر استفاده می کنیم:

برای یافتن آربر آربرای حل نابرابری (9.8) لازم است، برای این کار باید آن را مربع کرده و معادله درجه دوم مربوطه را حل کنیم. در نتیجه، دریافت می کنیم:

جایی که

برای یک برآورد تقریبی آربر آرمی تواند در فرمول (9.8) باشد آردر سمت راست، جایگزین کنید آریا در فرمول های (9.10)، (9.11) در نظر بگیرید که

سپس دریافت می کنیم:

بگذار وارد شود پ= 400 آزمایش مقدار فرکانس را دریافت کردند آر= 0.25، سپس در سطح اطمینان y = 0.95 پیدا می کنیم:

اما اگر بخواهیم احتمال را با دقت بیشتری بدانیم، مثلاً با خطای 0.01 بیشتر، چه کنیم؟ برای انجام این کار، باید تعداد آزمایشات را افزایش دهید.

با فرض فرمول (9.12) احتمال آر= 0.25، مقدار خطا را با مقدار داده شده 0.01 برابر می کنیم و معادله ای برای پ:

با حل این معادله به دست می آوریم n~ 7500.

حال اجازه دهید یک سوال دیگر را در نظر بگیریم: آیا انحراف فرکانس از احتمال به دست آمده در آزمایش ها را می توان با علل تصادفی توضیح داد یا این انحراف نشان می دهد که احتمال آن چیزی نیست که ما فرض می کردیم؟ به عبارت دیگر آیا تجربه فرضیه آماری مورد قبول را تأیید می کند یا برعکس، رد آن را ایجاب می کند؟

مثلاً یک سکه پرتاب کنید پ= 800 بار، فرکانس تاج را می گیریم آر= 0.52. ما مشکوک بودیم که سکه متقارن نیست. آیا این شبهه موجه است؟ برای پاسخ به این سوال، از فرض متقارن بودن سکه اقدام می کنیم (p = 0.5). بیایید فاصله اطمینان (با احتمال اطمینان) را پیدا کنیم در= 0.95) برای فراوانی ظاهر نشان. اگر مقدار بدست آمده در آزمایش آر= 0.52 در این بازه قرار می گیرد - همه چیز عادی است، فرضیه پذیرفته شده در مورد تقارن سکه با داده های تجربی در تضاد نیست. فرمول (9.12) برای آر= 0.5 فاصله 0.5 ± 0.035 را نشان می دهد. ارزش دریافتی p = 0.52 در این فاصله قرار می گیرد، به این معنی که سکه باید از سوء ظن عدم تقارن "پاک شود".

روش‌های مشابهی برای قضاوت در مورد اینکه آیا انحرافات مختلف از انتظارات ریاضی مشاهده‌شده در پدیده‌های تصادفی تصادفی یا «معنی‌دار» هستند، استفاده می‌شود. به عنوان مثال، آیا در چند نمونه از کالاهای بسته بندی شده، کمبود وزن تصادفی وجود داشته است یا نشان دهنده فریب سیستماتیک خریداران است؟ آیا میزان بهبودی در بیمارانی که از داروی جدید استفاده کرده اند به طور تصادفی افزایش یافته است یا به دلیل تأثیر دارو است؟

قانون عادی نقش مهمی در نظریه احتمالات و کاربردهای عملی آن دارد. قبلاً در بالا دیدیم که یک متغیر تصادفی - تعداد وقوع برخی رویدادها در طرح برنولی - زمانی که پ-» °° به قانون عادی کاهش می یابد. با این حال، یک نتیجه بسیار کلی تر وجود دارد.

تئوری حد مرکزی.مجموع تعداد زیادی از متغیرهای تصادفی مستقل (یا ضعیف وابسته) که به ترتیب پراکندگی آنها با یکدیگر قابل مقایسه هستند، بدون توجه به اینکه قوانین توزیع اصطلاحات چه بوده است، طبق قانون عادی توزیع می شود. عبارت فوق یک فرمول کیفی تقریبی از نظریه حد مرکزی است. این قضیه اشکال زیادی دارد که در شرایطی که متغیرهای تصادفی باید برآورده کنند تا مجموع آنها با افزایش تعداد عبارت ها "نرمال" شود، با یکدیگر تفاوت دارند.

چگالی توزیع نرمال Dx) با فرمول بیان می شود:

جایی که آ -انتظارات ریاضی از یک متغیر تصادفی X s= V7) انحراف معیار آن است.

برای محاسبه احتمال قرار گرفتن x در بازه (x 1? x 2)، از انتگرال استفاده می شود:

از آنجایی که انتگرال (9.14) در چگالی (9.13) بر حسب توابع ابتدایی بیان نمی شود ("دریافت نشده است")، جداول تابع توزیع انتگرالی توزیع نرمال استاندارد برای محاسبه (9.14) استفاده می شود. a = 0، a = 1 (چنین جداول در هر کتاب درسی نظریه احتمال موجود است):

احتمال (9.14) با استفاده از رابطه (10.15) با فرمول بیان می شود:

مثال. احتمال وجود متغیر تصادفی را پیدا کنید ایکس،داشتن توزیع نرمال با پارامترها آ، a، از مدول انتظار ریاضی خود بیش از 3a انحراف داشته باشد.

با استفاده از فرمول (9.16) و جدول تابع توزیع قانون عادی، به دست می آوریم:

مثال. در هر یک از 700 تجربه مستقل، یک رویداد ولیبا احتمال ثابت اتفاق می افتد آر= 0.35. احتمال وقوع رویداد را بیابید ولیاتفاق خواهد افتاد:

  • 1) دقیقا 270 بار;
  • 2) کمتر از 270 و بیش از 230 برابر.
  • 3) بیش از 270 بار.

یافتن انتظارات ریاضی آ = و غیرهو انحراف معیار:

متغیر تصادفی - تعداد وقوع رویداد ولی:

یافتن مقدار متمرکز و نرمال شده ایکس:

با توجه به جداول چگالی توزیع نرمال، پیدا می کنیم f(x):

بیا الان پیدا کنیم R w (x,> 270) = P 700 (270 F(1.98) == 1 - 0.97615 = 0.02385.

گامی جدی در مطالعه مشکلات اعداد بزرگ در سال 1867 توسط P. L. Chebyshev انجام شد. او یک مورد بسیار کلی را در نظر گرفت، زمانی که به جز وجود انتظارات و واریانس های ریاضی، چیزی از متغیرهای تصادفی مستقل مورد نیاز نیست.

نابرابری چبیشفبرای یک عدد مثبت دلخواه کوچک e، نابرابری زیر برقرار است:

قضیه چبیشف.اگر یک x x، x 2، ..., x n -متغیرهای تصادفی مستقل دوتایی که هر کدام دارای انتظارات ریاضی هستند E (Xj) = ciو پراکندگی D(x,) =)، و واریانس ها به طور یکنواخت محدود می شوند، یعنی. 1،2 ...، سپس برای یک عدد مثبت دلخواه کوچک هرابطه محقق می شود:

نتیجه. اگر یک a، = aio، -o 2، i= 1،2 ...، سپس

یک وظیفه. چند بار باید یک سکه پرتاب شود تا حداقل با احتمال y - 0.997، آیا می توان استدلال کرد که فراوانی نشان در بازه (0.499؛ 0.501) باشد؟

فرض کنید سکه متقارن است، p - q - 0.5. ما قضیه چبیشف را در فرمول (9.19) روی متغیر تصادفی اعمال می کنیم ایکس-فراوانی ظهور نشان در پسکه انداختن ما قبلاً در بالا نشان داده ایم X = X x + X 2 + ... +Х",جایی که X t -یک متغیر تصادفی که در صورت افتادن نشان، مقدار 1 و اگر دم بیرون بیفتد، مقدار 0 را می گیرد. بنابراین:

نابرابری (9.19) را برای رویدادی مخالف رویدادی که در زیر علامت احتمال نشان داده شده است می نویسیم:

در مورد ما، [e \u003d 0.001, cj 2 \u003d /? -p)] t تعداد نشان‌های موجود در پپرتاب کردن با جایگزینی این کمیت ها به آخرین نابرابری و با در نظر گرفتن اینکه با توجه به شرط مسئله، نابرابری باید برآورده شود، به دست می آوریم:

مثال داده شده امکان استفاده از نابرابری چبیشف را برای تخمین احتمالات انحرافات معینی از متغیرهای تصادفی (و همچنین مشکلاتی مانند این مثال مربوط به محاسبه این احتمالات) را نشان می دهد. مزیت نابرابری چبیشف این است که نیازی به دانش قوانین توزیع متغیرهای تصادفی ندارد. البته، اگر چنین قانونی شناخته شود، نابرابری چبیشف تخمین های بیش از حد خشن ارائه می دهد.

همین مثال را در نظر بگیرید، اما با استفاده از این واقعیت که پرتاب سکه یک مورد خاص از طرح برنولی است. تعداد موفقیت‌ها (در مثال - تعداد نشان‌ها) از قانون دوجمله‌ای تبعیت می‌کند و با مقدار زیاد پاین قانون را می توان با قضیه انتگرال مویور - لاپلاس به عنوان یک قانون عادی با انتظارات ریاضی نشان داد. a = pr = n؟ 0.5 و با انحراف معیار a = yfnpq- 25=0.5l/l. متغیر تصادفی - فراوانی نشان - دارای انتظار ریاضی = 0.5 و انحراف معیار است.

سپس داریم:

از آخرین نابرابری بدست می آوریم:

از جداول توزیع نرمال می یابیم:

می بینیم که تقریب نرمال تعداد پرتاب های سکه را نشان می دهد که خطای داده شده را در تخمین احتمال نشان می دهد، که 37 برابر کوچکتر از تخمین به دست آمده با استفاده از نابرابری چبیشف است (اما نابرابری چبیشف انجام این کار را ممکن می کند. محاسبات مشابه حتی در مواردی که اطلاعاتی در مورد قانون توزیع متغیر تصادفی مورد مطالعه نداریم).

اجازه دهید اکنون یک مسئله کاربردی حل شده با کمک فرمول (9.16) را در نظر بگیریم.

مشکل رقابت دو شرکت راه آهن رقیب هر کدام یک قطار بین مسکو و سن پترزبورگ دارند. این قطارها تقریباً به همین ترتیب تجهیز شده اند، آنها نیز تقریباً در همان زمان حرکت می کنند و می رسند. بیایید وانمود کنیم که پ= 1000 مسافر به طور مستقل و تصادفی قطاری را برای خود انتخاب می کنند، بنابراین به عنوان یک مدل ریاضی برای انتخاب قطار توسط مسافران، از طرح برنولی با استفاده از پآزمایش ها و شانس موفقیت آر= 0.5. شرکت باید تصمیم بگیرد که چه تعداد صندلی در قطار فراهم کند، با در نظر گرفتن دو شرط متضاد متقابل: از یک سو، آنها نمی خواهند صندلی های خالی داشته باشند، از سوی دیگر، آنها نمی خواهند ناراضی به نظر برسند. کمبود کرسی (دفعه بعد شرکت های رقیب را ترجیح می دهند). البته می توانید در قطار تهیه کنید پ= 1000 صندلی، اما مطمئناً صندلی های خالی خواهد بود. متغیر تصادفی - تعداد مسافران قطار - در چارچوب مدل ریاضی پذیرفته شده با استفاده از نظریه انتگرال دی مویور - لاپلاس از قانون عادی با انتظارات ریاضی تبعیت می کند. a = pr = n/2 و پراکندگی a 2 = npq = p/4به صورت متوالی احتمال اینکه قطار به بیش از سمسافران با نسبت تعیین می شود:

سطح ریسک را تنظیم کنید آ، یعنی احتمال اینکه بیش از سمسافران:

از اینجا:

اگر یک آ- ریشه ریسک آخرین معادله، که در جداول تابع توزیع قانون نرمال یافت می شود، به دست می آوریم:

اگر مثلاً پ = 1000, آ= 0.01 (این سطح ریسک به معنی تعداد مکان ها است سدر 99 مورد از 100 مورد کافی خواهد بود x a ~ 2.33 و s= 537 مکان. علاوه بر این، اگر هر دو شرکت سطوح یکسانی از ریسک را بپذیرند آ= 0.01، سپس دو قطار در مجموع 1074 صندلی خواهند داشت که 74 تای آن خالی خواهد بود. به طور مشابه، می توان محاسبه کرد که 514 کرسی در 80 درصد همه موارد و 549 صندلی در 999 از 1000 مورد کافی است.

ملاحظات مشابهی برای سایر مشکلات خدمات رقابتی اعمال می شود. به عنوان مثال، اگر تیسینماها برای همین رقابت با هم رقابت می کنند پتماشاگران، باید پذیرفت آر= -. ما گرفتیم

که تعداد صندلی ها سدر سینما باید با نسبت تعیین شود:

تعداد کل صندلی های خالی برابر است با:

برای آ = 0,01, پ= 1000 و تی= 2، 3، 4 مقادیر این عدد تقریباً به ترتیب برابر با 74، 126، 147 است.

بیایید یک مثال دیگر را در نظر بگیریم. بگذار قطار باشد پ - 100 واگن. وزن هر واگن یک متغیر تصادفی با انتظارات ریاضی است آ - 65 تن و میانگین مربع انتظار o = 9 تن لکوموتیو می تواند قطار را حمل کند که وزن آن بیش از 6600 تن نباشد. در غیر این صورت، شما باید لوکوموتیو دوم را وصل کنید. ما باید این احتمال را پیدا کنیم که این کار ضروری نباشد.

وزن واگن های جداگانه: داشتن همان انتظارات ریاضی آ - 65 و واریانس یکسان د- o 2 \u003d 81. طبق قانون انتظارات ریاضی: سابق) - 100 * 65 = 6500. طبق قانون جمع واریانس ها: D(x) \u003d 100 x 81 \u003d 8100. با ریشه گرفتن، انحراف معیار را پیدا می کنیم. برای اینکه یک لوکوموتیو بتواند قطار را بکشد، لازم است که وزن قطار ایکسمشخص شد که محدود کننده است، یعنی در محدوده فاصله (0؛ 6600) قرار دارد. متغیر تصادفی x - مجموع 100 عبارت - را می توان به طور معمول توزیع شده در نظر گرفت. با فرمول (9.16) دریافت می کنیم:

نتیجه این است که لوکوموتیو قطار را با احتمال تقریباً 0.864 "کنترل" می کند. اجازه دهید تعداد واگن‌های قطار را دو تا کاهش دهیم، یعنی سوار شوید پ= 98. اکنون با محاسبه احتمال این که لوکوموتیو قطار را "کنترل" کند، مقداری از مرتبه 0.99 به دست می آوریم، یعنی یک رویداد تقریباً مشخص، اگرچه فقط دو واگن برای این کار باید حذف می شد.

بنابراین، اگر با مجموع تعداد زیادی از متغیرهای تصادفی سر و کار داریم، می‌توانیم از قانون عادی استفاده کنیم. طبیعتاً این سؤال را ایجاد می کند: چند متغیر تصادفی باید اضافه شود تا قانون توزیع مجموع قبلاً "نرمال" شده باشد؟ این بستگی به قوانین توزیع اصطلاحات دارد. چنین قوانین پیچیده ای وجود دارد که عادی سازی فقط با تعداد بسیار زیادی اصطلاح اتفاق می افتد. اما این قوانین توسط ریاضیدانان اختراع شده است، در حالی که طبیعت، به عنوان یک قاعده، به طور خاص چنین مشکلاتی را ترتیب نمی دهد. معمولاً در عمل برای اینکه بتوان از قانون عادی استفاده کرد، پنج یا شش عبارت کافی است.

سرعتی که قانون توزیع مجموع متغیرهای تصادفی توزیع شده یکسان "نرمال" می شود را می توان با مثالی از متغیرهای تصادفی با توزیع یکنواخت در بازه (0، 1) نشان داد. منحنی چنین توزیعی به شکل یک مستطیل است که در حال حاضر بر خلاف قانون عادی است. بیایید دو کمیت مستقل را اضافه کنیم - یک متغیر تصادفی دریافت می کنیم که طبق قانون به اصطلاح سیمپسون توزیع شده است، که نمایش گرافیکی آن به شکل یک مثلث متساوی الساقین است. به نظر قانون عادی هم نیست ولی بهتره. و اگر سه متغیر تصادفی توزیع شده یکنواخت را اضافه کنید، منحنی متشکل از سه بخش سهمی به دست خواهید آورد که بسیار شبیه به یک منحنی معمولی است. اگر شش متغیر تصادفی از این قبیل را اضافه کنید، منحنی دریافت می کنید که با یک متغیر معمولی تفاوتی ندارد. این اساس روش پرکاربرد برای بدست آوردن یک متغیر تصادفی توزیع شده معمولی است، در حالی که تمام رایانه های مدرن به حسگرهایی با اعداد تصادفی توزیع شده یکنواخت (0، 1) مجهز هستند.

روش زیر به عنوان یکی از راه های عملی برای بررسی این موضوع توصیه می شود. ما یک فاصله اطمینان برای فراوانی یک رویداد با یک سطح ایجاد می کنیم در= 0.997 طبق قانون سه سیگما:

و اگر هر دو انتهای آن از بخش (0، 1) فراتر نرود، می توان از قانون عادی استفاده کرد. اگر هر یک از مرزهای فاصله اطمینان خارج از بخش (0، 1) باشد، نمی توان از قانون عادی استفاده کرد. با این حال، تحت شرایط خاصی، قانون دوجمله ای برای فراوانی یک رویداد تصادفی، اگر به حالت عادی تمایل نداشته باشد، می تواند به قانون دیگری گرایش پیدا کند.

در بسیاری از کاربردها، طرح برنولی به عنوان یک مدل ریاضی از یک آزمایش تصادفی استفاده می شود که در آن تعداد آزمایش ها پبزرگ، یک رویداد تصادفی بسیار نادر است، یعنی. آر = و غیرهنه کوچک، اما نه بزرگ (در محدوده O -5 - 20 در نوسان است). در این حالت رابطه زیر برقرار است:

فرمول (9.20) تقریب پواسون برای قانون دو جمله ای نامیده می شود، زیرا توزیع احتمال در سمت راست آن قانون پواسون نامیده می شود. گفته می شود که توزیع پواسون یک توزیع احتمال برای رویدادهای نادر است، زیرا زمانی رخ می دهد که محدودیت ها رعایت شوند: پ -»°°, آر-» 0، اما ایکس = pr oo.

مثال. تولدها احتمالش چقدره R t (k)که در یک جامعه 500 نفری بهمتولدین سال نو؟ اگر این 500 نفر به صورت تصادفی انتخاب شوند، می توان طرح برنولی را با احتمال موفقیت اعمال کرد. P = 1/365. سپس

محاسبات احتمال برای انواع مختلف بهمقادیر زیر را بدهید: RU = 0,3484...; R 2 = 0,2388...; R 3 = 0,1089...; P 4 = 0,0372...; R 5 = 0,0101...; R 6= 0.0023 ... تقریب متناظر با فرمول پواسون برای X= 500 1/365 = 1,37

مقادیر زیر را بدهید: Ru = 0,3481...; R 2 = 0,2385...; Р b = 0,1089; R 4 = 0,0373...; P 5 = 0,0102...; P 6 = 0.0023 ... تمام خطاها فقط در رقم چهارم اعشار هستند.

اجازه دهید مثال‌هایی از موقعیت‌هایی بیاوریم که در آن می‌توان از قانون پواسون درباره رویدادهای نادر استفاده کرد.

در مرکز تلفن، بعید است که اتصال نادرست رخ دهد. معمولا آر 0.005 ~ سپس فرمول پواسون به شما امکان می دهد تا احتمال اتصالات نادرست را برای تعداد کل اتصالات معینی پیدا کنید. n~ 1000 وقتی X = pr =1000 0,005 = 5.

هنگام پخت نان ها، کشمش را در خمیر قرار می دهند. باید انتظار داشت که به دلیل هم زدن، دفعات رول کشمش تقریباً از توزیع پواسون تبعیت کند. P n (k، X)،جایی که ایکس-تراکم کشمش در خمیر

یک ماده رادیواکتیو n-ذره ساطع می کند. رویدادی که تعداد ذرات d در طول زمان به آن می رسد تیمنطقه داده شده از فضا، مقدار ثابتی می گیرد به،از قانون پواسون پیروی می کند.

تعداد سلول های زنده با کروموزوم های تغییر یافته تحت تأثیر اشعه ایکس از توزیع پواسون پیروی می کند.

بنابراین، قوانین اعداد بزرگ به حل مسئله آمار ریاضی مرتبط با تخمین احتمالات ناشناخته نتایج اولیه تجربیات تصادفی اجازه می دهد. به لطف این دانش، ما روش های نظریه احتمال را عملا معنادار و مفید می کنیم. قوانین اعداد بزرگ همچنین حل مشکل به دست آوردن اطلاعات در مورد احتمالات ابتدایی ناشناخته را به شکل دیگری - شکل آزمایش فرضیه های آماری - ممکن می کند.

اجازه دهید فرمول و مکانیسم احتمالی حل مسائل آزمون فرضیه های آماری را با جزئیات بیشتری در نظر بگیریم.

تابع توزیع یک متغیر تصادفی و خواص آن.

تابع توزیعمتغیر تصادفی X تابع F(X) نامیده می شود و برای هر x این احتمال را بیان می کند که متغیر تصادفی X مقداری کمتر از x بگیرد: F(x)=P(X

تابع F(x)گاهی اوقات نامیده می شود تابع انتگرالتوزیع یا قانون توزیع یکپارچه

ویژگی های تابع توزیع:

1. تابع توزیع یک متغیر تصادفی یک تابع غیر منفی است که بین صفر و یک محصور شده است:

0 ≤ F(x) ≤ 1.

2. تابع توزیع یک متغیر تصادفی یک تابع غیر کاهشی در محور اعداد کامل است.

3. در منهای بی نهایت، تابع توزیع برابر با صفر است، در بعلاوه بی نهایت برابر با یک است، یعنی: F(-∞)= , F(+∞)= .

4. احتمال سقوط یک متغیر تصادفی در بازه [x1,x2) (شامل x1) برابر است با افزایش تابع توزیع آن در این بازه، یعنی. P(x 1 ≤ X< х 2) = F(x 2) - F(x 1).


نابرابری مارکوف و چبیشف

نابرابری مارکوف

قضیه: اگر یک متغیر تصادفی X فقط مقادیر غیر منفی را بگیرد و انتظار ریاضی داشته باشد، برای هر عدد مثبت A برابری درست است: P(x>A) ≤ .

از آنجایی که رویدادهای X > A و X ≤ A متضاد هستند، به جای P(X > A) 1 - P (X ≤ A) را بیان می کنیم، به شکل دیگری از نابرابری مارکوف می رسیم: P(X ≥ A) ≥1 - .

نابرابری مارکوف k برای هر متغیر تصادفی غیر منفی قابل اعمال است.

نابرابری چبیشف

قضیه:برای هر متغیر تصادفی با انتظارات و واریانس ریاضی، نابرابری چبیشف صادق است:

P (|X - a| > ε) ≤ D(X) / ε 2 یا P (|X - a| ≤ ε) ≥ 1 - DX / ε 2، جایی که a \u003d M (X)، ε>0.


قانون اعداد بزرگ "به شکل" قضیه چبیشف.

قضیه چبیشف:اگر واریانس ها nمتغیرهای تصادفی مستقل X1، X2،…. ایکس nبا همان ثابت محدود می شوند، سپس با افزایش نامحدود در تعداد nمیانگین حسابی متغیرهای تصادفی از نظر احتمال به میانگین حسابی انتظارات ریاضی آنها همگرا می شود a 1,a 2 ....,a n، یعنی .

منظور از قانون اعداد بزرگ این است که مقادیر متوسط ​​متغیرهای تصادفی به انتظارات ریاضی آنها تمایل دارند زمانی که n→ ∞ در احتمال. انحراف مقادیر متوسط ​​از انتظارات ریاضی به طور دلخواه کوچک با احتمال نزدیک به یک می شود اگر n به اندازه کافی بزرگ باشد. به عبارت دیگر، احتمال هرگونه انحراف وسیله از آخودسرانه کوچک با رشد n.



30. قضیه برنولی.

قضیه برنولی:فرکانس رویداد در nآزمایش‌های مستقل مکرر، که در هر یک از آنها می‌تواند با همان احتمال p، با افزایش نامحدود در تعداد رخ دهد. nدر یک آزمایش جداگانه احتمال را به احتمال p این رویداد همگرا کنید: \

قضیه برنولی نتیجه قضیه چبیشف است، زیرا فراوانی یک رویداد را می توان به عنوان میانگین حسابی n متغیر تصادفی جایگزین مستقل که قانون توزیع یکسانی دارند، نشان داد.

18. انتظار ریاضی از یک متغیر تصادفی گسسته و پیوسته و خواص آنها.

انتظارات ریاضیمجموع حاصل از تمام مقادیر آن و احتمالات مربوط به آنها است

برای یک متغیر تصادفی گسسته:

برای یک متغیر تصادفی پیوسته:

ویژگی های انتظار ریاضی:

1. انتظار ریاضی یک مقدار ثابت برابر است با خود ثابت: M(S)=S

2. عامل ثابت را می توان از علامت انتظار خارج کرد، یعنی. M(kX)=kM(X).

3. انتظار ریاضی از مجموع جبری تعداد محدودی از متغیرهای تصادفی برابر است با همان مجموع انتظارات ریاضی آنها، یعنی. M(X±Y)=M(X)±M(Y).

4. انتظارات ریاضی حاصلضرب تعداد محدودی از متغیرهای تصادفی مستقل برابر است با حاصلضرب انتظارات ریاضی آنها: M(XY)=M(X)*M(Y).

5. اگر تمام مقادیر یک متغیر تصادفی با یک ثابت C افزایش (کاهش) شود، انتظار ریاضی این متغیر تصادفی با همان ثابت C افزایش (کاهش) خواهد داشت: M(X±C)=M(X)±C.

6. انتظار ریاضی انحراف یک متغیر تصادفی از انتظار ریاضی آن صفر است: M=0.

اگر پدیده پایداری متوسطدر واقعیت اتفاق می افتد، پس در مدل ریاضی که با آن پدیده های تصادفی را مطالعه می کنیم، باید یک قضیه منعکس کننده این واقعیت وجود داشته باشد.
تحت شرایط این قضیه، محدودیت هایی را بر روی متغیرهای تصادفی معرفی می کنیم ایکس 1 , ایکس 2 , …, X n:

الف) هر متغیر تصادفی Х iانتظارات ریاضی دارد

م(Х i) = آ;

ب) واریانس هر متغیر تصادفی متناهی است یا می توان گفت که واریانس ها از بالا با همان عدد محدود می شوند، برای مثال. از جانب، یعنی

D(Х i) < C, i = 1, 2, …, n;

ج) متغیرهای تصادفی دو به دو مستقل هستند، یعنی هر دو X iو Xjدر من¹ jمستقل.

سپس به وضوح

D(ایکس 1 + ایکس 2 + … + X n)=D(ایکس 1) + دی(ایکس 2) + ... + د(X n).

اجازه دهید قانون اعداد بزرگ را به شکل چبیشف فرموله کنیم.

قضیه چبیشف:با افزایش نامحدود تعداد nتست های مستقل" میانگین حسابی مقادیر مشاهده شده یک متغیر تصادفی به احتمال زیاد با انتظارات ریاضی آن همگرا می شود. "، یعنی برای هر مثبت ε

آر(| الف| < ε ) = 1. (4.1.1)

معنی بیان "میانگین حسابی = به احتمال یک" همگرا می شود این احتمال است که خودسرانه کمی متفاوت خواهد بود آ، به عنوان عدد به طور نامحدود به 1 نزدیک می شود n.

اثباتبرای یک عدد محدود nآزمون‌های مستقل، نابرابری چبیشف را برای یک متغیر تصادفی اعمال می‌کنیم = :

آر(|–M()| < ε ) ≥ 1 – . (4.1.2)

با در نظر گرفتن محدودیت های a - b ، محاسبه می کنیم م( ) و D( ):

م( ) = = = = = = آ;

D( ) = = = = = = .

جایگزین کردن م( ) و D( ) به نابرابری (4.1.2)، به دست می آوریم

آر(| الف| < ε )≥1 .

اگر در نابرابری (4.1.2) یک کوچک دلخواه را بگیریم ε > 0 و n® ¥، سپس دریافت می کنیم

که قضیه چبیشف را اثبات می کند.

یک نتیجه عملی مهم از قضیه در نظر گرفته شده به دست می آید: ما حق داریم مقدار مجهول انتظار ریاضی یک متغیر تصادفی را با میانگین حسابی به دست آمده از تعداد کافی آزمایش جایگزین کنیم. در این مورد، هرچه آزمایش‌های بیشتری محاسبه شود، احتمال (قابل اعتماد) بیشتر می‌توان انتظار داشت که خطای مربوط به این جایگزینی ( - آ) از مقدار داده شده تجاوز نخواهد کرد ε .

علاوه بر این، سایر مشکلات عملی قابل حل است. به عنوان مثال، با توجه به مقادیر احتمال (قابلیت اطمینان) آر=آر(| الف|< ε ) و حداکثر خطای مجاز ε تعداد آزمایش های مورد نیاز را تعیین کنید n; بر آرو پتعریف کردن ε; بر ε و پاحتمال یک رویداد را تعیین کنید | یک |< ε.

مورد خاص. اجازه دهید در nآزمایشات مشاهده شده nمقادیر یک متغیر تصادفی ایکس،داشتن انتظارات ریاضی م(ایکس) و پراکندگی D(ایکس). مقادیر به دست آمده را می توان به عنوان متغیرهای تصادفی در نظر گرفت ایکس 1 ,ایکس 2 ,ایکس 3 , ... ,X n,. باید به صورت زیر فهمید: یک سری از پآزمایشات به طور مکرر انجام می شود، بنابراین در نتیجه منآزمون ام، من= l، 2، 3، ...، پ، در هر سری از آزمایش ها یک یا مقدار دیگری از یک متغیر تصادفی ظاهر می شود ایکس، از قبل شناخته شده نیست. در نتیجه، منارزش -e x iمتغیر تصادفی به دست آمده در منآزمون هفتم، اگر از یک سری تست به سری دیگر حرکت کنید، به طور تصادفی تغییر می کند. بنابراین هر ارزش x iرا می توان تصادفی در نظر گرفت X i.


فرض کنید که آزمون ها شرایط زیر را برآورده می کنند:

1. آزمون ها مستقل هستند. این بدان معنی است که نتایج ایکس 1 , ایکس 2 ,
ایکس 3 , ..., X nآزمون ها متغیرهای تصادفی مستقل هستند.

2. آزمون ها در شرایط یکسان انجام می شوند - این بدان معنی است که از نقطه نظر نظریه احتمال، هر یک از متغیرهای تصادفی ایکس 1 ,ایکس 2 ,ایکس 3 , ... ,X nقانون توزیع برابر با مقدار اصلی دارد ایکس، از همین رو م(X i) = م(ایکس) و D(X i) = D(ایکس), من = 1, 2, .... پ.

با در نظر گرفتن شرایط فوق به دست می آوریم

آر(| الف| < ε )≥1 . (4.1.3)

مثال 4.1.1. ایکسبرابر 4 است. چند آزمایش مستقل مورد نیاز است تا با احتمال حداقل 0.9 بتوان انتظار داشت که میانگین حسابی این متغیر تصادفی با انتظارات ریاضی کمتر از 0.5 تفاوت داشته باشد؟

راه حل.با توجه به شرایط مشکل ε = 0,5; آر(| الف|< 0,5) 0.9. استفاده از فرمول (4.1.3) برای متغیر تصادفی ایکس، ما گرفتیم

پ(|–M(ایکس)| < ε ) ≥ 1 .

از رابطه

1 = 0,9

تعریف کردن

پ= = = 160.

پاسخ: انجام 160 آزمایش مستقل مورد نیاز است.

با فرض اینکه میانگین حسابی باشد به طور معمول توزیع می شود، دریافت می کنیم:

آر(| الف|< ε )= 2Φ () 0,9.

از کجا با استفاده از جدول تابع لاپلاس به دست می آوریم
1.645 یا 6.58 ≥ یعنی. n ≥49.

مثال 4.1.2.واریانس یک متغیر تصادفی ایکسبرابر است با D( ایکس) = 5. 100 آزمایش مستقل انجام شد که بر اساس آن . به جای مقدار ناشناخته انتظار ریاضی آپذیرفته شده . حداکثر مقدار خطای مجاز را در این مورد با احتمال حداقل 0.8 تعیین کنید.

راه حل.با توجه به وظیفه n= 100, آر(| الف|< ε ) ≥0.8. ما از فرمول (4.1.3) استفاده می کنیم.

آر(| الف|< ε ) ≥1 .

از رابطه

1 = 0,8

تعریف کردن ε :

ε 2 = = = 0,25.

در نتیجه، ε = 0,5.

پاسخ: حداکثر مقدار خطا ε = 0,5.

4.2. قانون اعداد بزرگ به شکل برنولی

اگرچه مفهوم احتمال مبنای هر استنتاج آماری است، اما ما فقط در موارد معدودی می‌توانیم احتمال یک رویداد را مستقیماً تعیین کنیم. گاهی اوقات می توان این احتمال را از ملاحظات تقارن، فرصت های برابر و غیره به دست آورد، اما هیچ روش جهانی وجود ندارد که به فرد امکان دهد احتمال آن را برای یک رویداد دلخواه نشان دهد. قضیه برنولی تقریب احتمال را ممکن می‌سازد اگر برای رویداد مورد علاقه ما ولیتست های مستقل مکرر می تواند انجام شود. اجازه دهید تولید شود پتست های مستقلی که در هر کدام از آنها احتمال وقوع یک رویداد وجود دارد ولیثابت و مساوی آر.

قضیه برنولی.با افزایش نامحدود در تعداد آزمایشات مستقل پفراوانی نسبی وقوع رویداد ولیدر احتمال به احتمال همگرا می شود پوقوع یک رویداد ولی، تی. ه.

پ(½ - پ½≤ ε) = 1، (4.2.1)

جایی که ε یک عدد مثبت دلخواه کوچک است.

برای فینال nبه شرطی که نابرابری چبیشف برای یک متغیر تصادفی به شکل زیر باشد:

پ(| –p|< ε ) 1 .(4.2.2)

اثباتما قضیه چبیشف را اعمال می کنیم. اجازه دهید X i- تعداد وقوع رویداد ولیکه در منآزمون ام، من= 1, 2, . . . , n. هر یک از مقادیر X iفقط می تواند دو مقدار بگیرد:

X i= 1 (رویداد ولیاتفاق افتاد) با احتمال پ,

X i= 0 (رویداد ولیاتفاق نیفتاد) با احتمال q= 1-پ.

اجازه دهید Y n= مجموع ایکس 1 + ایکس 2 + … + X nبرابر عدد است متررخدادهای رویداد ولیکه در nآزمایشات (0 متر n) یعنی Y n= - فراوانی نسبی وقوع رویداد ولیکه در nتست ها انتظارات و واریانس ریاضی X iبه ترتیب برابر هستند:

م( ) = 1∙پ + 0∙q = پ,

مثال 4.2.1.به منظور تعیین درصد محصولات معیوب، 1000 واحد بر اساس طرح نمونه گیری برگشتی مورد آزمایش قرار گرفتند. احتمال اینکه مقدار مطلق نرخ رد تعیین شده توسط این نمونه با نرخ رد برای کل دسته بیشتر از 0.01 تفاوت نداشته باشد چقدر است، اگر بدانیم که به طور متوسط ​​به ازای هر 10000 مورد، 500 مورد معیوب وجود دارد. ?

راه حل.با توجه به شرایط مشکل، تعداد آزمایشات مستقل n= 1000;

پ= = 0,05; q= 1 – پ= 0,95; ε = 0,01.

با استفاده از فرمول (4.2.2)، به دست می آوریم

پ(| p|< 0,01) 1 – = 1 – = 0,527.

پاسخ: با احتمال حداقل 0.527 می توان انتظار داشت که کسر نمونه عیوب (تکرار نسبی بروز عیوب) با سهم عیوب در همه محصولات (از احتمال نقص) بیش از 0.01 اختلاف داشته باشد. .

مثال 4.2.2.هنگام مهر زدن قطعات، احتمال ازدواج 0.05 است. چند قطعه باید بررسی شود تا با احتمال حداقل 0.95 بتوان انتظار داشت که فرکانس نسبی محصولات معیوب با احتمال نقص کمتر از 0.01 متفاوت باشد؟

راه حل.با توجه به وظیفه آر= 0,05; q= 0,95; ε = 0,01;

پ(| p|<0,01) 0,95.

از برابری 1 = 0.95 پیدا کنید n:

n= = =9500.

پاسخ: 9500 مورد نیاز به بررسی دارد.

اظهار نظر.تخمین تعداد مشاهدات لازم که با اعمال قضیه برنولی (یا چبیشف) به دست می‌آیند، بسیار اغراق‌آمیز هستند. تخمین‌های دقیق‌تری توسط برنشتاین و خینچین پیشنهاد شده‌اند، اما به یک دستگاه ریاضی پیچیده‌تر نیاز دارند. برای جلوگیری از اغراق در برآوردها، گاهی اوقات از فرمول لاپلاس استفاده می شود

پ(| p|< ε ) ≈ 2Φ .

عیب این فرمول عدم برآورد خطای مجاز است.



مقالات بخش اخیر:

تاریخ ها و رویدادهای جنگ بزرگ میهنی
تاریخ ها و رویدادهای جنگ بزرگ میهنی

در ساعت 4 صبح روز 22 ژوئن 1941، نیروهای آلمان نازی (5.5 میلیون نفر) از مرزهای اتحاد جماهیر شوروی عبور کردند، هواپیماهای آلمانی (5 هزار نفر) آغاز شدند ...

هر آنچه که باید در مورد منابع و واحدهای تشعشع بدانید
هر آنچه که باید در مورد منابع و واحدهای تشعشع بدانید

5. دوز تشعشع و واحدهای اندازه گیری اثر پرتوهای یونیزان فرآیند پیچیده ای است. اثر تابش بستگی به بزرگی ...

انسان دوستی، یا اگر از مردم متنفر باشم چه؟
انسان دوستی، یا اگر از مردم متنفر باشم چه؟

توصیه بد: چگونه انسان‌دوست شویم و با خوشحالی از همه متنفر باشیم. کسانی که اطمینان می‌دهند که مردم را باید بدون توجه به شرایط یا شرایط دوست داشت...