Теорія ймовірностей виникла і спершу розвивалася як прикладна дисципліна (зокрема, для розрахунків в азартних іграх). Пов'язана з іменами Х.Гюйґенса, Б.Паскаля, П.Ферма. Своїм теоретичним обґрунтуванням зобов'язана Я.Бернуллі, П.Лапласу, П. Л. Чебишову, А. М. Ляпунову.[4][5][6] Систему аксіом теорії ймовірностей сформулював А. М. Колмогоров.[7] Теорія ймовірностей є підґрунтям математичної статистики. Широко вживається для опису й вивчення різноманітних технологічних процесів зважаючи на їх стохастичність.
Історія
Виникнення теорії ймовірностей як науки відносять до середньовіччя і перших спроб математичного аналізу азартних ігор. Спочатку її основні поняття не мали строго математичного вигляду, до них можна було ставитися як до емпіричних фактів, властивостей реальних подій, і формулювалися вони в наочних уявленнях. Найперші наукові праці в галузі теорії ймовірностей належать до XVII століття. Досліджуючи прогнозування виграшу в азартних іграх, Блез Паскаль і П'єр Ферма відкрили перші ймовірнісні залежності, що виникають під час кидання гральних кубиків.
Вважають, що вперше Паскаль взявся за теорію ймовірностей під впливом питань, поставлених перед ним одним з придворних французького двору Шевальє де Мере (1607—1648), що був азартним гравцем, але гра для нього теж була приводом для досить глибоких роздумів. Де Мере запропонував Паскалю два відомі питання, перше з яких він спробував вирішити сам.
Питання були такими:[8]
1. Скільки разів треба кинути два гральних кубика, щоб випадків випадання відразу двох шісток було більше половини від загальної кількості кидків?
2. Як справедливо розділити поставлені двома гравцями гроші, якщо вони з якихось причин припинили гру передчасно?
Ці задачі обговорювалися в листуванні Б. Паскаля і П. Ферма (1601—1665) і послужили приводом для запровадження поняття математичного сподівання, і спроб формулювання основних теорем додавання й добутку ймовірностей. Під впливом поставлених і розглянутих питань вирішенням тих же задач зайнявся Християн Гюйгенс. Він не був знайомий із листуванням Паскаля та Ферма, тому методику розв'язку винайшов самостійно. Його працю, в якій запроваджено основні поняття теорії ймовірностей (поняття ймовірності як величини шансу; математичне сподівання для дискретних випадків, у вигляді ціни шансу), а також використані теореми додавання і множення ймовірностей (не сформульовані явно), було надруковано 1657 року, на двадцять років раніше листів Паскаля і Ферма (1679 рік).
Справжню наукову основу теорії ймовірностей заклав великий математик Якоб Бернуллі (1654—1705). Його праця «Мистецтво припущень»[en] стала першим ґрунтовним трактатом з теорії ймовірностей. Вона містила загальну теорію перестановок і поєднань. А сформульований Бернуллі закон великих чисел дав можливість встановити зв'язок між імовірністю будь-якої випадкової події та частотою її появи, яка спостерігається безпосередньо з досвіду. У першій половині XIX століття теорія ймовірностей починає застосовуватися до аналізу похибок спостережень; Лаплас і Пуассон довели перші граничні теореми. У другій половині XIX століття значний доробок зробили російські вчені: П. Л. Чебишов, А. А. Марков і О. М. Ляпунов. Тоді було доведено закон великих чисел, центральну граничну теорему, а також розроблено теорію ланцюгів Маркова. Сучасного вигляду теорія ймовірностей набула завдяки аксіоматизації, яку запропонував Андрій Миколайович Колмогоров.[9]
Значний внесок в теорію ймовірностей зробив українсько-російський математик, академік НАН України, директор Інституту математики НАН України, лауреат премії імені П. Чебишева Гнєденко Борис Володимирович. Йому вдалося довести в остаточному формулюванні локальну граничну теорему для незалежних, однаково розподілених гратчастих доданків (1948 р.). В Україні він почав дослідження непараметричних методів статистики, закінчив роботу над підручником «Курс теорії ймовірностей»[10] (перше видання — 1949 р.) і монографією «Граничні розподіли для сум незалежних випадкових величин».
Врешті-решт теорія ймовірностей набула чіткого математичного вигляду та остаточно стала сприйматися як один із розділів математики.
Основні положення
Під випробуванням мається на увазі здійснення запланованих дій і отримання результату за виконання певного комплексу умов S. При цьому припускається, що ці умови є фіксованими; вони або об'єктивно існують, або створюються штучно й можуть бути відтворені необмежену кількість разів.
Прикладами випробування: виготовлення деталі або виробу, кидання монети або грального кубика, розігрування лотереї, проведення аукціону.
Предметом дослідження теорії ймовірності є особливі залежності, притаманні результатам масових однорідних (для яких зберігається комплекс умов S) випробувань. При цьому досліджуються випробування, які характеризуються статистичною регулярністю, хоча наслідки випробувань у кожному випадку можуть бути різними.
Результатом випробування є подія. Події поділяються на: достовірні/правдиві (однозначно відбудуться) та неможливі, сумісні та несумісні, еквівалентні/тотожні та протилежні. Позначаються великими латинськими літерами, наприклад, А, B, С.
Поняття події краще розглядати в теоретико-множинному контексті.[кому?]
Приклад
Нехай події Ai, (i = 1, 2, 3, 4, 5, 6) полягають у тому, що при одному киданні грального кубика випало очок ; подія А — парна кількість очок. Тоді подія А є множиною подій, елементами якої є події A2, A4, A6, тобто A = {A2, A4, A6}. Якщо при реалізації такої сукупності умов S відбулася одна з подій A2, A4, A6, то це означає, що відбулася подія А (випала парна кількість очок). Отже події A2, A4, A6 є реалізаціями, проявами події А.
Класичне визначення:
Спочатку ймовірність події визначали як кількість випадків, у яких може трапитися подія, із загальної кількості можливих випадків у рівноймовірнісному просторі подій: див. класичне визначення ймовірності.
Наприклад, якщо подією є те, «що при киданні гральної кістки випаде парне число», то ймовірність становитиме , оскільки 3 грані з 6 мають нанесені на них парні числа, і кожна грань має однакову ймовірність випадання.
Сучасне визначення:
Сучасне визначення починається зі скінченної або зліченної множини, що називають простором елементарних подій, яка відповідає множині всіх можливих випадків у класичному розумінні, і яку позначають через . Тоді вважають, що кожному елементові відповідає істинне значення «ймовірності» , яке задовольняє наступним властивостям:
Таким чином, функція ймовірностей набуває значень між нулем та одиницею для кожного значення у просторі подій , а сума за всіма значеннями у просторі подій дорівнює 1. Випадкова подія визначається як будь-яка підмножина простору елементарних подій . Ймовірність події визначають як
Таким чином, ймовірність повного простору подій дорівнює 1, а ймовірність нульової події дорівнює 0.
Функцію , що відображає точку в просторі подій на значення «ймовірності», називають функцією маси ймовірності, скорочено ФМІ. Сучасне визначення не намагається дати відповідь, як отримувати функції маси імовірності; натомість, воно вибудовує теорію, яка передбачає їхнє існування.
Неперервна теорія ймовірностей вивчає випадки, що виникають у неперервному просторі подій.
Класичне визначення:
При стиканні з неперервним випадком класичне визначення не вибудовується. Див. парадокс Бертрана.
Сучасне визначення:
Якщо вихідний простір випадкової величини X є множиною дійсних чисел () або її підмножиною, то існує функція, що називають кумулятивною функцією розподілу ймовірностей (КФР) , і визначають як . Функція F(x) повертає значення ймовірності, що відповідає тому що величина X є меншою або рівною x.
КФР обов'язково задовольняє наступним властивостям:
Для множини ймовірність того, що значення випадкової величини X знаходиться в , дорівнює
У випадку існування функції густини це можливо записати як
В той час як ФГІ існує лише для неперервних випадкових величин, КФР існує для всіх випадкових величин (в тому числі й для дискретних), що набувають значень в
Ці поняття можливо узагальнити й для багатовимірних випадків у просторі та інших неперервних просторів подій.
У теорії ймовірності існують декілька різних визначень збіжності випадкових величин. Вони перераховані нижче у порядку своєї суворості, тобто, будь-яке наступне поняття збіжності означає виконання збіжності попередніх.
Слабка збіжність
Послідовність випадкових величин слабко збігається до випадкової величини якщо їх відповідні кумулятивні функції розподілу збігаються до кумулятивної функції розподілу величини , де є неперервною. Слабку збіжність також називають збіжністю за розподілом.
Найбільш поширена скорочена нотація:
Збіжність за ймовірністю
Говорять, що послідовність випадкових величин збігається до випадкової величини за ймовірністю якщо для кожної ε > 0.
Найбільш поширена скорочена нотація:
Сильна збіжність
Кажуть, що послідовність випадкових величин збігається до випадкової величини сильно якщо . Сильну збіжність також називають збіжністю за нормою або майже певною збіжністю.
Найбільш поширена скорочена нотація:
Як зрозуміло із назв слабка збіжність є менш строгою ніж сильна збіжність. По суті, сильна збіжність передбачає збіжність за імовірністю, а збіжність за імовірністю передбачає слабку збіжність. Обернене твердження не завжди буде мати місце.
Інтуїтивно можна передбачити, що якщо монету підкинути багато разів, тоді приблизно половину разів вона падатиме чіт до гори, а іншу половину разів до гори випаде лишка. Крім того, чим більше разів підкидати монети, тим ймовірніше співвідношення кількості випадіння чіт до кількості лишків буде наближатися до одиниці. Сучасна теорія ймовірності надає формальне визначення цієї інтуїтивної здогадки, що відоме як закон великих чисел. Цей закон є визначальним, оскільки він не є припущенням яке лежить в основі теорії ймовірностей, а є теоремою, що доведена із її аксіом. Оскільки він пов'язує теоретично виведені ймовірності на основі частоти їх фактичного виникнення при реальному спостереженні, закон великих чисел є одним із найважливішим в історії статистичної теорії і має широке застосування.[11]
Закон великих чисел стверджує, що вибіркове середнє
послідовності незалежних і однаково розподілених випадкових величин збігається до їх спільного сподівання , за умови що математичне сподівання є скінченним.
Різні форми збіжності випадкових величин визначають як наслідок дві форми закону великих чисел: слабкий і сильний
Слабкий закон: для
Сильний закон: для
Із закону великих чисел випливає, що навіть якщо ймовірність p є результатом спостережень за повторюваними незалежними експериментами, співвідношення частоти спостереження за цією подією до загальної кількості повторень експерименту буде збігатися до значення p.
Наприклад, якщо є незалежними випадковими величинами Бернуллі, що можуть приймати значення 1 із ймовірністю p і значення 0 із ймовірністю 1-p, тоді для всіх i, так що майже напевно збігається до p.
Центральна гранична теорема є одним із видатних результатів математики.[12] Вона пояснює всюдисуще існування нормального розподілу в природі.
Теорема стверджує, що середнє багатьох незалежних і однаково розподілених випадкових величин із скінченною дисперсією прямує до нормального розподілу незалежно від розподілу, якому слідує початкова випадкова величина. Формально, нехай є незалежними випадковими величинами із середнім та дисперсією Тоді послідовність випадкових величин
У теорії ймовірностей випадкову змінну вважають відомою.[13]
Ця особливість відрізняє предмет і методи теорії ймовірностей від предмету і методів математичної статистики, де випадкову змінну досліджують після одержання статистичного матеріалу.
↑Hald, Anders (2003). A History of Probability and Statistics and Their Applications before 1750. Hoboken, NJ: Wiley. ISBN 0-471-47129-1. (англ.)
↑Hald, Anders (1998). A History of Mathematical Statistics from 1750 to 1930. New York: Wiley. ISBN 0-471-17912-4. (англ.)
↑Гнєденко Б. В. Нарис з історії теорії ймовірностей // Курс теорії ймовірностей. — К.: Видавничо-поліграфічний центр «Київський університет», 2010. — 464с. С. 351—428.
↑Колмогоров, А. Н. «Основные понятия теории вероятностей», М.: Наука, 1974 (рос.)
↑Стройк Д. Я. Краткий очерк истории математики. — Изд. 3-е. — М.: Наука, 1984. — 285 с.
↑Колмогоров, А. Н. «Основные понятия теории вероятностей», М.: Наука, 1974 (рос.)
↑Гнєденко Б. В. Курс теорії ймовірностей. — К.: ВПЦ Київський університет, 2010. — 464 с.
Теорія ймовірностей, математична статистика та імовірнісні процеси: навч. посіб. / Ю. М. Слюсарчук, Й. Я. Хром'як, Л. Л. Джавала, В. М. Цимбал ; М-во освіти і науки України, Нац. ун-т «Львів. політехніка». — Львів: Вид-во Львів. політехніки, 2015. — 364 с. : іл. — Бібліогр.: с. 351 (10 назв). — ISBN 978-617-607-775-6
Сеньо П. С. Теорія ймовірностей та математична статистика. — 2-ге вид. — Київ: Знання, 2007. — 556 с.
Барковський В. В. Теорія ймовірностей та математична статистика. 5-те видання. — Київ: Центр учбової літератури, 2010. — 424 с.
Жлуктенко В. І. Теорія ймовірностей і математичниа статистика. У 2 ч. — Ч. І. Теорія ймовірностей. — К.: КНЕУ, 2000. — 304 с.
Жлуктенко В. І. Теорія ймовірностей і математичниа статистика. У 2 ч. — Ч. II. Математична статистика. — К.: КНЕУ, 2001. — 336 с.
Дороговцев А.Я Збірник задач з теорії ймовірностей. — К.: Вища школа, 1976. — 384 с.
Каленюк П. І. та ін. Теорія ймовірностей і математична статистика. — Львів: Видавництво Національного університету «Львівська політехніка», 2005. — 240 с.
Кармелюк Г. І. Теорія ймовірностей та математична статистика. Посібник з розвязання задач. — К.: Центр учбової літератури, 2007. — 576 с.
Теорія ймовірностей: розрахункова робота (Електронний ресурс [Архівовано 20 липня 2020 у Wayback Machine.]): навчальний посібник / уклад.: І. Ю. Каніовська, О. В. Стусь.– Київ: КПІ ім. Ігоря Сікорського, 2019. — 87 с.
Теорія ймовірностей і математична статистика: практикум для студентів / О. Б. Білоцерківський. — Харків: НТУ «ХПІ», 2018. — 170 с. [Архівовано 8 червня 2020 у Wayback Machine.] Електронний ресурс
Теорія ймовірностей та елементи математичної статистики/ Укл.: І. С. Пожуєва, Т. І. Левицька, Г. А. Шишканова. — Запоріжжя: ЗНТУ, 2005. — 67 с. [Архівовано 6 січня 2022 у Wayback Machine.] Електронний ресурс
В іншому мовному розділі є повніша стаття Probability theory(англ.). Ви можете допомогти, розширивши поточну статтю за допомогою перекладу з англійської.
Не перекладайте текст, який видається недостовірним або неякісним. Якщо можливо, перевірте текст за посиланнями, поданими в іншомовній статті.