- •Теорія ймовірності та математична статистика історія виникнення та розвитку теорії ймовірностей
- •Основні поняття теорії ймовірностей
- •Перестановки, розміщення, комбінації
- •Геометрична ймовірність
- •Сума і добуток подій
- •Теорема додавання ймовірностей
- •Теорема множення ймовірностей
- •Теорема додавання сумісних подій
- •Формула повної ймовірності
- •Формула Байєса
- •Послідовності незалежних випробувань
- •Локальна теорема лапласа
- •Інтегральна теорема Лапласа
- •Формула Пуассона (теорема Пуассона)
- •Випадкова величина
- •Закон розподілу ймовірностей дискретної випадкової величини
- •Функція розподілу випадкової величини
- •Властивості функції розподілу:
- •Щільність розподілу випадкової величини
- •Властивості функції щільності розподілу:
- •Числові характеристики випадкової величини
- •Властивості математичного сподівання:
- •Властивості дисперсії:
- •Розподіл Пуассона
- •Рівномірний розподіл
- •Нормальний розподіл
- •Система випадкових величин
- •Функція розподілу двох випадкових величин
- •Властивості функції розподілу:
- •Щільність розподілу системи двох випадкових величин
- •Залежні і незалежні випадкові величини
- •Числові характеристики системи двох випадкових величин
Щільність розподілу системи двох випадкових величин
Візьмемо прямокутник з нескінченно малою площею. Ймовірність попадання випадкової точки в прямокутник R дорівнює
F(x+x, y+y)-F(x, y+y)-F(x+x, y)+F(x, y).
у
y+y
y
y
x
x
0 x x+x
Границя відношення цієї ймовірності попадання в DR до площі прямокутника DR, коли площа прямує до нуля, називається щільністю розподілу системи двох випадкових величин.
Щільність розподілу системи позначимо через f(x, y)
f(x, y)=
=
f(x, y)=
Щільність розподілу системи двох випадкових величин дорівнює другій змішаній похідній функції розподілу системи f(x, y)0, тому що є границею відношення невід’ємних величин.
Геометрично щільність розподілу ймовірностей системи двох випадкових величин можна зобразити у вигляді поверхні, яка називається поверхнею розподілу
Ймовірність попадання точки (Х, Y) в прямокутник R буде приблизно дорівнювати об’єму прямокутного паралелепіпеда з основою R і висотою f(x1,y1), де (x1,y1) деяка точка з області R.
Ймовірність попадання випадкової точки в (X, Y) в довільну область D дорівнює P((X,Y)D)=
Якщо за область D взяти нескінченний квадрант з вершиною в точці (x, y), то ймовірність попадання в нього є функція розподілу F(x, y) системи двох випадкових величин.
F(x, y)=
Якщо верхні межі інтегралів прямують до , то тому що цей інтеграл дорівнює ймовірності попадання точки на всю площу xOy.
Залежні і незалежні випадкові величини
Випадкові величини Х, Y називаються незалежними, якщо закон розподілу однієї з них не залежить від того, яке значення прийняла друга величина.
Умова f(x, y)=f1(x)f2(y),
де – f1(x) – щільність розподілу випадкової величини Х;
f2(x) – щільність розподілу випадкової величини Y, є необхідною і достатньою умовою незалежності випадкових величин X, Y.
Ймовірністна залежність двох випадкових величин не співпадає з функціональною, тобто дві випадкові величини функціонально незалежні можуть бути залежні ймовірністно.
Приклад. Нехай Х – ріст дорослої людини, а Y – його вага. Функціональної залежності між випадковими величинами X, Y немає. Ймовірністна залежність є тому, що в загальному випадку люди більшого росту мають більшу вагу.
Числові характеристики системи двох випадкових величин
Н ехай X, Y дві випадкові величини системи (X, Y); mx i my – їх математичні сподівання; Dx i Dy – їх дисперсії.
y
(mx,my)
x
Точка з координатами (mx,my) називається центром розсіювання.
Навколо цієї точки розкидані точки системи (X, Y). Дисперсія Dx характеризує степінь розсіювання точок системи відносно осі Ох; Dy – відносно осі Оy. Для того щоб дати характеристику степені залежності між випадковими величинами X i Y, вводять поняття кореляційного момента.
Кореляційним моментом Кx,y двох неперервних випадкових величин X i Y називається величина, що обчислюється за формулою:
– Якщо X і Y дискретні випадкові величини, то де рі,j=P(X=xi; Y=yj).
– Якщо випадкові величини X i Y незалежні, то кореляційний момент Кх,у=0.
Дійсно, оскільки випадкові величини незалежні, то
f(x, y)=f1(x)f2(y), тоді
=
Тут кожен з інтервалів в добутку є математичним сподіванням центрованої випадкової величини, а математичне сподівання центрованої величини дорівнює нулю.
З цієї властивості випливає, що якщо Кх,у0, то випадкові величини X і Y залежні.
Для оцінки степеня залежності між випадковими величинами часто використовуються відношення х,у= яке називають коефіцієнтом кореляції.
Якщо х,у0, то випадкові величини називаються корельованими.
Якщо х,у=0, то – некорельованими.
Якщо випадкові величини X і Y незалежні, то вони некорельовані.
Але з некорельованості випадкових величин не слідує їх незалежність.
словник Термінів, теорем та основних формул
Декілька подій називають несумісними в даному досліді, якщо жодні дві події не можуть відбутися разом. В другому прикладі події А1, А2, А3, А4, А5, А6 несумісні: події В і С також несумісні.
Події називаються рівноможливими, якщо за умовами симетрії можна вважати, що жодна з цих подій не є більш можливою, ніж інші. В другому прикладі А1, А2, А3, А4, А5, А6 рівноможливі.
Якщо події складають повну групу, несумісних і рівноможливих, то такі події називаються випадками (шансами).
Випадок називається сприятливим деякої події, якщо в результаті цього випадку відбувається і дана подія.
Перестановками з n елементів називаються упорядковані сукупності цих елементів.
Розміщеннями без повторень з n елементів по m називають сукупності по m елементів які відрізняються одна від одної або складом елементів, або їх порядком.
Комбінаціями з n елементів по m елементів називаються сукупності з m елементів, які відрізняються одна від одної хоча б одним елементом.
Добутком подій A і B називається така третя подія D, що полягає в появі обох подій А і B.
Дві події, що складають повну групу подій називаються протилежними.
Подія А називається незалежною від події В, якщо ймовірність події А не залежить від того, відбулася чи ні подія В і залежною, якщо ймовірність події А змінюється в залежності від того, що подія В відбулася.
Ймовірність події А, обчислена при умові, що подія В уже здійснилася Р(А/В) називається умовною ймовірністю події А.
Дві події називають сумісними, якщо поява однієї з них не виключає появи другої в одному і тому досліді.
Ймовірність Рm,n дорівнює коефіцієнтові при хm в розкладанні бінома (q+px)n за степенями х, тому ймовірності Рm,n (m=1, 2, ..., n) називаються біноміальним розподілом ймовірностей.
Випадковою величиною називається величина, яка в результаті досліду (експерименту) може приймати те чи інше числове значення, але тільки одне, причому до проведення досліду невідомо яке саме.
Дискретною випадковою величиною називається така величина, для якої число можливих значень є або скінчена множина, або нескінчена зчислена множина.
Неперервною випадковою величиною називається така величина, можливі значення якої неперервно заповнюють деякий інтервал числової осі.
Законом розподілу випадкової величини називають всяке співвідношення, що задає зв’язок між можливими значеннями випадкової величини і відповідними ймовірностями.
Функцією розподілу випадкової величини Х називається задання ймовірності того, що значення випадкової величини Х будуть менші ніж х:
F(x)=P(X<x)
Відношення називається середньою ймовірністю, що приходиться на одиницю довжини цієї ділянки.
Щільністю розподілу ймовірностей неперервної випадкової величини називають функцію
f(x)=F¢(x).
Математичним сподіванням М[X] випадкової величини називається число, що обчислюється за формулою:М[X]= , якщо Х дискретна величина
і за формулою М[X]= , якщо Х неперервна випадкова величина.
Дисперсію випадкової величини Х називається величина, яка обчислюється для дискретних випадкових величин за формулою
D[X]= ,
а для неперервних – за формулою
D[X]= .
Функцією розподілу F(x, y) двох випадкових величин називають ймовірність того, що випадкова величина Х буде менше ніж х і випадкова величина Y буде менше ніж y.
F(x, y)=P(X<x, Y<y)
Випадкові величини Х, Y називаються незалежними, якщо закон розподілу однієї з них не залежить від того, яке значення прийняла друга величина.
Кореляційним моментом Кx,y двох неперервних випадкових величин X i Y називається величина, що обчислюється за формулою:
– Якщо X і Y дискретні випадкові величини, то де рі,j=P(X=xi; Y=yj).
Якщо випадкові величини X i Y незалежні, то кореляційний момент Кх,у=0.
Теореми
Теорема додавання ймовірностей. Ймовірність суми двох несумісних подій дорівнює сумі ймовірностей цих подій.
Р(А+В) = Р(А)+Р(В)
Теорема множення ймовірностей. Подія А називається незалежною від події В, якщо ймовірність події А не залежить від того, відбулася чи ні подія В і залежною, якщо ймовірність події А змінюється в залежності від того, що подія В відбулася.
теорема множення ймовірностей. Ймовірність добутку двох подій дорівнює добутку ймовірності однієї з цих подій на умовну ймовірність другої, при умові, що перша відбулася.
Р(АВ)=Р(А)Р(В/А)=Р(В)Р(А/В).
ТЕОРЕМА ДОДАВАННЯ СУМІСНИХ ПОДІЙ. Ймовірність суми двох сумісних подій дорівнює сумі ймовірностей цих подій без ймовірності їх добутку
Р(А+В)=Р(А)+Р(В)-Р(АВ).
Локальна теорема Лапласа. Якщо ймовірність р появи події А в кожному досліді стала і не дорівнює 0 і 1, то ймовірність Рm,n того, що подія А з’явиться m раз в n дослідах, приблизно дорівнює значенню функції y= при x= .
Інтегральна теорема Лапласа. Якщо ймовірність р настання події А у кожному досліді стала і не дорівнює 0 і 1, то ймовірність того, що подія А появиться в n дослідах від k1 до k2 раз, приблизно дорівнює інтегралу
, де .
ТЕОРЕМА ПУАССОНА. Якщо число дослідів n®¥ і ймовірність події в одному досліді р®0 так, що np=l, о<l<¥, то Рm,n= при будь-якому m=0, 1, …, n.
Основні формули
Обчислення числа перестановок з n елементів
Qn=n! (n= ).
Обчислення числа розміщень без повторень з n елементів по m
R = .
Обчислення числа комбінацій з n елементів по m елементів
C = .
Формула суми двох подій А і В
C = A + B.
Формула суми n подій
С= А1+ А2+ ...+Аn.
Формула добутку подій А і В
D=A·B.
Формула добутку n подій
D = А1+ А2+ ...+Аn.
Формула ймовірності попадання в заданий інтервал [,)
Р(a£Х<b)=