Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Metod_vkaz.doc
Скачиваний:
20
Добавлен:
05.05.2019
Размер:
1.21 Mб
Скачать

Щільність розподілу системи двох випадкових величин

Візьмемо прямокутник з нескінченно малою площею. Ймовірність попадання випадкової точки в прямокутник R дорівнює

F(x+x, y+y)-F(x, y+y)-F(x+x, y)+F(x, y).

у

y+y

y

y

x

x

0 x x+x

Границя відношення цієї ймовірності попадання в DR до площі прямокутника DR, коли площа прямує до нуля, називається щільністю розподілу системи двох випадкових величин.

Щільність розподілу системи позначимо через f(x, y)

f(x, y)=

=

f(x, y)=

Щільність розподілу системи двох випадкових величин дорівнює другій змішаній похідній функції розподілу системи f(x, y)0, тому що є границею відношення невід’ємних величин.

Геометрично щільність розподілу ймовірностей системи двох випадкових величин можна зобразити у вигляді поверхні, яка називається поверхнею розподілу

Ймовірність попадання точки (Х, Y) в прямокутник R буде приблизно дорівнювати об’єму прямокутного паралелепіпеда з основою R і висотою f(x1,y1), де (x1,y1) деяка точка з області R.

Ймовірність попадання випадкової точки в (X, Y) в довільну область D дорівнює P((X,Y)D)=

Якщо за область D взяти нескінченний квадрант з вершиною в точці (x, y), то ймовірність попадання в нього є функція розподілу F(x, y) системи двох випадкових величин.

F(x, y)=

Якщо верхні межі інтегралів прямують до , то тому що цей інтеграл дорівнює ймовірності попадання точки на всю площу xOy.

Залежні і незалежні випадкові величини

Випадкові величини Х, Y називаються незалежними, якщо закон розподілу однієї з них не залежить від того, яке значення прийняла друга величина.

Умова f(x, y)=f1(x)f2(y),

де – f1(x) – щільність розподілу випадкової величини Х;

f2(x) – щільність розподілу випадкової величини Y, є необхідною і достатньою умовою незалежності випадкових величин X, Y.

Ймовірністна залежність двох випадкових величин не співпадає з функціональною, тобто дві випадкові величини функціонально незалежні можуть бути залежні ймовірністно.

Приклад. Нехай Х – ріст дорослої людини, а Y – його вага. Функціональної залежності між випадковими величинами X, Y немає. Ймовірністна залежність є тому, що в загальному випадку люди більшого росту мають більшу вагу.

Числові характеристики системи двох випадкових величин

Н ехай X, Y дві випадкові величини системи (X, Y); mx i my – їх математичні сподівання; Dx i Dy – їх дисперсії.

y

(mx,my)

  1. x

Точка з координатами (mx,my) називається центром розсіювання.

Навколо цієї точки розкидані точки системи (X, Y). Дисперсія Dx характеризує степінь розсіювання точок системи відносно осі Ох; Dy – відносно осі Оy. Для того щоб дати характеристику степені залежності між випадковими величинами X i Y, вводять поняття кореляційного момента.

Кореляційним моментом Кx,y двох неперервних випадкових величин X i Y називається величина, що обчислюється за формулою:

Якщо X і Y дискретні випадкові величини, то де рі,j=P(X=xi; Y=yj).

Якщо випадкові величини X i Y незалежні, то кореляційний момент Кх,у=0.

Дійсно, оскільки випадкові величини незалежні, то

f(x, y)=f1(x)f2(y), тоді

=

Тут кожен з інтервалів в добутку є математичним сподіванням центрованої випадкової величини, а математичне сподівання центрованої величини дорівнює нулю.

З цієї властивості випливає, що якщо Кх,у0, то випадкові величини X і Y залежні.

Для оцінки степеня залежності між випадковими величинами часто використовуються відношення х,у= яке називають коефіцієнтом кореляції.

Якщо х,у0, то випадкові величини називаються корельованими.

Якщо х,у=0, то – некорельованими.

Якщо випадкові величини X і Y незалежні, то вони некорельовані.

Але з некорельованості випадкових величин не слідує їх незалежність.

словник Термінів, теорем та основних формул

    • Декілька подій називають несумісними в даному досліді, якщо жодні дві події не можуть відбутися разом. В другому прикладі події А1, А2, А3, А4, А5, А6 несумісні: події В і С також несумісні.

    • Події називаються рівноможливими, якщо за умовами симетрії можна вважати, що жодна з цих подій не є більш можливою, ніж інші. В другому прикладі А1, А2, А3, А4, А5, А6 рівноможливі.

    • Якщо події складають повну групу, несумісних і рівноможливих, то такі події називаються випадками (шансами).

    • Випадок називається сприятливим деякої події, якщо в результаті цього випадку відбувається і дана подія.

    • Перестановками з n елементів називаються упорядковані сукупності цих елементів.

    • Розміщеннями без повторень з n елементів по m називають сукупності по m елементів які відрізняються одна від одної або складом елементів, або їх порядком.

    • Комбінаціями з n елементів по m елементів називаються сукупності з m елементів, які відрізняються одна від одної хоча б одним елементом.

    • Добутком подій A і B називається така третя подія D, що полягає в появі обох подій А і B.

    • Дві події, що складають повну групу подій називаються протилежними.

    • Подія А називається незалежною від події В, якщо ймовірність події А не залежить від того, відбулася чи ні подія В і залежною, якщо ймовірність події А змінюється в залежності від того, що подія В відбулася.

    • Ймовірність події А, обчислена при умові, що подія В уже здійснилася Р(А/В) називається умовною ймовірністю події А.

    • Дві події називають сумісними, якщо поява однієї з них не виключає появи другої в одному і тому досліді.

    • Ймовірність Рm,n дорівнює коефіцієнтові при хm в розкладанні бінома (q+px)n за степенями х, тому ймовірності Рm,n (m=1, 2, ..., n) називаються біноміальним розподілом ймовірностей.

    • Випадковою величиною називається величина, яка в результаті досліду (експерименту) може приймати те чи інше числове значення, але тільки одне, причому до проведення досліду невідомо яке саме.

    • Дискретною випадковою величиною називається така величина, для якої число можливих значень є або скінчена множина, або нескінчена зчислена множина.

    • Неперервною випадковою величиною називається така величина, можливі значення якої неперервно заповнюють деякий інтервал числової осі.

    • Законом розподілу випадкової величини називають всяке співвідношення, що задає зв’язок між можливими значеннями випадкової величини і відповідними ймовірностями.

    • Функцією розподілу випадкової величини Х називається задання ймовірності того, що значення випадкової величини Х будуть менші ніж х:

F(x)=P(X<x)

    • Відношення називається середньою ймовірністю, що приходиться на одиницю довжини цієї ділянки.

    • Щільністю розподілу ймовірностей неперервної випадкової величини називають функцію

f(x)=F¢(x).

    • Математичним сподіванням М[X] випадкової величини називається число, що обчислюється за формулою:М[X]= , якщо Х дискретна величина

і за формулою М[X]= , якщо Х неперервна випадкова величина.

    • Дисперсію випадкової величини Х називається величина, яка обчислюється для дискретних випадкових величин за формулою

D[X]= ,

а для неперервних – за формулою

D[X]= .

    • Функцією розподілу F(x, y) двох випадкових величин називають ймовірність того, що випадкова величина Х буде менше ніж х і випадкова величина Y буде менше ніж y.

F(x, y)=P(X<x, Y<y)

    • Випадкові величини Х, Y називаються незалежними, якщо закон розподілу однієї з них не залежить від того, яке значення прийняла друга величина.

    • Кореляційним моментом Кx,y двох неперервних випадкових величин X i Y називається величина, що обчислюється за формулою:

– Якщо X і Y дискретні випадкові величини, то де рі,j=P(X=xi; Y=yj).

      • Якщо випадкові величини X i Y незалежні, то кореляційний момент Кх,у=0.

Теореми

  • Теорема додавання ймовірностей. Ймовірність суми двох несумісних подій дорівнює сумі ймовірностей цих подій.

Р(А+В) = Р(А)+Р(В)

  • Теорема множення ймовірностей. Подія А називається незалежною від події В, якщо ймовірність події А не залежить від того, відбулася чи ні подія В і залежною, якщо ймовірність події А змінюється в залежності від того, що подія В відбулася.

  • теорема множення ймовірностей. Ймовірність добутку двох подій дорівнює добутку ймовірності однієї з цих подій на умовну ймовірність другої, при умові, що перша відбулася.

Р(АВ)=Р(А)Р(В/А)=Р(В)Р(А/В).

  • ТЕОРЕМА ДОДАВАННЯ СУМІСНИХ ПОДІЙ. Ймовірність суми двох сумісних подій дорівнює сумі ймовірностей цих подій без ймовірності їх добутку

Р(А+В)=Р(А)+Р(В)-Р(АВ).

  • Локальна теорема Лапласа. Якщо ймовірність р появи події А в кожному досліді стала і не дорівнює 0 і 1, то ймовірність Рm,n того, що подія А з’явиться m раз в n дослідах, приблизно дорівнює значенню функції y= при x= .

  • Інтегральна теорема Лапласа. Якщо ймовірність р настання події А у кожному досліді стала і не дорівнює 0 і 1, то ймовірність того, що подія А появиться в n дослідах від k1 до k2 раз, приблизно дорівнює інтегралу

, де .

  • ТЕОРЕМА ПУАССОНА. Якщо число дослідів n®¥ і ймовірність події в одному досліді р®0 так, що np=l, о<l<¥, то Рm,n= при будь-якому m=0, 1, …, n.

Основні формули

  • Обчислення числа перестановок з n елементів

Qn=n! (n= ).

  • Обчислення числа розміщень без повторень з n елементів по m

R = .

  • Обчислення числа комбінацій з n елементів по m елементів

C = .

  • Формула суми двох подій А і В

C = A + B.

  • Формула суми n подій

С= А1+ А2+ ...+Аn.

  • Формула добутку подій А і В

D=A·B.

  • Формула добутку n подій

D = А1+ А2+ ...+Аn.

  • Формула ймовірності попадання в заданий інтервал [,)

Р(Х<b)=

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]