Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
5 - Теорія ймовірності.doc
Скачиваний:
41
Добавлен:
10.02.2016
Размер:
371.2 Кб
Скачать

6. Інформацію для закріплення вихідних знань-вмінь можна знайти у посібниках:

  1. Жуматій П.Г. Сеницька Я.Р. Елементи вищої математики. Методичні вказівки для студентів медичного інститута. Одеса, 1981.

  2. Жуматій П.Г. “Основи інтегрального числення”. Одеса, 2009.

  3. Жуматій П.Г. “Математична обробка медико-біологічних даних. Задачі та приклади”. Одеса, 2009.

7. Зміст навчального матеріалу з даної теми з виділенням основних вузлових питань.

Теорія ймовірностей розвивалась як вивчення виходів (результатів) випробувань (експериментів, спостережень, масових обстежень).

Будь-який з можливих виходів випробувань називається подією.

Існують два типи зв'язків між умовами спостереження та його результатами:

• умови спостереження однозначно визначають його вихід - такі спостереження називають детермінованими та їх результат можна зазделегідь точно передбачати на основі відповідних законів;

• при одних і тих же умовах можуть відбуватись виключаючі одна одну події; такі події називають випадковими, проте масове повторення спостережень при цих умовах дає у середньому результат, який можна передбачити з достатньою точністю за допомогою статистичних закономірностей.

Описом статистичних закономірностей, їх вивченням та кiлькiсною оцінкою займається теорія ймовірностей.

Випадкову подію масового характеру можна охарактеризувати числом, підрахувавши його відносну частоту

,

- число реалізацій випадкової події у серії з випробувань.

Більш точною характеристикою є ймовірність випадкової події , яка визначається граничним переходом

.

Очевидно, що ймовірність може приймати значення в інтервалі

.

Границям цього інтервалу відповідають:

= 0 - подія А ніколи не відбувається, тому така подія називається неможливою,

= 1 - подія А відбувається завжди, тому така подія називається вірогідною.

Реалізація будь-яких випадкових подій може по-різному впливати на інші випадкові події, тому розрізнюють:

несумісні події, коли реалізація одних випад¬кових подій виключає наступ інших випадкових подій,

сумісні події, коли реалізація одних випадкових подій не виключає наступ інших випадкових подій.

Залежні події: подія B називається залежною від А, якщо ймовірність її реалізації залежить від того, сталась подія А або ні. При цьому для залежної події В вводиться поняття умовної ймовірності Р(В/А), під якою розуміють імовірність реалізації події В за умови, що подія А сталась.

Незалежні події: події незалежні, якщо Р(В/А) = Р(В), оскільки при цьому імовірність реалізації події В не залежить від появи А.

Систему несумісних подій називають повною, якщо при випробуванні обов'язково відбувається одна з цих подій.

Зрозуміло, що сума ймовірностей подій, складаючих повну систему, дорівнює 1, тобто

.

Для кiлькiсного опису результатів випробувань застосовують випадкові величини, які приймають значення, що змінюються від випробування до випробування та залежать від тих або інших обставин, що не піддаються урахуванню.

Розрізнюють:

дискретні випадкові величини, які набувають лише окремих, ізольованих значень (число викликів лікаря, число випадків захворювань),

неперервні випадкові величини, що набувають будь-які значення усередині деякого інтервалу (температура тіла хворого, тиск крові).

Випадкова величина Х вважається заданою, якщо відомо її розподіл (закон) - співвідношення між можливими значеннями випадкової величини та відповідними їм імовірностями.

Розподіл може бути задано у вигляді таблиці, у вигляді функції розподілу та у вигляді щільності розподілу.

Табличне зображення розподілу (його називають також рядом розподілу) може бути використано тільки для дискретної випадкової величини з кінцевим числом можливих значень ( i = 1, 2, 3, ..., n ) :

При графічному зображенні ряду розподілу у прямокутній системі координат будують точки (,) та з'єднують їх відрізками прямої. Отриману фігуру називають многокутником розподілу.

Всі можливі значення дискретної випадкової величини утворюють повну систему подій, отже,

.

Цю рівність називають умовою нормування.

Функція розподілу є найбільш загальною формою зображення закону випадкової величини та застосовується для задання як дискретних, так і неперервних випадкових величин:

= P ( X x ) .

Таким чином, функція розподілу визначає ймовірність того, що випадкова величина Х набуде будь-яке з своїх значень, що не пере­вершують деякого числа х.

Графіком функції розподілу дискретної випадкової величини є розривна ступінчаста ламана лінія, а неперервної випадкової величини - плавна неперервна лінія.

У багатьох випадках обмежуються числовими характеристиками випадкової величини. До них належать:

Міри положення центру розподілу:

математичне сподівання

,

що характеризує "середній" результат при великому числі випробувань,

медіана - значення випадкової величини, для якого функція розподілу дорівнює 0.5, тобто F() = 0.5 ,

мода - значення дискретної випадкової величини, що має найбільшу ймовірність.

2. Міри варіабельності значень випадкової величини:

дисперсія

,

стандартне відхилення

,

коефіцієнт варіації C.V.

,

що показують на скільки у середньому випадкова величина може відріз­нятись від свого математичного сподівання.

Непрервну випадкову величину задають функцією щільності розподілу ймовірностей , що дорівнює першій похідній від функції розподілу

.

Графік функції щільності розподілу ймовірностей називають кривою розподілу. Значення неперервної випадкової величини, при якому крива розподілу має максимум, зветься модою неперервної випадкової величини. Оскільки крива може мати не один максимум, то згідно з їх числом бувають двомодальні та многомодальні розподіли.

Умова нормування неперервної випадкової величини виражається формулою

.

Відзначимо, що функція розподілу виражається через за допомогою интеграла

.

Слід мати на увазі, що розмірність функції щільності розподілу ймовірностей зворотня розмірності випадкової величини х, а функція розподілу , як всяка ймовірність, безрозмірна величина.

Математичне сподівання та дисперсія неперервної випадкової величини обчислюють за формулами

,

.

Будь-які дві або більше випадкові величини, що вивчаються разом, створюють систему. Система може складатись з незалежних або залежних одна від одної випадкових величин.

Якщо кожному значенню однієї величини X по визначеному правилу ставиться у відповідність значення другої величини Y, то, як відомо, залежність між ними називається функціональною.

При цьому, якщо одна з величин випадкова, то і інша, залежача від неї, також є випадковою. Очевидно, що залежна випадкова величина приймає певне значення при певному значенні другої тільки тоді, коли на неї ніякі інші випадкові фактори не впливають. Таким чином, функціонально пов'язані випадкові величини X та Y можуть приймати різні значення, але, якщо X дістає будь-яке певне значення, то йому відповідатиме певне значення Y.

Якщо випадкова величина Y залежить не тільки від X, але й від інших випадкових факторів, то залежність Y від X вже є не функціональною, а, як її називають, кореляційною або стохастичною:

кореляційно пов'язані випадкові величини змінюють свої розподіли при зміненні значень будь-якої з них.

Іншими словами, кожному значенню будь-якої з випадкових величин, пов'язаних кореляційною залежністю, відповідає певний розподіл другої випадкової величини з новими значеннями числових характеристик математичного сподівання та дисперсії.

Поняття про кореляційну залежність розповсюджується також і на якiсні показники, за умови, що наявності одного з них відповідає визначена ймовірність наявності іншого.

Наприклад, вміст будь-якого гормона у крові залежить від великої кiлькості випадкових факторів, тому залежність цієї випадкової величини від будь-якого з них є кореляційною.

Для опису кореляційної залежності застосовують функції регресії, які визначають математичне сподівання однієї з випадкових величин для кожного значення другої випадкової величини.

Відповідні формули називають:

рівняння регресії Y на X

рівняння регресії X на Y

.

Функція регресії зображається графічно лінією регресії. Якщо обидві функції регресії лінійні, то лінії регресії є прямими та кореляційна залежність називається лінійною.

Стохастична залежность може бути більш-меньш тісною. Ступінь зв'язку між випадковими величинами характеризують:

коваріація (кореляційний момент)

коефіцієнт кореляції

.

Коефіцієнт кореляції приймає значення у межах

.

Необхідно пам'ятати, що при

=0 - лінійна кореляційна залежність між випадковими величинами X та Y відсутня, але це ще не відтак, що вони взагалі не залежать одна від одної (можлива нелінійна кореляційна залежність); прямі регресій паралельні осям координат та перпендикулярні одна одній.

>0 - із зростанням X випадкова величина Y збільшується.

=1 - випадкові величини X та Y пов'язані функціо­нальною залежністю; прямі регрессії зливаються у єдиний графік.

< 0 - із зростом X випадкова величина Y зменшується.

З коефіцієнтом кореляції пов'язані:

коефіцієнт регресії Y на X

,

коефіцієнт регресії X на Y

.

За допомогою цих коефіцієнтів записують:

рівняння лінійної регресії Y на X

,

рівняння лінійної регресії X на Y

.

• Коефіцієнт кореляції пов'язаний з та

.