
- •Конспект лекцій з курсу
- •Математичної статистики “ Розділ “теорія ймовірностей”.
- •Передмова
- •1.Основні поняття теорії ймовірностей
- •1.1. Випадкові події та їх алгебра
- •1.1.1. Первісні поняття. Подія
- •1.1.2. Алгебра випадкових подій.
- •1.2. Аксіоми та властивості ймовірності
- •1.2.1. Частота та ймовірність випадкової події
- •1.2.2. Аксіоми ймовірності та її властивості.
- •1.2.3. Принцип практичної вірогідності
- •1.3. Теорема множення та її наслідки
- •1.3.1. Умовна ймовірність
- •1.3.2. Формула повної ймовірності
- •1.3.3. Теорема гіпотез (формулиБейєса)
- •1.4. Випробування із скінченною кількістю наслідків
- •1.4.1. Класичне означення ймовірності
- •1.4.2. Комбінаторні методи підрахунку кількості наслідків
- •1.5. Повторні випробування
- •1.5.1. Схема я.Бернуллі. Узагальнення а.Маркова
- •1.5.2. Асимптотичні формули для схеми Бернуллі.
- •2.Випадкові величини
- •2.1. Одновимірні випадкові величини
- •2.1.1. Випадкова величина та її функція розподілу
- •2.1.2. Дискретні випадкові величини
- •2.1.3. Неперервні випадкові величини
- •2.1.4. Перетворення розподілів
- •2.2. Випадкові вектори
- •2.2.1. Функція розподілу випадкового вектора
- •2.2.2. Дискретний випадковий вектор
- •2.2.3. Неперервний випадковий вектор
- •2.2.4. Найважливіші види двовимірних розподілів.
- •2.2.5. Закон розподілу суми випадкових величин
- •2.2.6. Ентропія і інформація
- •3.Числові характеристики випадкових величин
- •3.1. Математичне сподівання та його властивості
- •3.1.1. Стійкість середнього арифметичного
- •3.1.2. Математичне сподівання випадкової величини
- •3.1.3. Математичне сподівання функції випадкової величини
- •3.1.4. Математичне сподівання функції випадкового вектора
- •3.1.5. Кореляційний момент випадкових величин
- •3.2. Дисперсія випадкової величини
- •3.2.1. Дисперсія випадкової величини та її властивості
- •3.2.2. Дисперсія суми випадкових величин
- •3.2.3. Нерівність п.Чебишева
- •3.3. Кореляція
- •3.3.1.Коефіцієнт кореляції та кореляційна матриця
- •3.3.2. Регресія
- •3.4. Прикладні задачі
- •3.4.1. Теорія масового обслуговування.
- •3.4.2. Найпростіші задачі теорії надійності
- •Додатки
- •Література
2.2.5. Закон розподілу суми випадкових величин
Теорема.Нехай випадкові величиниXтаYнезалежні та мають щільності ймовірностейpX(x) іpY(y). Тоді щільність ймовірності випадкової величиниZ=X+Yє згорткою щільностей ймовірності доданків
. (12)
Наслідки. 1) Якщо випадкові величини Xi незалежні і Xi N(ai;i2), то X1+...+Xn N(a1+...+an;12+...+n2 ).
2) Якщо випадкові величини Xi незалежні і розподілені за показниковим законом з параметром , то їх сума =X1+...+Xnрозподілена за законом Ерланга n–1-го порядку з параметром
. (13)
3) Сума двох незалежних випадкових величин, розподілених за законом Пуассона з параметрами 1і2, розподілена за законом Пуассона з параметром1+2.
Виняткова роль розподілу Гауса може бути пояснена таким чином: якими б не булизакони розподілу незалежних доданків, закон розподілу суми будеблизькимдо гаусевого, якщо вклади кожного з доданків у суму приблизно одинакові і число доданків достатньо велике. Так, наприклад, помилка вимірювання породжується спільною дією великого числа причин; розподіл цих помилок добре узгоджується з законом Гауса.
Точне формулювання приведеного вище твердження складає зміст знаменитої центральної граничної теореми, у розробці якої одну з головних ролей зіграв видатний математик професор Харківського університету академік О.М.Ляпунов. Виявилось, що основну умову цієї теореми – припущення про незалежність доданків – можна суттєво послабити. Цей напрямок бере початок від іншого видатного математика професора Харківського університету академіка С.Н.Бернштейна. Йому належить також і перша за часом аксіоматика теорії ймовірностей (1917р).
Приклад 1. Літак розраховано на чотирьох пасажирів або вантаж вагою не більше 360 кг. Припустимо, що вага пасажирів є випадковою величиною, розподіленою за законом ГаусаN(75 кг; 256 кг2). Як часто літак буде перевантаженим, якщо на борт береться чотири пасажири.
Розв’язок.Позначимо черезXi (i=1,...,4) вагуi-го пасажира. Оскільки випадкові величиниXiнезалежні, то на підставі наслідку 1) одержимо
X= X1+X2+X3+X4 N(300 кг; 1024 кг2).
Застосуємо формулу (10) розділу 2.1:
.
Таким чином, тільки в трьох рейсах із ста очікується перевантаження літака.
2.2.6. Ентропія і інформація
Нехай
– випадковий вектор.
Означення 1.Інформацією, яка міститься в координатіY по відношенню до координатиX, називається числоИ(X,Y), яке визначається формулою
Основні властивості інформації такі:
1) И(X,Y)=И(Y,X); 2)И(X,Y)0; 3)И(X,Y)=0X таY незалежні; 4)И(X,Y)И(X,X). Знак рівності можливий лише тоді, коли випадкові величиниX таY пов’язані функціональною залежністю.
Означення 2.Найбільша інформаціяИ(X,X) відносно координатиXназиваєтьсяентропієюH(X) випадкової величиниX
Ентропія H(X) показує, скільки потрібно в середньому двійкових знаків для запису можливих значень випадкової величиниX.
Ентропія є мірою невизначеності значення випадкової величини до проведення спостереження. Ентропія дорівнює нулю тоді і тільки тоді, коли ймовірність одного із значень дорівнює одиниці і, таким чином, невизначеність в інформації про випадкову величину відсутня. За одиницю вимірювання ступені невизначеності приймають невизначеність для випадкової величини, яка приймає лише два рівноймовірних значення. Ця одиниця вимірювання називається бітом (скорочення англійських слів binary digit=bit). Ентропія дискретної випадкової величини є максимальною, якщо всі її значення рівноймовірні:p1=p2=...= pn=1/n. А саме,
.
Можна показати, що інформація і ентропія пов’язані співвідношенням
И(X,Y)=H(X)+H(Y)–H(X,Y),
де величина H(X,Y),яка називається ентропією вектора
,
вираховується за формулою
.
Y X |
-1 |
0 |
1 |
-1 |
4/15 |
1/15 |
4/15 |
0 |
1/15 |
2/15 |
1/15 |
1 |
0 |
2/15 |
0 |
Розв’язок.Знайдемо суми по рядках і стовпчиках таблиці:
P{X= –1}=9/15, P{X=0}=4/15, P{X=1}=2/15,
P{Y= –1}=P{Y=0}=P{Y=1}=1/3.
1)
2)
;
;
.
Отже, И(X,Y)=1.34+1.58-2.57=0.35 біт, що співпадає з результатом, одержаним у пункті 1).