Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекції з БНТП.docx
Скачиваний:
1
Добавлен:
01.05.2025
Размер:
500.84 Кб
Скачать

Література до теми

1. ДСТУ 2470-94. Надійність техніки. Системи технологічні. Терміни та визначення.

2. ДСТУ ISO 9000-2001. Системи управління якістю. Основні положення та словник. – К.: Держстандарт України, 2001. – 26 с.

3. Голубенко А.Л. Теория технических систем: учебное пособие / Голубенко А.Л., Петров А.С., Кашура А.Л. – К.: Арістей, 2005. – 240 с.

4. Надежность и эффективность в технике: Справочник: В 10 тт. Т.1. Методология. Организация. Терминология / [под ред. А.И.Рембезы]. – М.: Машиностроение, 1986. – 224 с.

5. Половинкин А.И. Основы инженерного творчества / А.И. Половинкин. – М.: Машиностроение, 1988. – 368 с.

Тема 2. Елементи теорії ймовірностей та математичної статистики

__________________________________________________________

Основні програмні питання теми. Поняття події. Види подій: вірогідні, неможливі, достовірні, випадкові, незалежні, рівноможливі, несумісні, сумісні. Континуум. Теорія ймовірностей та її предмет. Стохастичний процес. Стохастичний експеримент. Простір елементарних подій. Основні визначення алгебри випадкових подій. Класичне визначення ймовірності. Частотність події. Основні властивості ймовірності. Основні теореми теорії ймовірностей. Теореми додавання та множення ймовірностей. Формула повної ймовірності. Формула Бейеса. Повторення випробувань. Формула Бернуллі. Формула Муавра-Лапласа. Інтегральна теорема Лапласа. Сутність однорідного ланцюга Маркова. Дискретні та неперервні випадкові величини. Закон розподілу дискретної випадкові величини (ДВВ). Інтегральна та диференціальна функції розподілу ДВВ. Властивості інтегральної функції. Закони розподілу ДВВ: біноміальний, розподіл Пуассона. Закони розподілу неперервної випадкової величини (НВВ): рівномірний розподіл, показниковий (експоненціальний) розподіл, нормальний розподіл. Основні параметри теоретичного нормального розподілу. Числові характеристики інших законів розподілу.

Вибірковий метод. Генеральна та вибіркова сукупність. Статистичний (емпіричний) розподіл вибірки. Емпірична функція розподілу. Полігон частот, гістограма. Точкові статистичні оцінки (ТСО) параметрів розподілу. Інтервальні статистичні оцінки параметрів розподілу. Елементи теорії кореляційного та регресійного аналізу. Рівняння регресії. Моделі лінійної та нелінійної регресії. Коефіцієнти кореляції.

Статистична перевірка статистичних гіпотез. Закон великих чисел. Теорема Чебишева.

__________________________________________________________________

Предметом теорії ймовірностей є вивчення кількісних закономірностей, які спостерігаються в масових однорідних випадкових подіях. Знання вказаних закономірностей дає можливість передбачити їх подальший розвиток. У зв’язку з цим методи теорії ймовірностей широко використовують у технічних дисциплінах, зокрема в безпеці та надійності технологічних процесів у гірничому виробництві. Окрім цього, теорія ймовірностей є теоретичною базою для математичної статистики.

Вивчення технологічних (виробничих) процесів часто зумовлює потребу проводити певні експерименти та спостерігати за їх наслідками. Такі експерименти називають випробуваннями, а їх наслідки – подіями.

Подія – все те, що може відбутися при здійсненні певного комплексу умов.

Події поділяються на три види:

1) вірогідна подія – подія, яка в разі виконання певної сукупності умов обов’язково відбудеться;

2) неможлива подія – подія, яка в разі виконання певної сукупності умов обов’язково не відбудеться;

3) випадкова подія – подія, яка в разі виконання певної сукупності умов може відбудеться або не відбутися.

Предметом теорії ймовірностей є вивчення кількісних закономірностей, які спостерігаються в масових однорідних випадкових подіях (рус. “cлучайных событий”). Випадковий, імовірнисний – стохастичний (від гр. stochasis – здогадка). Звідси маємо терміни “стохастичний процес”, “випадковий процес”.

Стохастичним експериментом називається експеримент, результат якого неможливо точно передбачити наперед. Вся сукупність можливих результатів експерименту – простір елементарних подій . Елементарна подія i, i  [1, k] – подія, що не може бути розкладена на більш прості. Очевидно

= 1,2, 3, …, к. (2.1)

Основні визначення алгебри випадкових подій:

1. Подія А є наслідком події В (АВ), якщо подія А обов’язково відбувається, коли відбувається подія В. Множина А більша множини В.

2. Якщо подія А є наслідком події В, а подія В є наслідком події А, то ці події збігаються. Множина А дорівнює множині В.

3. Подія, зміст якої полягає в тому, що подія А не відбулася, називається подією, протилежною до А і позначається

або  А. (2.2)

Іншими словами, дві несумісні події, які утворюють повну групу, називають протилежними.

4. Якщо подія А не містить жодної з елементарних подій простору цього стохастичного експерименту, – вона називається неможливою, позначатимемо її . Протилежною до неможливої є достовірна подія , і навпаки:

= , =  . (2.3)

5. Події називають сумісними, якщо поява однієї з них не виключає можливості появи інших подій ( не обов’язково одночасно). Наприклад, події: А1 – перший студент знає навчальний матеріал, А2 – другий студент знає навчальний матеріал. Події А1 , А2 будуть сумісними випадковими подіями.

6. Подія С, яка відбувається тоді і лише тоді, коли відбувається і подія А, і подія В, називається добутком подій А і В. У цьому випадку використовується позначення: С = А В або тотожне позначення:

С = АВ. (2.4)

Очевидно множина С складається зі спільних елементарних подій А і В. Наприклад, заняття (подія С) відбувається тоді, коли присутні студенти (подія А) і присутній викладач (подія В).

7. Події називають несумісними, якщо поява однієї з них виключає появу інших подій в одному і тому ж випробуванні. Наприклад, події: А – студент знає навчальний матеріал, В – студент не знає навчальний матеріал. Вказані події несумісні тому, що студент не може одночасно знати і не знати матеріал. Значить, події А і В називаються несумісними, якщо одночасне їх настання неможливе, тобто коли вони обидва не можуть бути істинні. Вказане формалізується так

А В = . (2.5)

8.Подія С називається сумою подій А і В, якщо зміст події С полягає в настанні або події А, або події В. Позначення:

С = А + В або С = АВ . (2.6)

Наприклад, нагрів тіла (подія С ) пов'язаний зі зовнішнім його опроміненням (подія А ) або зі внутрішніми радіоактивними процесами, щ відбуваються у тілі (подія В).

9.Подія С, зміст якої полягає в тому, що подія А відбувалася, а подія В – ні, називається різницею подій А і В. Позначення:

С = А \ В . (2.7)

Наприклад, отримання теоретичних знань (подія С) пов’язана з розумовою роботою на комп’ютері (подія А ) і фізичною роботою натисканням на клавіатурі (подія В).

10. Випадкові події А1, А2, А3, …, Аn утворюють повну групу подій, якщо внаслідок випробування хоча б одна з них з’явиться обов’язково. Іншими словами, повною групою подій називається така сукупність подій, сума яких утворює весь простір елементарних подій даного експерименту. Очевидно,

P (А1, А2, А3, …, Аn) = 1. (2.8)

11.Події називаються рівноможливими, якщо немає причин стверджувати, що будь-яка з них можливіша за інші.

12.Елементарними наслідками називають такі події, які неможливо розділити на більш прості. Множину всіх можливих елементарних наслідків називають простором елементарних наслідків. Простір елементарних наслідків може містити скінченну, злічену або незлічену множину елементів.

13.Незалежними подіями називаються такі події, коли ймовірність настання довільної з них не залежить від того, відбулася інша подія чи ні.

Класичне визначення ймовірності: імовірність події А дорівнює відношенню числа елементарних наслідків, які сприяють появі події А, до загального числа всіх єдиноможливих та рівноможливих елементарних наслідків. Це записується так:

P (А) = m / n, (2.9)

де m – число елементарних наслідків, які сприяють появі події А (число елементарних результатів випробування, що сприяє появі події А);

n – число всіх єдиноможливих та рівноможливих елементарних наслідків (загальне число можливих елементарних результатів випробування).

Зазначимо, що ймовірність P (А) події А обчислюється до випробування. Після випробування обчислюється частотність події або відносна частота події W (А) – відношення числа випробувань, у яких подія А з’явилася, до загального числа фактично виконаних випробувань:

W (А) = m / n, (2.10)

де m – кількість випробувань, у яких з’явилася подія А,

n – число всіх випробувань.

Очевидно, частотність має властивість стійкості: при великій кількості випробувань частотність змінюється дуже мало, коливаючись біля деякого постійного числа – імовірності появи цієї події, тобто

P (А) = lim W (А), при п   . (2.11)

Основні властивості ймовірності:

1. Якщо подія А достовірна, то її ймовірність дорівнює одиниці, тобто P (А) = 1, де m = n.

2. Якщо подія А неможлива, то її ймовірність дорівнює нулю, тобто P (А) = 0. де m = 0.

3. Якщо подія А випадкова, то її ймовірність задовольняє співвідношення 0  P (А)  1, де 0  m  n.

Зазначимо, що випадкова подія лежить в інтервалі (0, 1), вірогідна (достовірна) подія відповідає рівності P (А) = 1, а неможлива подія – P (А) = 0. У загальному випадку події лежать в замкненому інтервалі [0, 1], який називається континуумом.

Розглянемо основні теореми теорії ймовірностей.

1. Теореми додавання ймовірностей:

1.1) імовірність появи одного із двох несумісних подій, байдуже якого, дорівнює сумі ймовірностей цих подій:

P (А + В)  АВ = P (А) + P (В); (2.12)

1.2) імовірність появи хоча б одного із двох сумісних подій дорівнює сумі ймовірностей цих подій без імовірності їх сумісної появи:

P (А + В) = P (А) + P (В) – P (А В) , де P (А В)  АВ. (2.13)

2. Теореми множення ймовірностей:

2.1) імовірність сумісної появи двох незалежних подій (ймовірність настання довільної з них не залежить від того, відбулася інша подія чи ні) дорівнює добутку ймовірностей цих подій:

P (АВ) = P (А)  P (В); (2.14)

2.2) імовірність сумісної появи двох залежних подій дорівнює добутку ймовірності однієї з подій на умовну ймовірність другої події:

P (АВ) = P (А)  PА (В) або P (АВ) = P (В)  PВ (А). (2.15)

Для двох незалежних подій А1 і А2, імовірності яких відповідно рівні p1 і p2 , можна знайти ймовірність появи тільки одного з вказаних подій за формулою:

p (В1 + В2) = p1 q2+ p2 q1 , (2.16)

де p1= P (А1), p2= P (А2), q1= P ( А1), q2= P ( А2), В1 = А1 А2, В2 = А1А2. Можна довести, що для двох причинно-наслідкових подій (А В) виконується нерівність: P (В)  P (А).

Якщо події А1, А2, …, Аn незалежні в сукупності, причому

P (А1) = p1, P (А2) = p2, …, P (Аn) = pn .

Тоді ймовірність настання події А, яке полягає в появі хоча б одного із подій А1, А2, …, Аn незалежних в сукупності, дорівнює різниці між одиницею і добутком імовірностей протилежних подій q1= P ( А1), q2= P ( А2),…, qn = P ( Аn), а саме :

P (А) = 1 – q1q2 qn . (2.17)

Якщо всі n подій мають однакову ймовірність, рівну p, то ймовірність появи хоча б одного з цих подій:

P (А) = 1 – qn, де q = 1 – p. (2.18)

Нехай несумісні події (гіпотези) В1, В2, …, Вn утворюють повну групу подій, тобто

P (В1) + P (В2) +…+ P (Вn) = 1. (2.19)

Тоді ймовірність події А, яка може наступити лише при появі одного із несумісних подій В1, В2, …, Вn дорівнює сумі добутків імовірностей кожної з подій на відповідну умовну ймовірність події А – це формула повної ймовірності :

P (А) = P (В1)  PВ1 (А) + P (В2)  PВ2 (А) + + P (Вn)  PВn (А) (2.20)

Як наслідок цієї формули розглядається подія А, яка може наступити за умови появи одного із несумісних подій (гіпотез) В1, В2, …, Вn , які утворюють повну групу подій. Якщо подія А вже відбулася, то ймовірності гіпотез можуть бути переоцінені за формулою Бейеса:

PА (Вi) = (P (Вi)  PВi (А) ) / P (А). (2.21)

Висвітлимо елементи теорії повторення випробувань. Розглянемо послідовність незалежних однотипних випробувань, при яких імовірність появи події А в кожному випробуванні не залежить від результатів інших випробувань. Це так звані незалежні випробування відносно події А.

Розглянемо незалежні випробування, в результаті кожного з яких наступає або успіх, або невдача, імовірності яких постійні та відомі p – імовірність успіху, q = 1 – p – імовірність невдачі. Тоді ймовірність того, що в n незалежних випробувань, в кожному з яких імовірність появи події рівна p (0 p  1), визначається за формулою Бернуллі:

Pn(k) =  pk  qn-k , (2.22)

де комбінація = n! / (k!(n – k)!) .

Локальна теорема Лапласа: імовірність того, що в n незалежних випробувань, в кожному з яких імовірність появи події рівна p, подія наступає рівно k раз (байдуже в якій послідовності), приблизно визначається за формулою Муавра-Лапласа:

Pn(k) =  (x) / , (2.23)

де парна функція  (x) = , x = (k – np) / має табличні значення, а кількість випробувань велика (n  100).

Інтегральна теорема Лапласа: імовірність того, що в n незалежних випробувань, в кожному з яких імовірність появи події рівна p, подія наступає не менше k1 разів і не більше k2 разів, приблизно рівна

Pn(k1; k2)= (x1) – (x2) , (2.24)

де функція

(x) = , (2.25)

називається функцією Лапласа, а аргументи x1 і x2 відповідно рівні:

x1 = (k1 – np) / , x2= (k2 – np) / . (2.26)

Таблиця функції Лапласа  (x) наведена для 0  x  5. Для x > 5 покладають  (x) = 0,5, а для від’ємних значень враховують нечіткість функції Лапласа, тобто  (–x) = –  (x).

Оцінювання абсолютної величини відхилення відносної частоти появи події від імовірності появи цієї події можна за формулою:

P 2 . (2.27)

Найімовірніше значення k0 настання події визначається за формулою:

np – q  k0  np + p. (2.28)

Розглянемо залежні випробування, в яких на довільному кроці s імовірність настання певної події залежить лише від результату попереднього s – 1 кроку, але не залежить від тих, що були раніше, та від номера кроку s. Така послідовність називається однорідним ланцюгом Маркова, який може бути скінченним чи нескінченним. Зручно вважати подію як певний стан системи i, i  [1, N], де число станів системи N може бути скінченним чи нескінченним. Тоді ймовірність переходу pij системи зі стану i в стан j, за умови, що перебування в стані i безпосередньо передує перебуванню в стані j, є умовною ймовірністю:

pij = P (j i ). (2.29)

Набір коефіцієнтів pij (i=1,2,…,N) утворює матрицю переходу  =  pij за один крок. Елементи матриці невід’ємні, а сума елементів кожного рядка дорівнює одиниці (див. детально [6]).

Випадкова величина – величина X, яка в результаті випробування набуває одне (певне) значення з можливих, яке наперед невідоме, бо залежить від випадкових причин, що не можуть бути враховані. Випадкові величини поділяються на дискретні та неперервні.

Дискретна випадкова величина (ДВВ) – випадкова величина X, як а набуває лише певні (конкретні) можливі значення, які входять в скінченну або в зчисленну множину, з певними ймовірностями.

Неперервна випадкова величина (НВВ) – випадкова величина X, яка набуває довільні значення з певного скінченного або нескінченного проміжку. Кількість можливих значень НВВ – нескінченна.

Закон розподілу ДВВ X – перелік її можливих значень x1, x2, …, xn та відповідних їм імовірностей p1, p2, …, pn, де події, що розглядаються утворюють повну групу. Вказаний закон задається у вигляді таблиці, або графіка, або аналітично (формулою) P (X=xi) =  (xi), або за допомогою інтегральної функції.

Інтегральна функція розподілу (теоретична функція розподілу) неперервної випадкової величини X – функція F(x), яка визначає для довільного x ймовірність P того, що випадкова величина X набуде значень, менших за x (що лежать лівіше від точки x на числовій осі), тобто

F(x) = P (X  x). (2.30)

Властивості інтегральної функції:

а) 0  F(x)  1;

б) функція F(x) неспадна, тобто F(x2)  F(x1) , якщо x2  x1;

в) P (а X в) = F(в) – F(а);

г) P (X = x1) = 0;

д) якщо всі можливі значення випадкової величини X належать інтервалу (а, в), то F(x) = 0 при x  а і F(x) = 1 при x  в;

е) для x(-, ) справедливі граничні співвідношення lim F(x) = 0, при x  -, lim F(x) = 1, при x  .

НВВ можна задавати не тільки інтегральною функцією, а й диференціальною функцією розподілу (густиною ймовірностей) – першою похідною від інтегральної функції

f (x) = (2.31)

Імовірність того, що НВВ X набуде значення, які належать інтервалу (а, в) визначається рівністю

P (а X в) = . (2.32)

Знаючи диференціальну функцію f (x), можна знайти інтегральну функцію за формулою

F(x) = . (2.33)

Властивості диференціальної функції :

а) f (x)  0;

б) = 1;

в) якщо всі можливі значення X належать інтервалу (а, в), то маємо:

= 1.

Розглянемо закони розподілу дискретної випадкової величини X.

А. Біноміальний розподіл ДВВ X, тобто числа появи події в n незалежних випробуваннях, в кожному з яких імовірність появи події дорівнює p, а ймовірність можливого значення X = k (числа k появи події в n незалежних випробуваннях) обчислюють за формулою Бернуллі (2.22).

За умови, коли число випробувань n велике (n 100), а ймовірність появи події p в кожному випробуванні дуже мала (p  0; 0 n  p 10) то користуються наближеною формулою

Pn(k) = ( ) / k! , (2.34)

де  – середнє число появи події в n випробуваннях (= n  p = const).

Б. Розподіл Пуассона визначає імовірність появи k подій за проміжок часу t, тобто є математичною моделлю найпростішого потоку подій. Потік подій – послідовність подій, які наступають у випадкові моменти часу. Пуассонівський потік має такі три властивості:

1) стаціонарність – імовірність появи k подій за проміжок часу t є функція, яка залежить тільки від k і t, але не залежить від початку відліку часу;

2) відсутність післядії – імовірність появи k-ої події за будь-який проміжок часу t не залежить від того, з’являлися або не з’являлися події в моменти часу, які передували початку даного проміжку (передісторія потоку не впливає на ймовірність появи подій в найближчим майбутнім);

3) ординарність – поява двох або більш подій за малий проміжок часу практично неможливий.

Імовірність появи k подій простішого потоку за проміжок часу t визначається формулою Пуассона:

Pt(k) = (t)k / k! , (2.35)

де  – інтенсивність потоку (середнє число подій, які з’являються в одиницю часу). Розглянемо закони розподілу неперервної випадкової величини (НВВ) X.

А. Рівномірний розподіл – розподіл імовірностей НВВ X, якщо на інтервалі (а, в), якому належать всі можливі значення X, диференціальна функція зберігає постійне значення, а саме

f (x) = = const, (2.36)

а зовні цього інтервалу, тобто для x  а і для x  в, маємо f (x) = 0. Інтегральна функція рівномірного розподілу має вигляд:

F(x) = 0, при x  а ;

F(x) = (x – a) / (b – a) при а < x  b; (2.37)

F(x) = 1 при x > b.

Б. Показниковий (експоненціальний) розподіл – розподіл імовірностей НВВ X, яке описується диференціальною функцією

f (x) = (2.38)

де  – постійна додатна величина.

Інтегральна функція показникового розподілу має вигляд:

F(x) = (2.39)

Імовірність попадання в в інтервал (а, в) неперервної випадкової величини X, розподіленої за показниковим законом

P (а X в) = . (2.40)

В. Нормальний розподіл – розподіл імовірностей НВВ X, якщо диференціальна функція має вигляд

f (x) = , (2.41)

де а – математичне сподівання; – середнє квадратичне відхилення випадкової величини X.

Якщо нормальний розподіл має параметри а = 0 та =1, то маємо нормалізований нормальний розподіл:

f (x) = 1/  exp (– x2/2) . (2.42)

Імовірність того, що X прийме значення, що належить інтервалу ( ) визначається співвідношенням

P , (2.43)

де  (x) = – функція Лапласа.

Імовірність того, що абсолютна величина відхилення менше додатнього числа 0 така

P . (2.44)

Покладемо / = t, тоді будемо мати

P . (2.45)

Співвідношення (2.45) означає, що значення подвоєної функції Лапласа при заданому t визначає ймовірність того, що відхилення (X – a) нормально розподіленої випадкової величини X за абсолютною величиною буде менше t . Зокрема, при а = 0 слушна рівність

P . (2.46)

Наведемо графік нормальної (гауссової) кривої, отриманої у праці [10].

Рис.2.1. Гістограма (1) і нормальна крива (2), що побудована за

Розглянемо числові характеристики випадкових величин або основні параметри теоретичного розподілу.

Нехай xi ,i – можливі значення ДВВ, pi – відповідні їм імовірності, тоді характеристикою середнього значення випадкової величини X служить математичне сподівання (генеральна середня):

m  M (X) = . (2.47)

Властивості математичного сподівання:

а) M (С) = С, де С = const;

б) M (X1 + X2+…+ Xn) = M (X1) + M (X2) + …+ M (Xn);

в) M (X1  X2  … Xn) = M (X1)  M (X2) … M (Xn).

Математичне сподівання біноміального розподілу:

M (X) = n  p, (2.48)

де n – число випробувань, p – імовірність появи події в одному випробуванні.

Для НВВ X  (-, ) або X  [а, в ], диференціальна функція якої f (x), маємо відповідно:

M (X) = f(x) dx; (2.49)

M (X) = f(x) dx. (2.50)

Можна довести, що для неперервної випадкової величини X, заданої диференціальною функцією f (x)  0 на відрізку [а, в] (зовні відрізку f (x) = 0) виконується

а  M (X)  в. (2.51)

Генеральна дисперсія (розсіяння, розкид) Dг неперервної випадкової величини X – це математичне сподівання квадрату відхилення:

Dг  D (X) = M [X – M (X)]2  M (X2) – [M (X)]2 ; D (X) =

= (x – M (X))2f (x) dx  x2f (x) dx – [M (X)]2 .

Таким чином, маємо

D (X) = [x – M (X)]2 f (x) dx, (2.52)

де можливі значення X  (–, ) або X  (а, в).

Властивості дисперсії для довільних незалежних випадкових величин, позначених як X і Y:

а) D (X)  0;

б) D (С) = 0;

в) D (СX) = С2D (X);

г) D (X Y) = D (X) + D (Y).

Розмірність (Dim) дисперсії D (X) дорівнює квадрату розмірності випадкової величини X. Дійсно, якщо X – випадкова сила F, то Dim X  Dim F = Н (Ньютон), то D (X) має розмірність

Dim D (X) = Dim M [X – M (X)]2 = Н2.

Ось чому уводиться поняття – середнє квадратичне відхилення

 (X) = , (2.53)

де 2 = Dг.

Теоретичний початковий момент порядку k випадкової величини X – це математичне сподівання величини Xk:

k = M (Xk). (2.54)

Зокрема, початковий момент першого порядку

1 = M (X). (2.55)

Центральний момент порядку k випадкової величини X – це математичне сподівання величини: [X – M (X)]k , тобто:

k = M [ X – M (X)]k. (2.56)

Зокрема, центральний момент першого порядку для

1 = M [ X – M (X)] = 0. (2.57)

Центральний момент другого порядку:

2 = M [ X – M (X)]2 = D (X), (2.58)

де 2 = 2 .

Зокрема, для НВВ:

k = xk f (x) dx ; (2.59)

k = (x – M (X))k f (x) dx . (2.60)

Наведемо інші характеристики НВВ X:

Мода Мo(X) можливе значення x0  X, якому відповідає max диференціальної функції f (x).

Медіана Мd(X) – те можливе значення xe  X, яке визначається рівністю:

P (X < Мe(X)) = P (X > Мe(X)). (2.61)

Іншими словами, медіана тлумачиться як точка xe, в якій ордината f (xе) поділяє наполовину площу, яка обмежена кривою розподілу.

Наведемо числові характеристики деяких законів розподілу (більш детально і глибоко про це та інше є в [12]).

А. Рівномірний розподіл f (x) = 1/(в – а), X (а, в):

M (X) = (а + в) / 2; (2.62)

D (X) = (в – а)2 / 12; (2.63)

 (X) = (в – а) / 2 . (2.64)

Б. Розподіл Лапласа f (x) = 0,5 exp , X (-, ):

M (X) = 0. (2.65)

В. Показниковий розподіл f (x) = exp (x), x 0:

M (X) = 1/ ; (2.66)

D (X) = 1/ 2; (2.67)

 (X) = 1/ . (2.68)

Г. Біноміальний розподіл Pn(k) = pk qn-k :

M (K) = Pn(k) = np; D (K) = n  p  q. (2.69)

Д. Розподіл Пуассона Pn(k) = ( ) / k! , = np = const, де  –параметр розподілу:

M (K) = D (K) = . (2.70)

Е. Нормальний розподіл N (m, 2) f (x) = 1/( ) exp ,

де  (X) = , D (X) = 2. M (X) = m. Значення аргументу x = m відповідає max функції f (x) – густини ймовірностей.

Очевидно, при x = m похідна = 0, при x  m похідна  0, при x  m похідна  0, таким чином, точка x = m є точкою максимуму. За визначенням моди М0(X) = m. Симетричність графіку функції f (x) відносно прямої x = m дозволяє стверджувати, що медіана Мe(X) = m. Таким чином, мода і медіана нормального розподілу співпадають з математичним сподіванням:

M (X) = М0(X) = Мe(X) = m. (2.71)

Нормалізований розподіл буде при параметрах m = 0 та  =1 і має вигляд:

N (0, 1)  f (x) = 1/( )  exp (– x2/2). (2.72)

Розглянемо елементи математичної статистики, в основі якої є вибірковий метод.

Вибірковий метод – проблематика, пов’язана з відбором одиниць вибірки, обчисленням характеристик вибірки та отримання статистичних висновків про сукупність об’єктів, з якої ця вибірка взята. Вказана сукупність об’єктів є генеральною сукупністю (ГС).

Основна мета вибірки – здійснити статистичні висновки про характеристики ГС. Вид вибірки залежить від характеру послідовності процедур (способу, алгоритму) відбору одиниць вибірки (елементів ГС). Розрізняють випадкову, систематичну, районовану, ступеневу, множинну та ін. вибірки [11].

Отже, вибірка (вибіркова сукупність) – сукупність випадково відібраних із ГС елементів (об’єктів) для дослідження її якісної чи кількісної ознаки. Обсяг вибірки n – це кількість елементів (об’єктів). Очевидно, що в загальному випадку n  nг, де nг – обсяг ГС. Основна вимога до вибірки – вона повинна бути репрезентативною, тобто правильно відображати ті властивості ГС, що вивчаються.

З метою вивчення кількісної дискретної ознаки X із ГС була відібрана (добута) вибірка xi, i обсягу n. Спостерігаючі (вимірювані) значення xi ознаки X називаються варіантами, а послідовність варіант, записаних в зростаючому порядку, – варіаційним рядом.

Математична модель об’єкту реальності, яка задана у вигляді переліку варіант xi (x1, x2,…,xk) варіаційного ряду та відповідних їм частот ni (n1, n2,…,nk) або відносних частот i = ni / n називається статистичним (емпіричним) розподілом вибірки (СРВ). Очевидно, що частота – кількість варіант:

= n, . (2.73)

СРВ можна задати також у вигляді послідовності інтервалів і відповідних їм часто. Зазначимо, що частота інтервалу – сума частот варіант, які попали в цей інтервал. У даному випадку середини інтервалів приймаються як варіанти.

Статистичні розподіли в залежності від даних, що отримані за певною шкалою, поділяються на [12]: варіаційні (шкала відношень або інтервалів), ранжирувані (порядкові чи рангові шкали), атрибутивні (номінальна шкала).

Емпіричною функцією розподілу дискретного варіаційного ряду (функцією розподілу вибірки, статистичної інтегральної функції розподілу) називають функцію F*(x), що визначає для кожного значення x відносну частоту події X  x, тобто

F*(x) = nx / n, (2.74)

де nx – число варіант, менших x; n – обсяг вибірки.

Функція F*(x) за властивостями аналогічна інтегральній (теоретичній) функції розподілу випадкової величини F(x) = P (X  x), а саме:

а) 0  F*(x)  1;

б) F*(x) є функція неспадна;

в) F*(x) = 0, якщо x менше за найменшу варіанту;

г) F*(x) = 1, якщо x більше за найбільшу варіанту.

Побудова графіка F*(x) служить для оцінки теоретичної функції розподілу F(x), тобто функції розподілу генеральної сукупності. Для дискретного розподілу ознаки X будують полігон частот – ломану криву, відрізки якої з’єднують точки (xi, ni), i , а для неперервного розподілу ознаки X будують гістограму – фігура у вигляді сходинки, яка складається з прямокутників, основами яких служать часткові інтервали довжини h, а висоти рівні відношенню ni / h (густина частоти).

Розглянемо точкові статистичні оцінки параметрів розподілу (міри центральної тенденції).

Точкові статистичні оцінки (ТСО) – статистичні оцінки (показники), які визначаються одним числом. Зазначимо, що статистичні числові характеристики (параметри), які описують ГС це m, 2, V та ін.

ТСО є характеристиками, які базуються на емпіричних моделях: вибіркова середня, вибіркова дисперсія тощо. Вказані емпіричні моделі є певним наближенням до теоретичних моделей, які описують закономірності ГС (математичне сподівання m, дисперсія 2 тощо).

Наявність чималої статистичної інформації дає можливість отримати стійку статистичну оцінку або статистику

(x1, x2,…, xk). (2.75)

Отримана статистика дозволяє мати вірогідні репрезентативні висновки.

Закон розподілу статистики в загальному випадку залежить від класу закону розподілу випадкової величини X, параметрів цього закону, а також від повноти наших знань про гіпотетичний закон розподілу. Статистику можна розглядати як випадкову величину, яка характеризується числовими характеристиками – початковими та центральними емпіричними моментами (вибіркове середнє, дисперсія, асиметрія, ексцес та ін.). Ці характеристики є статистичними точковими оцінками невідомих параметрів теоретичного розподілу

Ψ = Ψ (X, Θ1, Θ2, …,Θp), (2.76)

де X – дискретна або неперервна випадкова величина. Якщо вказані статистичні оцінки мають властивості обґрунтованості (слушності), незміщеності й ефективності, то вони приймаються як приблизні оцінки основних параметрів теоретичного розподілу [10].

ТСО поділяють на дві групи:

1) незміщені (незсунені) – точкові оцінки, математичне сподівання яких дорівнює оцінюваному параметру при будь-якому обсягу вибірки;

2) зміщені (зсунені) – точкові оцінки, математичне сподівання яких не дорівнює оцінюваному параметру [7].

Незміщеною оцінкою математичного сподівання (генеральної середньої) m служить вибіркова середня (статистична середня):

, (2.77)

де xi – варіанта вибірки; ni – частота варіанти xi , n = – обсяг вибірки. Якщо ni =1, то вибіркова середня співпадає з середнім арифметичним .

Зміщеною оцінкою генеральної дисперсії Dг служить вибіркова дисперсія

Dв = . (2.78)

Зміщення визначається співвідношенням:

M [Dв] = (n – 1) / n  Dг . (2.79)

Незміщена оцінка s2 генеральної дисперсії Dгвиправлена вибіркова дисперсія з поправкою Бесселя-Шеппарда n/(n – 1), тобто:

s2 = n / (n – 1)  Dв , (2.80)

де  = n –1 – число ступенів вільності.

Стандартне відхилення вибірки (вибірковий стандарт) визначається як

s = . (2.81)

На практиці часто для швидкого оцінювання характеристики розсіювання випадкової величини X використовують наслідок “правила трьох сигм”:

P (m –3 < X < m +3) = 2  (3) = 0,9973, (2.82)

а саме :

s  (xmax – xmin) / 6 . (2.83)

Обчислення на практиці вибіркових середніх і дисперсії за вищенаведеними формулами раціонально також для рівновіддалених варіантів, наприклад для розподілу xi : 12, 14, 16, 18…; ni: 5, 15, 50, 16…. Проте існують розподіли вибірки з нерівновіддаленими варіантами (наприклад, розподіл xi : 2, 3, 7, 9…; ni: 3, 5, 10, 6…). Тоді інтервал, в якому містяться всі варіанти вибірки, поділяють на декілька рівних, довжини h, часткових інтервалів, кожний з яких повинен містити не менше 8-10 варіант. Потім знаходять середини часткових інтервалів, які й утворюють послідовність рівновіддалених варіантів. Як частота кожної середини інтервалу приймають суму частот варіант, які попали у відповідний частковий інтервал. Далі обчислюють , Dв , s2 . Для зменшення помилки, що викликана групуванням (особливо при малому числі інтервалів), виконують поправку Шеппарда, за якою дисперсія обчислюється за формулою:

= Dв – h2/12. (2.84)

Рекомендуємо студентам самостійно опрацювати методи добутків і сум обчислення , Dв , s2 [7].

Варіаційний розмах – це різниця між максимальним і мінімальним значеннями варіант вибіркової сукупності

R = xmax – xmin (2.85)

Коефіцієнт варіації V використовується у разі порівняльної оцінки різноякісних вибіркових середніх і визначається як відношення стандартного відхилення до вибіркового середнього:

V = s /  100 % . (2.86)

Мода Мo – це найбільш представницьке значення вибірки, яке найчастіше трапляється серед емпіричних даних або значення з найбільшою частотою (nм = max). На графіку розподілу мода – це варіанта з максимальною частотою.

Медіана Мd – це значення, яке приходиться на середину упорядкованої послідовності емпіричних даних, причому для непарної кількості даних медіана визначається середнім елементом Мd = x (k+1) / 2 , а для парної – визначається середнім значенням центральних сусідніх елементів: Мd = (xk/2 + xk+1/2) / 2; P (X < Мd) = P (X > Мd) = 0,5.

Нормальний теоретичний розподіл N(m, 2) є “ідеальний”, тобто симетричний відносно середнього значення, а також є не загострений і не згладжений. Емпіричні функції розподілу, які репрезентують ГС, є несиметричні відносно його середнього (асиметрія Аx) і мають відносну опуклість або згладженість розподілу вибірки порівняно з нормальним розподілом (ексцес Еx):

Аx = (1/ ns3)  ; (2.87)

Еx = (1/ ns4)  . (2.88)

На практиці розрахунок значень Аx і Еx, а також побудова відповідних графіків здійснюється за допомогою спеціальних комп’ютерних прикладних програм ( MS Excel, STATISTICA, Mathematica, Maple, Mathcad, MATLAB, Derive, Macsyma тощо) [2; 3].

Розглянемо інтервальні статистичні оцінки (ІСО) параметрів розподілу. ІСО – статистичні оцінки (показники), які визначаються двома числами – кінцями інтервалу, який покриває оцінюваний параметр. Зазначимо, що роль коефіцієнта довірчих границь розглянутого інтервалу відіграє квантиль, тобто таке значення аргументу інтегральної функції випадкової величини X, якому зі заданою ймовірністю відповідає виконання умови

, (2.89)

де густина ймовірності. Іншими словами, квантиль – значення ранжируваної змінної, що відокремлює від варіаційного ряду певну частку обсягу сукупності.

Використовують такі квантилі: процентилі або персентилі (ділять упорядковану сукупність на 100 частин), децилі (ділять на 10 частин), квінтилі (ділять на 5 частин), квартилі (ділять на 4 частини).

Для оцінювання математичного сподівання m нормально розподіленої кількісної ознаки X за вибірковою середньою при відомому середньому квадратичному відхиленні  генеральної сукупності служить довірчий інтервал – інтервал, який з заданою надійністю  покриває оцінюваний параметр:

, (2.90)

де = – точність оцінки; n – обсяг вибірки; квантиль нормального розподілу, тобто таке табульоване значення аргументу функції Лапласа  (t), при якій  (t) =  / 2; довірча ймовірність (вірогідність, надійність), яка репрезентується стандартизованим рядом  = 0,9; 0,95; 0,99; 0,999; ступені вільності ( = n – 1); порядок квантиля.

У випадку відносно малих обсягів ( ) вибірки , та при невідомому значенню , оцінювання математичного сподівання m здійснюється через вибірковий стандарт s в межах мікростатистики, в основу якої покладена інтервальна оцінка:

, (2.91)

де – точність оцінки; квантиль го порядку розподілу Стьюдента з ступенями вільності, значення якого є результатом табулювання, тобто знаходження значень певної функції за допомогою стандартної статистичної таблиці. Довірчий інтервал із заданою надійністю покриває оцінюваний параметр m.

Для оцінювання середнього квадратичного відхилення  нормально розподіленої кількісної ознаки X з надійністю  за виправленим вибірковим середнім квадратичним відхиленням s служать довірчі інтервали:

s (1 – q) <  < s (1 + q), при q < 1, (2.92)

та 0 <  < s (1 + q), при q > 1. (2.93)

Висвітлимо елементи теорії кореляційного та регресійного аналізу. Як показано в [11], зміна випадкової величини Y може бути пов’язано з дією “власних” випадкових факторів величини Y, а також стохастичного фактору, пов’язаного з наявністю причинно-наслідкового зв’язку між Y і змінами значень іншої випадкової величини X. Дві випадкові величини X і Y пов’язані стохастичним зв’язком, якщо зі змінами значень однієї випадкової величини змінюється закон розподілу іншої величини. Такі закони розподілу однієї випадкової величини, обчислені при фіксованих значеннях іншої, називаються умовними законами розподілу.

Очевидно дві випадкові величини X і Y можуть бути зв’язані як позитивним зв’язком (професійна компетентність викладачів вузу X і якість знань студентів Y), так і негативним зв’язком (час профілактичних робіт на технічній системі X та число відмов на наступному етапі експлуатації Y).

Формалізація наявності стохастичного зв’язку між X і Y, як ознака їх залежності, подається нерівністю:

D (X +Y)  D (X) + D (Y). (2.94)

Стохастичний зв’язок між X і Y (розподіл змінної Y як результат змін X) є найбільш загальний в природі, суспільстві та техносфері. Частинним випадком стохастичного зв’язку є кореляційний зв'язок – це статистична залежність між випадковими величинами X і Y, яка носить імовірнісний “м’який” характер (від лат. correlatio – співвідношення). І нарешті, окремим випадком кореляційної залежності є строга кореляція – функціональна залежність, яка визначає значення змінної Y від X однозначно. Це“жорстка” залежність величин, яка формалізується у вигляді функції. Як приклад можна навести функцію y = f (x) = 2x2 + 7.

Кількісна міра кореляційного зв’язку оцінюється за значеннями коефіцієнта кореляції rxy  [–1, 1]. На діаграмі розсіяння емпіричних значень взаємозв’язку змінних X і Y [12, с. 57] можливе зображення як сильного кореляційного зв’язку між X і Y (rxy  1) у вигляді вузької продовгуватої смуги, так і відсутність кореляційного зв’язку між X і Y (rxy = 0) у вигляді емпіричних значень, які обмежені колом. Рівність нулю коефіцієнта кореляції означає, що випадкові величини X і Y не корельовані, проте в загальному випадку вони можуть виявитися залежними.

Залежно від типів вимірювальних шкал, використовують різні коефіцієнти кореляції, зокрема:

а) коефіцієнти Чупрова, Пірсона, Юла (номінальна шкала);

б) коефіцієнти Спірмена, Кендалла, конкордації W (порядкова і рангова шкали);

в) коефіцієнт Пірсона (шкала інтервальна та шкала відношень).

Детальне висвітлення цих питань є в [11; 12].

Якщо випадкові величини X і Y являють собою систему (X, Y) з нормальним законом розподілу, то можна отримати рівняння регресії. Термін “регресія”(від лат. regression – рух назад) увів у 1886 році Ф.Гальтон в сенсі “прямування до посередності”.

Рівняння регресії – рівняння, яке встановлює залежність між математичним сподіванням m однієї випадкової величини Y і можливими значеннями іншої величини X. Іншими словами, регресія дозволяє за величиною однієї ознаки (змінна X) знаходити середні (очікувані) значення іншої ознаки (змінна Y), зв’язаної з X кореляційно.

Вираз Y = f (X) має назву рівняння регресії, а f (X) – функція регресії, їхні графіки – лінії регресії.

Подамо рівняння регресії більш детально. Умовне математичне сподівання випадкової величини Y в функції від значень випадкової величини X виражається рівнянням регресії Y на X :

my/x f (x) = my +xy  y / x  (x – mx), (2.95)

де my і mx – математичне сподівання випадкових величин Y і X; y і x – середнє квадратичне відхилення випадкових величин Y і X; xy – коефіцієнт кореляції моделі нелінійної регресії, який має вигляд

xy= . (2.96)

Графік регресії зображується кривою лінією. Наприклад, у випадку параболічної кореляції другого порядку вибіркове рівняння регресії Y на X має вигляд :

. (2.97)

У моделі нелінійної регресії числівник (2.96) має вигляд:

= , (2.98)

де: факторна дисперсія або дисперсія, що пояснюється регресією; безумовна (повна) дисперсія випадкової величини Y; умовна дисперсія випадкової величини Y або дисперсія відтворюваності, яка характеризує випадковий компонент та обчислюється за тими значеннями Y, які відповідають фіксованому значенню X = x.

Кореляційне відношення xy завжди додатне (0  xy  1), асиметричне, тобто xy yx.

Рівність xy = 0 означає, що випадкова величина Y некорельована з випадковою величиною X, проте це не означає, що Y і X незалежні.

Незалежні випадкові величини X і Y (при xy = 0) будуть тільки тоді, коли закон розподілу системи (X , Y) нормальний.

Рівність xy = 1 означає, що X і Y функціонально зв’язані. При нелінійній регресії кореляційне відношення xy завжди більше модуля коефіцієнта кореляції Пірсона, тобто xy . При цьому має місце криволінійна кореляція та нелінійний зв'язок між Y і X.

Якщо зв'язок між Y і X лінійний, то xy yx і кореляційне відношення xy дорівнює модулю коефіцієнта кореляції Пірсона, тобто xy= , при цьому маємо модель лінійної регресії, тобто лінійну кореляційну залежність.

Якщо дві лінії регресії Y на X і X на Y – прямі, то кореляцію називають лінійною. Вибіркове рівняння прямої лінії регресії Y на X має вигляд:

, (2.99)

де – вибіркова середня ознаки Y; – вибіркова середня ознаки X; – умовна середня; і – вибіркові середні квадратичні відхилення ознак X і Y; вибірковий коефіцієнт кореляції, причому

. (2.100)

Вибіркове рівняння прямої лінії регресії X на Y має вигляд:

. (2.101)

Вибірковий коефіцієнт кореляції rв характеризує силу лінійного кореляційного зв’язку: чим ближче модуль до одиниці, тим зв'язок сильніше; чим ближче модуль до нуля, тим зв'язок слабше.

Зазначимо, що в наукових дослідженнях здебільшого спостерігаються нелінійні зв’язки між випадковими величинами. Відомий ефект Ленца в фізиці, який звично іменується правилом Ленца: зміна (var) сили електричного струму i = var (підвищення чи зменшення) в колі з активним опором R та індуктивністю L спричиняє зміну напруженості магнітного поля H = var , що викликає індуктивний струм, який спрямований проти основного струму. Зворотній зв'язок струмів можна формалізувати нелінійною кореляцією з від’ємним значенням коефіцієнта кореляції. Рівняння Максвелла це підтверджують. Не становлять виключення психолого-педагогічні дослідження. Як приклад, можна навести закон Йеркса-Додсона, за яким зростання позитивної мотивації спочатку викликає підвищення ефективності та результативності навчання, а через деякий проміжок часу наступає зниження результативності (продуктивності) навчання – ефект “перемотивації”.

Зазвичай дані вибіркових досліджень становлять основу для прийняття одного з кількох альтернативних рішень (стан технічного об’єкта працездатний, непрацездатний, граничний). Для вибору альтернативи висувають гіпотезу, яку приймають чи відхиляють після проведення деякого експерименту. Вказана гіпотеза є статистичною та перевіряється на основі статистичних методів. Таким чином, статистична гіпотеза – гіпотеза про ознаки генеральної сукупності, що перевіряється на основі вибірки.

Результати експерименту {xi}, , як правило, є дискретною або неперервною випадковою величиною X у зв’язку з тим, що на процес експерименту впливають не тільки управляючі фактори, але й велика множина випадкових об’єктивних факторів і суб’єктивних чинників. Обробка результатів експерименту дозволяє отримати статистику (статистичну оцінку)  (x1, x2,…, xk), яку можна розглядати як випадкову величину, закон розподілу якого в загальному випадку залежить від класу теоретичного закону розподілу Ψ = Ψ (X, Θ1, Θ2, …,Θp) випадкової величини X, а також параметрів цього закону Θ1, Θ2, …,Θp , роль яких відіграють точкові чи інтервальні оцінки: математичне сподівання, дисперсія, мода, тощо.

Закон розподілу статистики залежить від повноти наших знань про гіпотетичний закон розподілу ГС. Числові характеристики статистики є статистичними точковими оцінками невідомих параметрів теоретичного розподілу Ψ = Ψ (X, Θ1, Θ2, …,Θp).

Статистичними гіпотезами називаються будь-які гіпотези відносно генеральних сукупностей. Вони класифікуються на:

а) гіпотези щодо розподілу ГС;

б) гіпотези щодо параметрів Θ1, Θ2, …,Θp відомого закону розподілу ГС;

в) інші гіпотези (про рівність параметрів декількох розподілів, про незалежність вибірок тощо).

Точність оцінювання математичного сподівання  = m здійснюється через середнє вибіркове *= і визначається довірчим інтервалом  із такими межами:

, (2.102)

де точність оцінки  для великого обсягу вибірки n визначається як  = , а для малого – .

Довірчий інтервал  = із заданою надійністю (довірчою ймовірністю, вірогідністю) покриває оцінюваний параметр m, тобто

p (  ) . (2.103)

Параметр, який доповнює до одиниці надійність є рівень значущості , а саме: = 1 .

Статистичні гіпотези класифікуються таким чином:

а) проста гіпотеза, якщо вона має тільки одне припущення;

б) складна гіпотеза складається із кінцевого або нескінченного числа простих гіпотез;

в) нульова (основна) гіпотеза – це гіпотеза H0, яку висувають;

г) конкуруюча (альтернативна) гіпотеза – це гіпотеза H1 , яка суперечить нульовій.

Статистичним критерієм (або просто критерієм) називають випадкову величину K, яка служить для перевірки гіпотези. Значення критерію, яке обчислено за вибіркою називається спостерігаючим (емпіричним) значенням Kсп.

Область прийняття гіпотези (довірчий інтервал, область допустимих значень) називається сукупність значень критерію K, при якому нульову гіпотезу приймають. Цій області відповідає довірча ймовірність .

Критична область – це сукупність значення критерію K, при якому нульову гіпотезу відкидають (відхиляють).

Критичними точками (границями) kкр називають точки, що відділяють критичну область від області прийняття гіпотези. Критичні області поділяються на односторонні (лівосторонні та правосторонні), а також на двохсторонні. Їх зображають на координатній осі абсцис.

__________________________0_kкр ////////////////////////////////////////////////////////////////////

Рис. 2.2. Правостороння критична область:

K kкр , P (K kкр ) = , P (K kкр ) = , kкр 0 (2.104)

//////////////////////////////////////kкр__0_____________________ ____________

Рис. 2.3. Лівостороння критична область:

K kкр , P (K kкр ) = , P (K kкр ) = , kкр 0 (2.105)

/////////////2//////////(- kкр)____________0______________kкр//////////////2///////

Рис. 2.4. Двохстороння симетрична (відносно нуля x=0) критична область:

K -kкр , P (K - kкр ) = /2, (kкр 0);

K kкр , P (K kкр ) = /2, (2.106)

P (K - kкр ) + P (K kкр ) = ;

P (-kкр K kкр ) = .

Для несиметричної двосторонньої критичної області:

K k1 , K k2, де k2 k1 . (2.107)

Основний принцип перевірки статистичних гіпотез: якщо значення спостерігаємого критерію Kсп1 належить критичній області, то нульову гіпотезу H0 відкидають; якщо значення спостерігаємого критерію Kсп2 належить області прийняття гіпотези, то гіпотезу приймають (рис. 2.5).

______________Kсп2_________0__kкр //////////////////////////////////////////////Kсп1/////

Рис. 2.5. Нульова гіпотеза H0 в правосторонній критичній області:

P (Kсп1 kкр ) = , P (Kсп2 kкр ) = , (2.108)

де = 0,9; 0,95; 0,99; 0,999.

Рівень значущості визначає ймовірність помилкового прийняття альтернативної гіпотези H1 при справедливості нульової гіпотези H0 .

При перевірці гіпотези можуть бути допущені помилки двох родів:

1) помилка першого роду полягає в тому, що буде відхилена правильна гіпотеза H0 . Імовірність помилки першого роду називають рівнем значущості ;

2) помилка другого роду полягає в тому, що буде прийнята неправильна гіпотеза. Імовірність помилки другого роду позначається як – подія “прийнята нульова гіпотеза H0, причому справедлива конкуруюча H1”.

Отже, імовірність протилежної події ”відхилена нульова гіпотеза H0, причому справедлива конкуруюча H1”, тобто ймовірність того, що не буде допущена помилка другого роду – це потужність критерію , яка рівна 1. Очевидно, 1 .

Відповідно теореми Неймана-Пірсона, якщо вже вибрано, то можна побудувати критичну область, для якої буде мінімальне і, відповідно, потужність критерію 1 максимально. Єдиний спосіб одночасного зменшення і полягає в збільшенні обсягу вибірки. Зазначимо, що якщо гіпотеза прийнята (або відкинута) то помилково думати, що тим самим вона доведена (або спростована).