- •1.Означення та приклади подій : випадкова, достовірна, неможлива, елементарна, складна.
- •2.Означення та приклад повної групи подій та простору елементарних подій.
- •3.Класичне означення ймовірності випадкової події
- •5.Дати означення відносної частоти появи події.
- •6. Дати геометричне та статистичне означення ймовірностей.
- •7.Дати визначення умовної ймовірності.
- •8.Формула множення ймовірностей для залежних та незалежних подій.
- •9.Формула для обчислення появи хоча б однієї події.
- •10. Формула повної ймовірності
- •11.Формула Баєса.
- •13.Формула Бернуллі для обчислення ймовірностей,умова використання. Наслідки.
- •14. Найімовірніше число наступів події в схемі Бернуллі.
- •15.Сформулювати локальну теорему Мауавра-Лапласа.
- •16.Сформулювати інтегральну теорему Мауавра-Лапласа.
- •17.Функція Гаусса та її властивості
- •18.Функція Лапласа та її властивості.
- •19.Формула Пуассона,умови її використання.
- •20.Означення випадкової величини, дискретної та неперервної випадкової величини.
- •21.Закон розподілу випадкової величини.
- •22.Інтегральна функція розподілу випадкової величини: означення.Властивості.
- •30.Означення закону розподілу багатовимірної випадкової величини.
- •32. Коефіцієнт кореляції та його властивості
- •Щільність імовірностей системи п випадкових величин є функція
- •34.Двовимірний нормальний закон.
- •35.Біномінальний закон розподілу двв, числові характеристики.
- •36. Пуасонівський закон розподілу двв, числові характеристики.
- •37.Геометрический закон розподілу двв, числові характеристики.
- •38. Гіпергеометричний закон розподілу двв, числові характеристики.
- •39.Рівномірний закон розподілу.
- •40. . Нормальний закон розподілу
- •41.Показниковий закон та його використання в теорії надійності та теорії черг.
- •43. Правило трьох сигм. Логарифмічний нормальний закон розподілу
- •45. Теорема Чебишова
- •46. ) Теорема Бернулі
- •48.Предмет і задачі математичної статистики.
- •49. Утворення вибірки. Генеральна та вибіркова сукупність.
- •50. Статистичним розподілом вибірки
- •51.Емпірична функція розподілу, гістограма та полігон.
- •52.Числові характеристики : вибіркова середня, дисперсія вибірки, середньоквадратичне відхилення.
- •53.Мода й медіана,емпіричні початкові та центральні моменти, асиметрія та ексцес.
- •54.Дати визначення статистичної оцінки.
- •55.Точкові та інтервальні статистичні оцінки.
- •56.Дати визначення довірчого інтервалу.
- •57.Що таке нульова та альтернативна статистичні гіпотези.
- •58.Перевірки правдивості нульової гіпотези про нормальний закон розподілу ознаки генеральної сукупності.
- •59.Емпіричні та теоретичні частоти.
- •60.Критерії узгодження Пірсона та Колмогорова.
- •61.Помилки 1-го і 2-го роду.
- •62.Статистичний критерій.Критична область.
- •63.Дати означення моделі експерименту.
- •64.Дати поняття одно фактичний аналіз.
- •65.Що таке таблиця результатів.
- •66.Загальна дисперсія,між групова та внутрішньо групова дисперсія.
- •67.Загальний метод перевірки впливу фактора на ознаку способом порівняння дисперсії.
- •68.Поняття про функціональна ,статистична і кореляційна залежності.
- •70. Вибірковий коефіцієнт кореляції
- •71. Множина регресії ,множинний коєфіцієнт кореляції та його властивості .
67.Загальний метод перевірки впливу фактора на ознаку способом порівняння дисперсії.
Завдання
виявлення впливу фактора на наслідки
експерименту полягає в порівнянні
виправлених дисперсій
,
.
І справді, якщо досліджуваний фактор
не впливає на значення ознаки Х,
то в цьому разі
і
можна розглядати як незалежні оцінки
загальної дисперсії D.
І навпаки, якщо відношення
i
істотне, то в цьому разі вибірки слід
вважати здійсненими з різних сукупностей,
тобто з сукупностей з різним рівнем
впливу фактора.
Порівняння
двох дисперсій ґрунтується
на перевірці правильності нульової
гіпотези:
— про рівність дисперсій двох вибірок.
За
статистичний критерій вибирається
випадкова величина
,
що
має розподіл Фішера—Снедекора з
,
ступенями свободи.
За значеннями , , , знаходимо критичну точку (додаток 7).
Спостережуване значення критерію обчислюється за формулою
Якщо
,
то нульова гіпотеза про вплив фактора
на результати досліджень відхиляється,
а коли
,
то цим самим підтверджується вплив
фактора на ознаку Х.
68.Поняття про функціональна ,статистична і кореляційна залежності.
Показником, що вимірює стохастичний зв’язок між змінними, є коефіцієнт кореляції, який свідчить з певною мірою ймовірності, наскільки зв’язок між змінними близький до строгої лінійної залежності.
За
наявності кореляційного зв’язку між
змінними необхідно виявити його форму
функціональної залежності (лінійна чи
нелінійна), а саме:
;
;
Наведені можливі залежності між змінними X і Y називають функціями регресії. Форму зв’язку між змінними X і Y можна встановити, застосовуючи кореляційні поля, які зображені на рисунках
Для двовимірного статистичного розподілу вибірки ознак (Х, Y) поняття статистичної залежності між ознаками Х та Y має таке визначення:
статистичною залежністю Х від Y називають таку, за якої при зміні значень ознаки Y = yi змінюється умовний статистичний розподіл ознаки Х, статистичною залежністю ознаки Y від Х називають таку, за якої зі зміною значень ознаки X = xi змінюється умовний статистичний розподіл ознаки Y.
Між ознаками Х та Y може існувати статистична залежність і за відсутності кореляційної. Але коли існує кореляційна залежність між ознаками Х та Y, то обов’язково між ними існуватиме і статистична залежність
69. Рівняння лінійної регресії . Ураховуючи вплив на значення Y збурювальних випадкових факторів, лінійне рівняння зв’язку X і Y можна подати в такому вигляді:
,
де
,
є невідомі параметри регресії,
є випадковою змінною, що характеризує
відхилення y
від гіпотетичної теоретичної регресії.
Отже,
в рівнянні значення «y»
подається у вигляді суми двох частин:
систематичної
і випадкової
.
Параметри
,
є невідомими величинами, а
є випадковою величиною, що має нормальний
закон розподілу з числовими характеристиками:
,
.
При цьому елементи послідовності
є некорельованими
У результаті статистичних спостережень дослідник дістає характеристики для незалежної змінної х і відповідні значення залежної змінної у.
Довірчий інтервал для лінії регресії
Ураховуючи
те, що
і
є випадковими величинами, то і лінійна
функція регресії
буде випадковою. Позначимо
через
значення ознаки Y,
обчислимо за формулою
.
або
.Випадкова
величина
має t-розподіл
із
ступенями свободи. Ураховуючи можна
побудувати довірчий інтервал для
лінійної парної функції регресії із
заданою надійністю γ, а саме:
.Випливає
