- •1.Означення та приклади подій:віпадкова, достовірна, неможлива,елементарна складна
- •2.Означення та приклад повної групи подій та простору елементарних подій
- •3. Класичне означення ймовірності випадкової події.
- •4. Дати означення та вказати властивості перестановки, сполучення, комбінації елементів.
- •5.Дати означення відносної частоти появи подій
- •6. Дати геометричне та статистичне означення ймовірності.
- •7. Дати визначення умовної ймовірності
- •8. Формули множення ймовірностей для залежних та незалежних випадкових подій.
- •9. Формула для обчислення появи хоча б однієї з подій.
- •10. Формула повної ймовірності та формула Байеса.
- •12. Означення експеременту за схемою Бернулі.
- •13,14. Формула Бернуллі для обчислення ймовірності і наймовірнішого числа.
- •15. Локальна теорема Мавра-Лапласа.
- •17. Функція Гаусса та її властивості.
- •18) Функція Лапласа та її властивості
- •19.Формула Пуассона малоймовірних випадкових подій.
- •20, 21 Означення випадкової величини.
- •22. Функція розподілу
- •24, Матиматичне сподівання
- •25.Дисперсія та середньоквадратичне відхилення вв
- •26. Мода, медіана вв.
- •36. Закон розподілу Пуассона
- •37. Геометричний закон розподілу двв, числові характеристики.
- •38. Гіпергеометричний закон розподілу двв, числові характеристики.
- •39. Рівномірний закон розподілу
- •41. Показниковий закон розподілу
- •43. Правила трьох сигм. Логарифмічний нормальний закон
- •48)Предмет і задачі математичної статистики
- •49)Утворення вибірки.Генеральна та вибіркова сукупність
- •50) Статистичний розподіл вибірки
- •51. Емпірична функція розподілу, гістограма та полігон
- •52.53. Числові характеристики:
- •54. Дати визначення статистичної оцінки
- •55.56. Точкові та інтервальні статистичні оцінки
- •57.58. ) Нульова та альтернативна статистичні гіпотези
- •59. Емпіричні та теоретичні частоти.
- •60. Критерій узгодженості Пірсона.
- •61) Помилки першого та другого роду
- •62. Статистичний критерій.
- •63)Модель експерименту
- •64. Однофакторний аналіз.
- •65. Таблиця результатів спостережень
- •66. Загальна дисперсія ,міжгрупова та внутрішнлогрупова дисперсія
- •67. Загальний метод перевірки впливу фактора на ознаку способом порівняння дисперсій.
- •68. Функціональна ,статистична і кореляційна залежності.
- •70. Вибірковий коефіцієнт кореляції
- •71) Множина регресії ,множинний коєфіцієнт кореляції та його властивості .
- •72) Нелінійна регресія.
66. Загальна дисперсія ,міжгрупова та внутрішнлогрупова дисперсія
Відповідно до моделі однофакторного дисперсійного аналізу необхідно визначити дві дисперсії, а саме: міжгрупову (дисперсію групових середніх), зумовлену впливом досліджуваного фактора на ознаку Х, і внутрішньогрупову, зумовлену впливом інших випадкових факторів.
Загальна дисперсія розглядається як сума квадратів відхилень:
.
оді поділ загальної дисперсії на компоненти здійснюється так:
оскільки
Таким чином, дістаємо:
Для того щоб мати виправлені дисперсії, необхідно кожну зі здобутих сум поділити на число ступенів свободи.
Так,
для загальної
дисперсії
виправлена дисперсія дорівнюватиме
.
Виправлена
дисперсія
,
що характеризує розсіювання всередині
групи, зумовлене впливом випадкових
факторів, обчислюється за формулою:
,
де
є числом ступенів свободи для
,
оскільки при цьому використовується
р
співвідношень при обчисленні групових
середніх
.ї
Виправлена
дисперсія
,
що характеризує розсіювання групових
середніх
відносно загальної середньої
,
яке викликане впливом фактора на
результат експерименту ознаки Х,
обчислюється за формулою:
,
де
— це число ступенів свободи для
,
оскільки групові середні варіюють
відносно однієї загальної середньої
.
67. Загальний метод перевірки впливу фактора на ознаку способом порівняння дисперсій.
Завдання виявлення впливу фактора на наслідки експерименту полягає в порівнянні виправлених дисперсій , . І справді, якщо досліджуваний фактор не впливає на значення ознаки Х, то в цьому разі і можна розглядати як незалежні оцінки загальної дисперсії D. І навпаки, якщо відношення i істотне, то в цьому разі вибірки слід вважати здійсненими з різних сукупностей, тобто з сукупностей з різним рівнем впливу фактора.
Порівняння
двох дисперсій ґрунтується
на перевірці правильності нульової
гіпотези:
— про рівність дисперсій двох вибірок.
За
статистичний критерій вибирається
випадкова величина
,
що
має розподіл Фішера—Снедекора з
,
ступенями свободи.
За значеннями a, , , знаходимо критичну точку (додаток 7).
Спостережуване значення критерію обчислюється за формулою
Якщо
,
то нульова гіпотеза про вплив фактора
на результати досліджень відхиляється,
а коли
,
то цим самим підтверджується вплив
фактора на ознаку Х.
Результати спостережень та обчислення статистичних оцінок зручно подати в упорядкованому вигляді за допомогою табл. 2.
68. Функціональна ,статистична і кореляційна залежності.
Показником, що вимірює стохастичний зв’язок між змінними, є коефіцієнт кореляції, який свідчить з певною мірою ймовірності, наскільки зв’язок між змінними близький до строгої лінійної залежності.
За
наявності кореляційного зв’язку між
змінними необхідно виявити його форму
функціональної залежності (лінійна чи
нелінійна), а саме:
;
;
Наведені можливі залежності між змінними X і Y називають функціями регресії. Форму зв’язку між змінними X і Y можна встановити, застосовуючи кореляційні поля, які зображені на рисунках
Для двовимірного статистичного розподілу вибірки ознак (Х, Y) поняття статистичної залежності між ознаками Х та Y має таке визначення:
статистичною залежністю Х від Y називають таку, за якої при зміні значень ознаки Y = yi змінюється умовний статистичний розподіл ознаки Х, статистичною залежністю ознаки Y від Х називають таку, за якої зі зміною значень ознаки X = xi змінюється умовний статистичний розподіл ознаки Y.
Між ознаками Х та Y може існувати статистична залежність і за відсутності кореляційної. Але коли існує кореляційна залежність між ознаками Х та Y, то обов’язково між ними існуватиме і статистична залежність
69. Рівняння лінійної регресії . Ураховуючи вплив на значення Y збурювальних випадкових факторів, лінійне рівняння зв’язку X і Y можна подати в такому вигляді:
,
де
,
є
невідомі параметри регресії,
є випадковою змінною, що характеризує
відхилення y
від гіпотетичної теоретичної регресії.
Отже,
в рівнянні (485) значення «y»
подається у вигляді суми двох частин:
систематичної
і випадкової
.
Параметри
,
є невідомими величинами, а
є випадковою величиною, що має нормальний
закон розподілу з числовими
характеристиками:
,
.
При цьому елементи послідовності
є некорельованими
У результаті статистичних спостережень дослідник дістає характеристики для незалежної змінної х і відповідні значення залежної змінної у.
Довірчий інтервал для лінії регресії
Ураховуючи
те, що
і
є випадковими величинами, то і лінійна
функція регресії
буде випадковою. Позначимо
через
значення ознаки Y,
обчислимо за формулою
.
Тоді
.
Звідси дістали:
або
.Випадкова
величина
має
t-розподіл
із
ступенями свободи. Ураховуючи можна
побудувати довірчий інтервал для
лінійної парної функції регресії із
заданою надійністю γ,
а
саме:
.
випливає
