
- •Означення та приклади подій: випадкова, достовірна, неможлива, елементарна, складна.
- •Означення та приклад повної групи подій та простору елементарних подій.
- •Класичне означення ймовірності випадкової події.
- •Сформулювати аксіоми класичної теорії ймовірностей.
- •Дати означення та вказати властивості перестановки, сполучення, комбінації елементів.
- •Дати означення відносної частоти появи події.
- •Дати геометричне та статистичне означення ймовірності.
- •Дати визначення умовної ймовірності.
- •Формула множення ймовірностей для залежних та незалежних подій.
- •Формула для обчислення появи хоча б однієї події .
- •Формула повної ймовірності.
- •Формули Байєса.
- •Означення експерименту за схемою Бернуллі.
- •Формула Бернуллі для обчислення ймовірностей, умова використання. Наслідки.
- •Найімовірніше число появ події в схемі Бернуллі.
- •Сформулювати локальну теорему Муавра-Лапласа.
- •Властивості функції Лапласа:
- •Означення випадкової величини, дискретної та неперервної випадкових величин.
- •Закон розподілу випадкової величини.
- •Інтегральна функція розподілу випадкової величини: означення. Властивості.
- •Диференціальна функція розподілу (щільність розподілу) випадкової величини: означення. Властивості.
- •Математичне сподівання випадкової величини: означення, властивості.
- •Дисперсія та середньоквадратичне відхилення випадкової величини: означення, властивості.
- •Властивості дисперсії
- •Мода, медіана випадкової величини.
- •Початкові та центральні моменти.
- •Асиметрія, ексцес.
- •Означення багатовимірної випадкової величини.
- •Означення закону розподілу багатовимірної випадкової величини.
- •Основні числові характеристики для системи двох дискретних випадкових величин.
- •Коефіцієнт кореляції та його властивості.
- •Функція розподілу ймовірностей та щільність ймовірностей системи
- •Двовимірний нормальний закон розподілу.
- •Закон розподілу Бернулі
- •Біноміальний закон розподілу двв. Числові характеристики.
- •Пуасонівський закон розподілу двв, числові характеристики.
- •Геометричний закон розподілу двв, числові характеристики.
- •Гіпергеометричний закон розподілу двв, числові характеристики.
- •Рівномірний закон розподілу нвв.
- •Нормальний закон розподілу.
- •Показниковий закон та його використання в теорії надійності та теорії черг.
- •Розподіл
- •Розподіл Стьюдента. Розподіл Фішера. (45-46)
- •Правило трьох сигм. Логарифмічний нормальний закон.
- •Функції одного дискретного випадкового аргументу.
- •.Числові характеристики функції одного дискретного випадкового аргументу.
- •Функції неперервного випадкового аргументу та їх числові характеристики.
- •Функції двох випадкових аргументів та їх числові характеристики.
- •Числові характеристики функції дискретного випадкового аргументу
- •Нерівності Чебишева та їх значення.
- •Теорема Чебишева.
- •Теорема Бернуллі.
- •Центральна гранична теорема теорії ймовірностей ( теорема Ляпунова) та її використання у математичній статистиці.
- •Предмет і задачі математичної статистики.
- •Утворення вибірки. Генеральна та вибіркова сукупність.
- •Статистичні розподіли вибірок.
- •Емпірична функція розподілу, гістограма та полігон.
- •Числові характеристики: вибіркова середня, дисперсія вибірки, середньоквадратичне відхилення.
- •Мода й медіана, емпіричні початкові та центральні моменти, асиметрія та ексцес.
- •Дати визначення статистичної оцінки.
- •Точкові та інтервальні статистичні оцінки.
- •Дати визначення довірчого інтервалу.
- •Що таке нульова та альтернативна статистичні гіпотези.
- •Перевірка (правдивості нульової) гіпотези про нормальний закон розподілу ознаки генеральної сукупності.
- •Емпіричні та теоретичні частоти.
- •Критерії узгодження Пірсона та Колмогорова.
- •Помилки першого та другого роду.
- •Статистичний критерій. Критична область.
- •Дати означення моделі експерименту.
- •Дати поняття одно факторний аналіз.
- •Загальна дисперсія, між групова та внутрішньогрупова дисперсії.
- •. Поняття про функціональну, статистичну та кореляційну залежності.
- •Рівняння лінійної регресії. Довірчий інтервал для лінії регресії
- •Вибірковий коефіцієнт кореляції.
- •Множинна регресія, множинний коефіцієнт кореляції та його властивості.
- •Нелінійна регресія.
- •85) Визначення та приклади ланцюгів Маркова.
- •Інтуїтивне визначення
- •Формальне визначення
- •Граф переходів ланцюга Маркова
- •86) Ймовірність переходу за n кроків.
- •87) Замкнуті множини станів.
- •88) Класифікація станів. Неповоротний стан.
- •1. Ергодичний стан
- •2. Нестійкі стани
- •3. Поглинальні стани
- •89) Ергодична властивість неперіодичних ланцюгів. Стаціонарний розподіл.
- •90) Періодичні ланцюги.
- •91) Загальний марковський процес (Ланцюг Маркова з неперервним часом).
- •92) Гранична поведінка перехідних ймовірностей ланцюга Маркова.
- •93) Гілчастий процес.
- •94) Алгебраїчний підхід вивчення скінченних ланцюгів Маркова.
- •96) Випадковий проце, стаціонарний у широкому сенсі.
- •97) Аналіз кореляційної функції. Ергодичність.
- •100) Рівняння Колмогорова - Чепмена
Загальна дисперсія, між групова та внутрішньогрупова дисперсії.
Міжгрупова дисперсія – дисперсія групових середніх, зумовлена впливом досліджуваного фактора на ознаку х.
Внутрішньогрупова дисперсія – дисперсія, зумовлена впливом інших випадкових факторів.
Загальна дисперсія розглядається як сума квадратів відхилень для того, щоб мати виправлені дисперсії, їх називають залишковою та факторною, необхідно кожну із здобутих сум поділити на число ступенів свободи.
S2зал.
=
S2факт.
=
Загальний метод перевірки впливу фактора на ознаку способом порівняння дисперсій
Завдання
виявлення впливу фактора на наслідки
експерименту полягає в порівнянні
виправлених дисперсій
,
.
І справді, якщо досліджуваний фактор
не впливає на значення ознаки Х,
то в цьому разі
і
можна розглядати як незалежні оцінки
загальної дисперсії D.
І навпаки, якщо відношення
i
істотне, то в цьому разі вибірки слід
вважати здійсненими з різних сукупностей,
тобто з сукупностей з різним рівнем
впливу фактора.
Порівняння
двох дисперсій ґрунтується
на перевірці правильності нульової
гіпотези:
— про рівність дисперсій двох вибірок.
За
статистичний критерій вибирається
випадкова величина
,
що має
розподіл Фішера—Снедекора з
,
ступенями
свободи.
За значеннями , , , знаходимо критичну точку (додаток 7).
Спостережуване значення критерію обчислюється за формулою
Якщо
,
то нульова гіпотеза про вплив фактора
на результати досліджень відхиляється,
а коли
,
то цим самим підтверджується вплив
фактора на ознаку Х.
Результати спостережень та обчислення статистичних оцінок зручно подати в упорядкованому вигляді за допомогою табл. 2
. Поняття про функціональну, статистичну та кореляційну залежності.
Показником, що вимірює стохастичний зв’язок між змінними, є коефіцієнт кореляції, який свідчить з певною мірою ймовірності, наскільки зв’язок між змінними близький до строгої лінійної залежності.
За
наявності кореляційного зв’язку між
змінними необхідно виявити його форму
функціональної залежності (лінійна чи
нелінійна), а саме:
;
;
Наведені можливі залежності між змінними X і Y називають функціями регресії. Форму зв’язку між змінними X і Y можна встановити, застосовуючи кореляційні поля, які зображені на рисунках
Для двовимірного статистичного розподілу вибірки ознак (Х, Y) поняття статистичної залежності між ознаками Х та Y має таке визначення:
статистичною залежністю Х від Y називають таку, за якої при зміні значень ознаки Y = yi змінюється умовний статистичний розподіл ознаки Х, статистичною залежністю ознаки Y від Х називають таку, за якої зі зміною значень ознаки X = xi змінюється умовний статистичний розподіл ознаки Y.
Між ознаками Х та Y може існувати статистична залежність і за відсутності кореляційної. Але коли існує кореляційна залежність між ознаками Х та Y, то обов’язково між ними існуватиме і статистична залежність.