
- •Означення та приклади подій: випадкова, достовірна, неможлива, елементарна, складна.
- •Означення та приклад повної групи подій та простору елементарних подій.
- •Класичне означення ймовірності випадкової події.
- •Сформулювати аксіоми класичної теорії ймовірностей.
- •Дати означення та вказати властивості перестановки, сполучення, комбінації елементів.
- •Дати означення відносної частоти появи події.
- •Дати геометричне та статистичне означення ймовірності.
- •Дати визначення умовної ймовірності.
- •Формула множення ймовірностей для залежних та незалежних подій.
- •Формула для обчислення появи хоча б однієї події .
- •Формула повної ймовірності.
- •Формули Байєса.
- •Означення експерименту за схемою Бернуллі.
- •Формула Бернуллі для обчислення ймовірностей, умова використання. Наслідки.
- •Найімовірніше число появ події в схемі Бернуллі.
- •Сформулювати локальну теорему Муавра-Лапласа.
- •Властивості функції Лапласа:
- •Означення випадкової величини, дискретної та неперервної випадкових величин.
- •Закон розподілу випадкової величини.
- •Інтегральна функція розподілу випадкової величини: означення. Властивості.
- •Диференціальна функція розподілу (щільність розподілу) випадкової величини: означення. Властивості.
- •Математичне сподівання випадкової величини: означення, властивості.
- •Дисперсія та середньоквадратичне відхилення випадкової величини: означення, властивості.
- •Властивості дисперсії
- •Мода, медіана випадкової величини.
- •Початкові та центральні моменти.
- •Асиметрія, ексцес.
- •Означення багатовимірної випадкової величини.
- •Означення закону розподілу багатовимірної випадкової величини.
- •Основні числові характеристики для системи двох дискретних випадкових величин.
- •Коефіцієнт кореляції та його властивості.
- •Функція розподілу ймовірностей та щільність ймовірностей системи
- •Двовимірний нормальний закон розподілу.
- •Закон розподілу Бернулі
- •Біноміальний закон розподілу двв. Числові характеристики.
- •Пуасонівський закон розподілу двв, числові характеристики.
- •Геометричний закон розподілу двв, числові характеристики.
- •Гіпергеометричний закон розподілу двв, числові характеристики.
- •Рівномірний закон розподілу нвв.
- •Нормальний закон розподілу.
- •Показниковий закон та його використання в теорії надійності та теорії черг.
- •Розподіл
- •Розподіл Стьюдента. Розподіл Фішера. (45-46)
- •Правило трьох сигм. Логарифмічний нормальний закон.
- •Функції одного дискретного випадкового аргументу.
- •.Числові характеристики функції одного дискретного випадкового аргументу.
- •Функції неперервного випадкового аргументу та їх числові характеристики.
- •Функції двох випадкових аргументів та їх числові характеристики.
- •Числові характеристики функції дискретного випадкового аргументу
- •Нерівності Чебишева та їх значення.
- •Теорема Чебишева.
- •Теорема Бернуллі.
- •Центральна гранична теорема теорії ймовірностей ( теорема Ляпунова) та її використання у математичній статистиці.
- •Предмет і задачі математичної статистики.
- •Утворення вибірки. Генеральна та вибіркова сукупність.
- •Статистичні розподіли вибірок.
- •Емпірична функція розподілу, гістограма та полігон.
- •Числові характеристики: вибіркова середня, дисперсія вибірки, середньоквадратичне відхилення.
- •Мода й медіана, емпіричні початкові та центральні моменти, асиметрія та ексцес.
- •Дати визначення статистичної оцінки.
- •Точкові та інтервальні статистичні оцінки.
- •Дати визначення довірчого інтервалу.
- •Що таке нульова та альтернативна статистичні гіпотези.
- •Перевірка (правдивості нульової) гіпотези про нормальний закон розподілу ознаки генеральної сукупності.
- •Емпіричні та теоретичні частоти.
- •Критерії узгодження Пірсона та Колмогорова.
- •Помилки першого та другого роду.
- •Статистичний критерій. Критична область.
- •Дати означення моделі експерименту.
- •Дати поняття одно факторний аналіз.
- •Загальна дисперсія, між групова та внутрішньогрупова дисперсії.
- •. Поняття про функціональну, статистичну та кореляційну залежності.
- •Рівняння лінійної регресії. Довірчий інтервал для лінії регресії
- •Вибірковий коефіцієнт кореляції.
- •Множинна регресія, множинний коефіцієнт кореляції та його властивості.
- •Нелінійна регресія.
- •85) Визначення та приклади ланцюгів Маркова.
- •Інтуїтивне визначення
- •Формальне визначення
- •Граф переходів ланцюга Маркова
- •86) Ймовірність переходу за n кроків.
- •87) Замкнуті множини станів.
- •88) Класифікація станів. Неповоротний стан.
- •1. Ергодичний стан
- •2. Нестійкі стани
- •3. Поглинальні стани
- •89) Ергодична властивість неперіодичних ланцюгів. Стаціонарний розподіл.
- •90) Періодичні ланцюги.
- •91) Загальний марковський процес (Ланцюг Маркова з неперервним часом).
- •92) Гранична поведінка перехідних ймовірностей ланцюга Маркова.
- •93) Гілчастий процес.
- •94) Алгебраїчний підхід вивчення скінченних ланцюгів Маркова.
- •96) Випадковий проце, стаціонарний у широкому сенсі.
- •97) Аналіз кореляційної функції. Ергодичність.
- •100) Рівняння Колмогорова - Чепмена
Функції двох випадкових аргументів та їх числові характеристики.
У загальному
випадку функцію двох аргументів Х і Y
можна позначити як
,
де
є невипадковою функцією.
Якщо Х та Y є дискретними випадковими величинами, то і Z буде дискретною. Якщо Х та Y є неперервними, то і Z буде неперервною.
Розглянемо функціональну залежність Z = Х + Y, де Х і Y є неперервними випадковими величинами.
Потрібно за відомою щільністю f (x, y) знайти F (z), f (z).
Імовірність влучення Z в області Z < z, а саме Z < Х + Y.
Ця ймовірність обчислюється так:
або
Тоді щільність імовірностей для випадкової величини Z буде така:
Знаходження F (z), f (z), якщо Z = Х + Y
Розглянемо функціональну залежність Z = Х + Y, де Х і Y є неперервними випадковими величинами.
Потрібно за відомою щільністю f (x, y) знайти F (z), f (z).
Імовірність
влучення Z в області Z < z, а саме Z < Х
+ Y зображено на мал.
Ця ймовірність обчислюється так:
або
Оскільки
то
попередні формули можна подати так:
Тоді щільність імовірностей для випадкової величини Z буде така:
Отже,
Якщо випадкові
величини Х і Y є незалежними, то f (x, y) =
=
f (x) f (y). За цієї умови формули наберуть
такого вигляду:
(1)
(2)
Формули (1), (2) називають згорткою, або композицією, двох законів.
Знаходження F(Z), f (z), якщо Z = Х/Y.(Y=ZX)
Оскільки пряма Y = ZХ ділить площину хОу на дві непересічені області, зображені на рис. 82.
Рис. 82
В області D1
виконується випадкова подія
і
в області
.
Отже, імовірність події
дорівнюватиме сумі ймовірностей двох
несумісних випадкових подій, що зможуть
відбутися або в області
,
або в області
:
.
Отже,
(211)
або
(212)
Щільність імовірностей
Остаточно маємо:
(213)
Якщо Х і Y є незалежними, то
. (214)
Знаходження F(Z), f (z), якщо Z = ХY.
Якщо Z =ХY, тобто
випадкова величина Z дорівнює добутку
двох випадкових величин Х і Y, то
ймовірність потрапляння випадкової
величини Z в область
унаочнює рис. 83.
Рис.
83
Маємо:
або
. (215)
Скориставшись (215), дістанемо
Отже,
(216)
Якщо випадкові величини Х і Y є незалежними, то
. (217)
Числові характеристики функції дискретного випадкового аргументу
1. Математичне сподівання
(190)
2. Дисперсія
. (191)
3. Середнє квадратичне відхилення
(192)
Функції неперервного випадкового аргументу та їх числові характеристики
Нехай закон розподілу ймовірностей неперервної випадкової величини Х задано щільністю f (х).
Необхідно знайти f (у), якщо Y = .
А. Функція монотонна.
Розглянемо випадок, коли Y = є монотонно зростаючою функцією, зображеною на pис. 71.
Рис. 71
Якщо випадкова величина Х міститься у проміжку [х; х + х], то оскільки Y жорстко зв’язана з випадковою величиною Х функцією (х), то Y міститиметься у проміжку [у, у + у] (рис. 71). Отже, події х < Х < х +х і у < Y < у +у будуть рівноймовірними:
Р(х < Х < х +х) = Р(у < Y < у +у). (193)
Згідно з визначенням щільності ймовірностей
.
Але F( у + у) – F(у) = Р (у < Y < у +у) = Р (х < Х < х +х) згідно зі (193).
Тоді:
Отже,
. (194)
При у 0, х 0 з урахуванням функціональної залежності між Y і Х, помноживши і поділивши дріб (194) на х, дістанемо:
Із Y = (х) знаходимо явно Х = (у). Тоді
(195)
Якщо , де є монотонно спадною функцією (рис. 72),
Рис. 72
то додатному приросту аргументу х +х відповідатиме від’ємний приріст функції y – y i похідна .
А оскільки f (y) 0, то об’єднуючи обидва випадки, дістанемо
(196)