
- •Дослід, якісна та кількісна характеристика досліду. Неможлива та достовірна події.Протилежна подія.
- •Сума, добуток, різниця подій. Несумісні події. Повна група несумісних подій.
- •Частота та відносна частота події. Властивості відносних частот.
- •Статистична ймовірність події. Аксіоми теорії ймовірностей. Вимірювання ймовірності на практиці.
- •Властивості ймовірностей.
- •Умовна відносна частота. Відносна частота добутку подій. Умовна ймовірність події. Формула множення ймовірностей та формула для умовної ймовірності.
- •Залежні та незалежні події. Теорема множення для незалежних подій.
- •Простий дослід. Класичне означення ймовірностї. Геометричні ймовірності.
- •Формули комбінаторики.
- •Формула повної ймовірності та формула Байєса.
- •Повторні випробування та формула Бернуллі.
- •Наближені формули до формули Бернуллі.
- •Випадкова величина. Функція розподілу та її властивості.
- •Дискретна випадкова величина. Закон розподілу, полігон, функція розподілу.
- •Абсолютно неперервна випадкова величина, її функція розподілу та щільність розподілу. Властивості щільності.
- •Математичне сподівання випадкової величини та його властивості.
- •Властивості математичного сподівання
- •Дисперсія випадкової величини та її властивості.
- •Властивості дисперсії
- •Моменти, асиметрія, ексцес. Мода, медіана та квантилі.
- •Рівномірний розподіл.
- •Стандартний нормальний розподіл.
- •Нормальний розподіл та його властивості. Центральна гранична теорема.
- •Властивості нормальних розподілів
- •Центральна гранична теорема Ляпунова
- •Показниковий розподіл, його властивості.
- •Біноміальний розподіл.
- •Розподіл Пуассона. Потоки найпростіших подій.
- •Геометричний та гіпергеометричний розподіли. Розподіл Пірсона.
- •Розподіл - Пірсона
- •Нерівність Маркова та Чебишова.
- •Теореми Хінчина, Чебишова та Бернуллі.
- •Двовимірна випадкова величина. Основні означення.
- •Числові характеристики двовимірної випадкової величини.
- •Означення регресії. Теорема про лінійну регресію. Властивості коефіцієнта кореляції.
- •Властивості коефіцієнта кореляції
- •Умовне математичне сподівання та його властивості.
- •Властивості mxy
- •Теорема про умовне математичне сподівання. Властивості кореляційного відношення.
- •Властивості кореляційного відношення
- •Двовимірний нормальний розподіл та його властивості.
- •Означення вибірки, статистики, оцінки параметра, міри розсіювання параметра. Теорема про міру розсіювання.
- •Означення незміщеної, асимптотично незміщеної, конзистентної та ефективної оцінок. Оцінки
- •Оцінка дисперсії. Виправлена дисперсія. Їх властивості.
- •Емпірична функція розподілу. Емпіричний розподіл. Кумулята, полігон, гістограма.
- •Емпіричні оцінки параметрів розподілу та їх властивість.
- •Метод моментів для побудови оцінок.
- •Метод найбільшої правдоподібності.
- •Надійний інтервал. Його побудова, якщо відомий розподіл оцінки параметра.
- •Надійні інтервали для параметрів з стандартно нормально розподіленими оцінками.
- •Надійні інтервали для параметрів нормального розподілу.
- •Асимптотично нормальні оцінки. Приклади та їх надійні інтервали.
- •Поняття критерію згоди. Критерій згоди Пірсона.
- •Перевірка гіпотез з допомогою надійних інтервалів. Метод найменших квадратів.
Метод найбільшої правдоподібності.
Знову ж відомий тип розподілу, але невідомі параметри і їх треба оцінити за вибіркою, тобто виразити їх через .
Знаходимо
ймовірність реалізації вибірки (
), використовуючи відомий тип розподілу
Х. Ця ймовірність буде залежати від
параметрів
=(
)
і називається функцією
правдоподібності:
=
=L( , ) =L( , ).
Врахуємо, що експерименти
незалежні, тоді
–
незалежні в.в. з однаковим розподілом
Х. L(
,
)=
,
де формули для ймовірностей беруть з
даного типу розподілу, тут дискретного.
Для неперервного розподілу функція правдоподібності має вигляд: L( , )=
=
,
тобто використовують щільність даного
типу.
Метод найбільшої правдоподібності полягає у підборі таких значень параметрів , при яких функція правдоподібності досягає максимуму. Отже, треба знайти точку максимуму функції L від k змінних і координати цієї точки М( ) і будуть шуканими оцінками. Вони будуть залежати від елементів вибірки .
Для
знаходження критичної точки складаємо
систему рівнянь:
...
Але,
оскільки функція правдоподібності є
добутком, то зручніше шукати максимум
ln L(x,
).
Точки максимуму L і ln L співпадають, бо
ln x зростаюча функція.:
...
Метод Гауса можна застосовувати лише тоді, коли функція правдоподібності має один максимум.
Надійний інтервал. Його побудова, якщо відомий розподіл оцінки параметра.
Надійний
інтервал параметра
–
це інтервал (
)
з випадковими (залежними від вибірки
кінцями), який містить невідомий параметр
з ймовірністю не меншою заданого числа
.
Це число
називають надійністю
інтервалу:
,
де
,
– функції від вибірки.
вибирають близьке до 1: 0,9;
0,99; 0,95.
Точність надійного інтервалу – це половина його довжини. Чим точніший інтервал з надійністю , тим кращим він вважається.
Але
в деяких випадках найкращими вважаються
нескінченні надійні інтервали
,
, вони називаються однобічними,
а скінченні – двобічними.
Часто
буває відомий розподіл точкової
оцінки
(чи
деякої функції
),
і цей розподіл пов'язаний з невідомим
числом
(наприклад,
як для асимптотично нормальної оцінки).
Тоді будують інтервал для розподілу
–
,
такий, що
– називатимемо його теж надійним
інтервалом для розподілу
.
Потім внутрішню нерівність розв'язують
відносно числа
і
отримують
,
тобто
– шуканий надійний інтервал для
параметра
.
Роль функції оцінки може грати будь-яка статистика (функція вибірки), для якої відомий розподіл і він пов'язаний з параметром .
Отже, треба навчитись будувати надійні інтервали для випадкової величини Х з відомим розподілом.
Нехай
Х – розподіл з відомою функцією розподілу
F(t), чи щільністю розподілу f(t). Потрібно
побудувати інтервал
,
такий, щоб
.


З
малюнків:
,
,
;
S=
Отже,
двобічний інтервал надійності
має вигляд
,
де
будь- які додатні числа, для
яких
.