Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
10-14 матем.doc
Скачиваний:
8
Добавлен:
23.03.2015
Размер:
134.65 Кб
Скачать

12. Декомпозиція дисперсії. Поняття про коефіцієнт детермінації.

Квадрат коефіцієнта кореляції називається коефіцієнтом детермінації (г2). Він показує, яка частка загальної варіації результативної ознаки визначається досліджуваним фактором. Якщо коефіцієнт детермінації виражений в процентах, то його слід читати так: варіація (коливання) залежної змінної на стільки-то процентів зумовлена варіацією фактора.

Між лінійним коефіцієнтом кореляції (г) і коефіцієнтом повної регресії (Ь) є такий зв'язок:

Отже, знаючи коефіцієнт кореляції (г) і значення середніх квадратичних відхилень по х і у, можна визначити коефіцієнт регресії (Ь) і навпаки, знаючи коефіцієнт регресії (Ь) і відповідні середні квадратичні відхилення можна обчислити коефіцієнт кореляції (г).

При парній лінійній залежності коефіцієнт кореляції і коефіцієнт повної регресії мають однакові знаки (плюс, мінус).

Властивості коефіцієнта детермінації:

1. Для ЛПР R2=r2.

2. Коефіцієнт детермінації приймає значення на відрізку [0;1], тобто 0≤R2≤1. Чим ближче R2 до одиниці, тим краще регресія апроксимує емпіричні дані.

3. Якщо R2=1, між змінними x та у існує лінійна функціональна залежність.

4. Якщо R2=0, то варіація залежної змінної повністю обумовлена впливом випадкових та неврахованих у моделі змінних.

13. Типові задачі регресійного аналізу

При вивченні імовірнісних залежностей використовується один із найбільш поширених методів опрацювання даних - метод регресійного аналізу. Він складається з визначення загального вигляду рівняння регресії, побудові статистичних оцінок невідомих параметрів, що входять у рівняння регресії, і перевірці статистичних гіпотез про регресію.

Відмінною особливістю рівнянь, які використовуються у цьому випадку, є наявність двох видів змінних - залежних і незалежних. На практиці часто використовують моделі, у яких є одна залежна змінна - функція і декілька

незалежних змінних аргументів:

Y=F(X1,...Xi)

Поділ змінних на залежну і незалежні в регресійному аналізі завжди проводиться на основі змістовних понять.

У найпростішому випадку є одна залежна й одна незалежна змінна, множинна регресія має декількома незалежних змінних (регресорів). Загальна обчислювальна задача яку вирішують при аналізі методом множинної

регресії, складається в припасуванні прямої лінії до деякого набору крапок.

Лінія регресії будується так, щоб мінімізувати квадрати відхилень цієї лінії від крапок, тому цю процедуру іноді називають оцінюванням по методу найменших квадратів.

Пряма лінія на площині (у просторі двох вимірів) задається рівнянням:

Y=a(X +b).

де змінна Y може бути виражена через кутовий коефіцієнт a помножений на змінну X плюс константа b. Кутовий коефіцієнт a називають регресійним коефіцієнтом, а константу b - вільним членом.

Висувається наступна гіпотеза: випадкова величина Y при фіксованому значенні величини X розподілена нормально з математичним очікуванням

My = a( X + b і дисперсією Dy, що не залежить від X.

При наявності результатів спостережень над парами Xi і Yi попередньо обчислюються середні значення My і Mx, а потім вираховується оцінка регресійного коефіцієнта a.

За отриманим регресійним коефіцієнтом a вираховується оцінка вільного члена b, та проводиться перевірка значимості отриманих результатів.

Основне концептуальне обмеження всіх методів регресійного аналізу

полягає в тому, що вони дозволяють знайти тільки числові залежності, а

не причинні зв'язки.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]