Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Курс лекцій.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
919.04 Кб
Скачать

Величина y називається залежною змінною, результуючим фактором (ознакою), ендогенною змінною. Величина X називається незалежною змінною, екзогенною змінною.

Залежність математичного очікування випадкової величини Y від значень змінної X називається кореляційною залежністю.

= φ(x). (2.1)

Рівняння (2.1) називається рівнянням регресії, φ(x) – функцією регресії, її графік – лінією регресії.

За результатами дослідів можна одержати:

ŷ = , (2.2)

де ŷ – умовна (групова) середня змінної Y; – параметри рівняння регресії.

Рівняння (2.2) називається вибірковим рівнянням регресії.

2.1. Лінійна парна регресія

Рівняння лінійної парної регресії має вигляд

ŷ . (2.3)

Відповідно до методу найменших квадратів (МНК) невідомі параметри й вибираються таким чином, щоб сума квадратів відхилень емпіричних значень від значень , що знайдені за рівнянням регресії (2.3), була мінімальною:

. (2.4)

На підставі необхідної умови екстремуму функції двох змінних (2.4) дорівнюємо до нуля її частинні похідні, тобто

звідки після перетворень одержимо систему нормальних рівнянь для визначення параметрів лінійної системи:

(2.5)

Тепер, розділивши обидві частини рівняння (2.5) на n, одержимо систему нормальних рівнянь у вигляді:

(2.6)

де відповідні середні визначаються за формулами

Підставляючи значення з першого рівняння системи (2.6) у рівняння регресії (2.3), одержимо

, (2.7)

де – вибірковий коефіцієнт регресії; – вибірковий кореляційний момент або вибіркова кореляція; – вибіркова дисперсія змінної X:

, .

Величина називається вибірковим коефіцієнтом кореляції. Він показує, на скільки величин зміниться Y, якщо X зміниться на одне .

. (2.8)

Підставивши у вираз (2.8) вихідні дані, одержимо:

(2.9)

Коефіцієнт кореляції має наступні властивості:

  1. він приймає значення на відрізку [–1; 1], тобто . Чим ближче |r| до 1, тим тісніше кореляційний зв'язок.

  2. при кореляційний зв'язок стає функціональним. При цьому всі спостережувані значення лежать на одній лінії.

  3. при кореляційний зв'язок відсутній та лінія регресії паралельна осі x.

При r > 0 (b1 > 0) кореляційний зв'язок називається прямим.

При r < 0 (b1 < 0) кореляційний зв'язок називається зворотним.

3. ОСНОВНІ ПОЛОЖЕННЯ РЕГРЕСІЙНОГО АНАЛІЗУ. ОЦІНКА ПАРАМЕТРІВ РЕГРЕСІЙНОЇ МОДЕЛІ. ТЕОРЕМА ГАУСА–МАРКОВА. ІНТЕРВАЛЬНА ОЦІНКА ФУНКЦІЇ РЕГРЕСІЇ ТА ЇЇ ПАРАМЕТРІВ

3.1. Основні положення регресійного аналізу

Як відзначено в розділі 2, розглянута в регресійному аналізі залежність Y від X може бути представлена у вигляді модельного рівняння регресії:

= φ(X).

Окремі виміри величини Y будуть відрізнятися від обчислених значень за рахунок неврахованих факторів і помилок спостереження

Y = φ(X) + ε,

де ε – випадкова величина, що називається збуренням або помилкою.

Для лінійної моделі ці рівняння мають вигляд

. (3.1)

Спостережувані значення величини y визначаються за формулою:

. (3.2)

Основні передумови регресійного аналізу:

  1. У моделі (3.2) збурення (або ) є випадковою величиною, а – невипадковою величиною.

  2. Математичне очікування збурення дорівнює нулю:

.

  1. Дисперсія збурення (або ) є постійною величиною для будь-якого номера :

або .

Ця умова називається умовою гомоскедастичності (рівномінливості).

  1. Збурення та не корельовані:

, якщо .

  1. Збурення (або ) мають нормальні розподіли.