- •1. Основні теоретичні положення регресійного аналізу
- •1.1. Кореляційна залежність
- •1.2. Основні математичні поняття,
- •1.3. Передумови використання
- •2. Парний регресійний аналіз
- •2.1. Лінійна парна регресія
- •2.2. Властивості оцінок
- •2.3. Лінійний коефіцієнт кореляції
- •2.4. Коефіцієнт детермінації
- •2.5. Оцінка значущості рівняння регресії
- •2.6. Прогноз залежної змінної.
- •2.7. Приклад 1.
- •2.8. Нелінійна парна регресія
- •2.9. Дослідження нелінійних рівнянь
- •2.10. Приклад 2.
- •2.11. Побудова функції парної регресії
- •2.12. Побудова графіку функції
- •2.13. Питання для самоперевірки
- •3. Багатофакторний регресійний аналіз
- •3.1. Класична нормальна лінійна модель
- •3.2. Коефіцієнти детермінації і кореляції.
- •3.3. Перевірка значущості параметрів
- •3.4. Прогноз залежної змінної
- •3.5. Приклад 3. Знаходження двофакторної моделі
- •3.6. Використання пакету анализ данных
- •3.7. Використання Excel для розрахунку
- •Введення і підготовка даних
- •4. Мультиколінеарність
- •4.1. Поняття і наслідки мультиколінеарності
- •4.2. Алгоритм Фаррара – Глобера
- •4.3. Приклад 4.
- •4.5. Питання для самоперевірки
- •5. Гетероскедастичність
- •5.1. Поняття гетероскедастичності
- •5.2. Виявлення гетероскедастичності.
- •5.3. Приклад 5. Дослідження даних
- •5.4. Виявлення гетероскедастичності.
- •5.5. Приклад 6. Дослідження даних
- •5.6. Непараметричний тест Гольдфельда-Квандта
- •5.7. Питання для самоперевірки
- •6. Автокореляція
- •6.1. Поняття автокореляції.
- •6.2. Критерій Дарбіна-Уотсона
- •6.3. Приклад 7. Дослідження моделі на наявність
- •6.4. Питання для самоперевірки
- •7. Індивідуальні комплексні завдання
- •Завдання 2
- •Завдання 3
- •Завдання 4
- •Завдання 5
- •Предметний покажчик
- •Література
- •Коефіцієнтів автокореляції залишків
- •Критичні значення і для коефіцієнта автокореляції залишків критерія Дарбіна-Уотсона для
- •Критичні значення і для коефіцієнта автокореляції залишків критерія Дарбіна-Уотсона для
- •Значення критерія Пірсона
- •Квантилі розподілу Стьюдента
- •83050, М. Донецьк, вул. Щорса, 31.
- •83023, М. Донецьк, вул. Харитонова, 10
2.2. Властивості оцінок
Оцінки параметрів моделі повинні задовольняти умовам:
обґрунтованості,
незміщеності,
ефективності.
Оцінка називається обґрунтованою, якщо для довільного, як завгодно малого числа виконується умова
.
Іншими словами, оцінка вважається обґрунтованою , якщо вона задовольняє закону великих чисел. Закон великих чисел у формі Чебишева стверджує, що вибіркове середнє є обґрунтованою оцінкою математичного сподівання генеральної сукупності. Так як оцінки виражаються через середні величини, які є обґрунтованими оцінками, то і є обґрунтованими оцінками.
Властивість незміщеності означає, що математичне сподівання оцінки параметра дорівнює значенню параметра :
.
Зміщення оцінки визначається так
.
Наявність зміщення або його відсутність може бути перевірена з допомогою відношення середнього квадратичного відхилення до абсолютної величини оцінки . Якщо
,
то роблять висновок про зміщеність оцінки.
Незміщена оцінка називається ефективною, якщо вона має найменшу дисперсію, серед всіх можливих незміщених оцінок параметра , обчислених на основі вибірок однакового обсягу .
Для 1МНК оцінок справедлива теорема Гаусса – Маркова: при виконанні передумов до застосування 1МНК, оцінки 1МНК є найбільш ефективними, тобто мають найменшу дисперсію в класі лінійних незміщених оцінок (Best Linear Unbiased Estimator або BLUE). Доведення теореми буде розглянуто пізніше.
Іноді окремо виділяють четверту властивість оцінок - інваріантність. Оцінки параметрів називаються інваріантними, якщо оцінкою довільної функції буде функція . Ця властивість дає можливість, знаючи одні оцінки параметрів, знаходити інші, якщо останні виражаються через перші.
2.3. Лінійний коефіцієнт кореляції
Лінійний коефіцієнт кореляції характеризує тісноту і напрям лінійного зв’язку між змінними і .
Лінійний коефіцієнт кореляції може обчислюватися за формулами
; (2.3.1)
; (2.3.2)
; (2.3.3)
, (2.3.4)
де – вибіркові середні квадратичні відхилення відповідно і .
Властивості коефіцієнта кореляції
1о |
Коефіцієнт приймає значення на відрізку , тобто . Чим ближче до 1, тим тісніший зв’язок. |
2о |
Якщо , то зв’язок прямий, якщо – зв’язок обернений. При прямому (оберненому) зв’язку збільшення пояснювальної змінної веде до збільшення (зменшення) залежної змінної. |
3о |
При зв’язок між і функціональний. |
4о |
При лінійний зв’язок між і відсутній. |
Поряд з коефіцієнтом кореляції, одним із показників, що характеризують кількісний зв’язок між залежною і незалежною змінними є коефіцієнт еластичності. Для лінійної парної регресійної моделі даний коефіцієнт розраховується за формулою
. (2.3.5)
Він показує, на скільки відсотків в середньому зміниться залежна змінна при зміні незалежної змінної в середньому на один відсоток при інших незмінних умовах.
Якщо модель є нелінійною, то для характеристики еластичності зв’язку розраховують середній коефіцієнт еластичності або коефіцієнт еластичності для певної точки . Середній коефіцієнт еластичності показує, на скільки відсотків у середньому по сукупності зміниться результат від своєї середньої величини при зміні фактору х на 1% від свого середнього значення:
, (2.3.6)
де – перша похідна при .
Коефіцієнт еластичності для певної точки обчислюється за формулою
. (2.3.7)