Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекція 16.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
442.88 Кб
Скачать

Лекція 16. Елементи теорії регресії. Оцінювання параметрів моделі

16.1. Основні означення.

16.2. Метод найменших квадратів.

16.3. Оцінювання параметрів моделі за методом МНК.

16.4. Питання для самоперевірки.

Обробку емпіричних даних можна розглядати як апроксимацію функції, що задана у вигляді таблиці (це і є емпіричні дані), за допомогою елементарних функцій або їх лінійної комбінації, тобто необхідно визначити формулу, яка дозволяє записати аналітичну залежність між факторами та . В економічних дослідженнях мова, як правило, йде про те, що за даними вибіркової сукупності потрібно знайти статистичні оцінки параметрів рівняння регресії, яка визначає кореляційну залежність між функціональним фактором (внутрішнім фактором) та фактор-аргументом (зовнішнім фактором).

Одним із методів багатовимірної статистики є регресійний аналіз, головне завдання якого полягає в дослідженні детермінованого взаємозв’язку між двома або більше випадковими величинами, визначенні форми цього зв’язку, обчисленні параметрів лінії регресії та перевірці статистичних гіпотез щодо значущості параметрів моделі й адекватності регресійної моделі в цілому, а також прогнозуванні за допомогою цієї моделі.

На відміну від дисперсійного та кореляційного аналізів, які розглядались у попередніх розділах, у межах регресійного аналізу проводиться дослідження детермінованого взаємозв’язку між випадковими величинами, а також побудова регресійної моделі, за допомогою якої можливо прогнозувати розвиток економічних процесів та явищ, що досліджуються, при інших значеннях зовнішніх факторів.

Необхідно розрізняти випадок, коли розглядається кореляційна залежність між двома змінними, тобто , та випадок, коли результативна ознака відображає вплив двох або більшої кількості факторних ознак, тобто , де , – кількість незалежних змінних. У межах регресійного аналізу це, відповідно, випадки парної та множинної регресії. Будемо обмежуватись побудовою теоретичного рівняння парної регресії, що не порушує спільності.

16.1. Основні означення

У загальному випадку проста регресійна модель має вигляд:

(16.1)

де – вектор спостережень, що відповідає незалежній випадковій величині (внутрішній фактор системи):

;

– вектор значень функціонального фактора відповідно до моделі:

, (16.2)

де – функція, за якою здійснюється апроксимація стохастичної залежності, або тренд, тобто тенденція зміни функціонального фактора;

– вектор спостережень, що відповідає незалежній змінній, який у термінах регресійного аналізу ще має назву регресора:

;

– загальна кількість спостережень (обсяг вибіркової сукупності);

– вектор похибок моделі:

.

Оскільки рівняння регресії відображає теоретичні уявлення про зв’язок між ознаками та , то значення, що обчислені відповідно до математичної моделі (16.2), треба відрізняти від емпіричних значень функціонального фактора, тому результати обчислення мають позначку ^.

Однією з передумов застосування як кореляційного, так і регресійного аналізів є нормальний розподіл кожної з випадкових величин і .

Найбільш простою і водночас найбільш поширеною є лінійна модель кореляційного зв’язку. Крім того, в багатьох випадках нелінійний зв’язок між випадковими величинами та також можна перетворити на лінійний шляхом або безпосередньої заміни змінних, або попереднього логарифмування рівняння з подальшою заміною змінних. Так, легко лінеаризуються двопараметричні залежності наступних типів:

, , , ,

тощо, які достатньо часто зустрічаються в економічних дослідженнях. Навіть у тому випадку, коли лінію регресії в цілому не можна апроксимувати однією функцією, її поділяють на відрізки, для кожного з яких апроксимацію проводять окремо. Тобто маємо ламану лінію, кожний відрізок якої характеризується своїм рівнянням регресії, і в цьому випадку зазвичай приймається лінійна залежність між факторами.

Апроксимацією кореляційної залежності для випадку парної лінійної регресії є функція, яку прийнято надавати у вигляді:

, (16.3)

де – кутовий коефіцієнт лінії тренда, що є статистичною оцінкою коефіцієнта регресії на у генеральній сукупності;

– точкова оцінка вільного члена рівняння регресії, що відповідає генеральній сукупності.

У свою чергу, значення параметрів у рівнянні регресії (16.3) теж є результатами обчислення за вибірковою сукупністю, тобто є оцінками параметрів теоретичного рівняння регресії. Щоб підкреслити цю особливість, статистичні оцінки параметрів теж мають позначку ^. Отже, матриця , елементами якої є коефіцієнти рівняння (16.3), є матрицею статистичних оцінок параметрів теоретичного рівняння регресії.

Аналогічно визначається рівняння тренда у випадку парної лінійної регресії на :

, (16.4)

де – кутовий коефіцієнт лінії тренда, який є точковою оцінкою коефіцієнта регресії на ;

– точкова оцінка вільного члена рівняння регресії, що відповідає генеральній сукупності.

Вибіркові рівняння регресії (16.3) і (16.4) є рівняннями, що подані в натуральних змінних. Ці рівняння також зручно надавати в симетричній формі:

та . (16.5)

Вирази, які містяться у лівій та правій частинах цих рівнянь, можна розглядати як нормовані й стандартизовані випадкові величини, як позначаються, відповідно, та :

та .

Відносно стандартизованих змінних спряжені рівняння регресії набувають вигляду:

та . (16.6)

Слід зазначити, що для стандартизованих змінних їх вибіркова середня дорівнює нулю, а дисперсія – одиниці, тобто при розподілі за нормальним законом функцією щільності ймовірностей у генеральній сукупності для цих змінних є функція Гаусса , а функцією розподілу – функція Лапласа .

Якщо розглядати рівняння парної регресії у формі (16.5), то стає зрозумілим сенс коефіцієнта кореляції. Так, якщо випадкова величина збільшується відносно своєї вибіркової середньої на величину , то функціональний фактор за рівнянням тренда матиме приріст, що становить , тобто . Отже, коефіцієнт кореляції визначає, на яку частку від свого середнього квадратичного відхилення змінюється випадкова величина , якщо випадкова величина змінюється на величину свого середнього квадратичного відхилення.

Оскільки значення факторів і , що утворюють вибіркову сукупність , , є емпіричними значеннями випадкових величини, то при визначенні параметрів моделі нема сенсу вимагати повної відповідності між значеннями, що отримані за теоретичним рівнянням регресії, та емпіричними даними для всіх без винятку точок , . Вид функції вибирають відповідно до теоретичного припущення про характер зв’язку між факторами або за виглядом емпіричних ліній регресії. З урахуванням цих уточнень задача регресійного аналізу полягає в тому, щоб визначити функцію у вигляді , яка в при значеннях аргументу відповідно приймає значення , що найбільш близькі до емпіричних даних. Для розв’язання цієї задачі може використовуватись кілька методів, серед яких найбільш поширеним є метод найменших квадратів.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]