
Тема 11. Статистичні методи
вимірювання взаємозв’язків
Базові поняття і терміни
Суспільні явища, що впливають на інші явища, називають ознаками-факторами, або факторними ознаками (х).
Явища, які змінюються під впливом факторних явищ, називають результативними (наслідковими) ознаками (у).
Види зв'язків суспільних явищ
1) за характером дії:
функціональні зв'язки - це зв'язки, за яких кожному можливому значенню факторної ознаки х відповідає чітко визначене значення результативної ознаки - у, тобто функціональні зв'язки характеризуються повною відповідністю між причиною і наслідком, факторною і результативною ознаками. Вони вивчаються у статистиці за допомогою Індексного методу.
стохастичні зв'язки виявляються як узгодженість варіації двох чи більше ознак. У ланці зв'язку "х → у" кожному значенню ознаки х відповідає певна множина значень ознаки у, які утворюють так званий умовний розподіл. f
кореляційні зв'язки — це різновид стохастичних зв'язків, коли умовні розподіли замінюються одним параметром -середньою у,.
Схематична ілюстрація класифікації зв'язків за характером дії наведена в таблиці 7.1;
Види взаємозв'язків за характером дії
Таблиця 7.1.
Факторна ознака, Хi |
Результативна ознака y при наявності зв’язку |
||
функціонального |
стохастичного |
кореляційного |
|
Х1 |
У1 |
У1У2 |
|
Х2 |
У2 |
У1У2У3 |
|
Х3 |
У3 |
У2У3У4 |
|
… |
… |
… |
… |
Хn |
Уn |
Уn-1Уn |
|
2) За напрямком дії
Прямий зв'язок - це такий зв'язок, при якому зі збільшенням
або зменшенням значень факторної ознаки відповідно збільшується або зменшується значення результативної ознаки, тобто факторна і результативна ознаки змінюються в одному напрямку.
Оберненим зв'язком називають такий зв'язок, при якому значення результативної ознаки змінюється у протилежному напрямку відносно зміни значення факторної ознаки.
3)За формою аполітичного вираження
Прямолінійні зв'язки - це зв'язки, за яких залежність результативної ознаки від певної ознаки-фактора може бути виражена рівнянням прямої лінії.
Криволінійні зв'язки - це зв'язки, за яких залежність результативної ознаки від певної ознаки-фактора може бути виражена рівнянням якої-небудь кривої (гіперболи, параболи та ін.)
За кількістю ознак-факторів
Одно факторний зв'язок — це зв'язок, за якого досліджується залежність результативної ознаки тільки від однієї ознаки-фактора.
Багатофакторний зв'язок — це зв'язок, за якого досліджується кореляційна залежність результативної ознаки одночасно від декелькох ознак-факторів.
Статистичні методи вивчення взаємозв'язків
Для вивчення функціональних зв'язків використовують такі методи:
індексний метод (див. розділ 10);
балансовий метод, який виражається в побудові натуральних, трудових та вартісних балансів;
графічний метод, при якому напрям зв'язку визначають за положенням значень у системі координат: якщо точки розміщені зліва, знизу, праворуч, вгору - зв'язок прямий, якщо ж навпаки (зліва, зверху, праворуч, вниз)-зв'язок обернений.
Для вивчення стохастичних зв 'язків використовуються такі методи:
метод порівняння паралельних, рядів;
метод аналітичних групувань;
дисперсійний аналіз;
кореляційний аналіз,
Метод порівняння паралельних рядів полягає у вивченні отриманих у результаті зведення матеріалів, розміщених паралельними рядами або за ознакою простору або за ознакою часу.
Для орієнтовного виявлення наявності зв'язку та його направленості у випадках, коли порівнювальні ряди містять велику кількість одиниць, доцільно знайти для кожного ряду середню і визначити, в яку сторону відхиляється від неї значення ознаки кожної одиниці.
Якщо відхилення в одному ряді достатньо часто збігається за направленістю (знаком) з відхиленням у другому ряді, то доцільно вести мову про прямий зв'язок, а якщо частіше зустрічаються протилежні за направленістю (знаком) відхилення, то - зв'язок обернений. Якщо збіг і незбіг знаків відхилень зустрічається приблизно однаково часто, то зв'язку або немає, або він мало виражений.
Для приблизного визначення направленості зв'язку та грубої оцінки щільності зв'язку може бути використаний коефіцієнт Фішера:
де з — кількість випадків збігу знаків відхилень;
Н - кількість випадків незбігу знаків відхилень.
Цей коефіцієнт набуває значення від +1 (знаки усіх відхилень збігаються - зв'язок прямий) до -1 (знаки усіх відхилень не збігаються - зв'язок обернений). При К=0 зв'язок відсутній, або він дуже слабкий.
Метод аналітичного групування полягає в тому, що всі елементи сукупності групують, як правило, за факторною ознакою х і в кожній групі обчислюють середні значення результативної ознаки у, тобто лінія регресії оцінюється лише в окремих точках, які відповідають певному значенню х.
При визначенні кількості груп і меж інтервалів слід зважити на той факт, що типовість та сталість групових середніх залежить від чисельності груп. На практиці аналітичне групування часто виконується за принципом рівних інтервалів, що значно спрощує подальший аналіз зв'язку.
Побудовану за результатами аналітичного групування таблицю називають кореляційною таблицею. Якщо частоти у кореляційній таблиці розташовані по діагоналі з лівого верхнього кута у правий нижній кут, тобто більшим значенням фактора відповідають більші значення функції, то передбачається наявність прямого кореляційного зв'язку між ознаками. Якщо ж частоти розташовані по діагоналі з правого кута у лівий, то передбачають наявність оберненого зв'язку між ознаками.
На другому етапі проводиться оцінка лінії регресії - у кожній групі за факторною ознакою обчислюють середні значення результативної та факторної ознак. Групові середні обчислюють за вихідними незгрупованими даними.
Крім того аналітичне групування
дає змогу встановити кількісні
співвідношення між ознаками, що
вивчаються. Можна не лише стверджувати,
що існує кореляційний зв'язок між
факторною х і
результативною у ознаками,
а й визначити, як у середньому змінюється
у зі зміною
х на одиницю-
Ефекти впливу х на
у визначаються
відношенням приростів середніх групових
і т.д.
Третій етап аналітичного групування - вимірювання тісноти зв'язку за допомогою дисперсійного аналізу.
Основною метою дисперсійного аналізу є виявлення впливу окремих факторів чи умов, які визначають варіацію ознаки. В основі дисперсійного аналізу лежить закон розкладання загальної дисперсії на складові, згідно якого загальна дисперсія результативної ознаки у складається із двох частин: міжгрупової (факторної") дисперсії та середньої з групових (залишкової1).
Взаємозв'язок факторної та
залишкової варіації описується правилом
розкладання дисперсії:
Загальна дисперсія характеризує варіацію результативної ознаки під впливом всіх факторів і причин, як систематично діючих, так І випадкових. Загальна дисперсія результативної ознаки обчислюється за індивідуальними значеннями ознаки у.
Міжгрупова дисперсія характеризує варіацію групових середніх, тобто варіацію результативної ознаки, яка пов'язана з варіацією групувальної факторної ознаки.
Середня з групових дисперсій характеризує варіацію результативної ознаки, пов'язану з варіацією всіх факторних ознак, крім" тієї, яка покладена в основу групування.
або
Суть дисперсійного аналізу полягає у зіставленні (порівнянні) між собою різних видів дисперсій: міжгрупової та загальної, загальної та внутрішньогрупової, міжгрупової та внутрішньогрупової.
Відношення міжгрупової (факторної") дисперсії до загальної розглядається як міра щільності кореляційного зв'язку і називається коефіцієнтом детермінації.
За статистичною структурою це відношення є часткою варіації результативної ознаки у, яка пов'язана з варіацією ознаки х. Здобувши квадратний корінь із цього відношення, одержуємо емпіричне кореляційне відношення.
Кореляційне відношення
змінюється від 0 до 1.
Якщо
,
міжгрупова дисперсія дорівнює
нулю. Це можливо лише за умови, коли всі
групові середні однакові і кореляційний
зв'язок між ознаками
відсутній. При
міжгрупова
дисперсія дорівнює загальній, а середня
з групових — нулю. В цьому
випадку кожному значенню факторної
ознаки відповідає єдине значення
результативної ознаки, тобто зв'язок
між ознаками функціональний.
Індекс кореляції визначають зіставленням внутрішньогрупової і загальної дисперсії, і обчислюють за формулою:
Чим ближче R
до 1, тим тісніший
зв'язок між ознаками. Перевірка істотності
відхилень групових середніх здійснюється
за допомогою критеріїв математичної
статистики. Вона ґрунтується на
порівнянні фактичного значення
з так званим критичним.
Останнє є тим максимально можливим
значенням кореляційного відношення,
яке може виникнути випадково при
відсутності кореляційного зв'язку.
Якщо фактичне значення
більше від критичного, то
зв'язок між результативною і факторною
ознаками вважається істотним. Якщо
фактичне значення
менше критичного, то
наявність кореляційного зв'язку між
ознаками не доведена і зв'язок вважається
неістотним.
Для оцінки надійності кореляційних характеристик використовують критерії Фішера F або Стьюдента t.
Критерій Фішера (F- критерій) визначається за формулою
де
- міжгрупова дисперсія;
- середня з групових (залишкова)
дисперсія;
k1 і k2 - ступені вільності для великої і малої дисперсій.
Фішер знайшов розподіл відношень дисперсій і розробив відповідні математичні таблиці, в яких наводиться теоретичний F-критерій (FT) при двох ймовірностях 0,95 і 0,99. Якщо Рф > FT, то з прийнятим ступенем ймовірності можна стверджувати про наявність впливу фактору, який вивчається. Коли ж Рф < Fr , то різниця між дисперсіями зумовлена впливом випадкових факторів.
Розподіл у таблицях Фішера для знаходження FT залежить від ступенів вільності міжгрупової kj і середньої з групових кг дисперсій. В аналітичному групуванні їх обчислюють за формулами:
де n - кількість елементів досліджуваної сукупності; т - число груп.
Надійність кореляційного відношення за критерієм Стьюдента (t - критерію) визначається за формулою:
де
- середня похибка
кореляційного відношення
Якщо критерій Стьюдента > 3, показник кореляційного відношення вважають вірогідним (тобто зв'язок між досліджуваними явищами є доведеним). Якщо ж критерій t < З, то висновки про вірогідність зв'язку між досліджуваними явищами сумнівні.