Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Рабочие тетради №2-9 / Рабочая тетрадь_7

.doc
Скачиваний:
25
Добавлен:
02.05.2014
Размер:
1.17 Mб
Скачать

7

71

. Статистические методы изучения взаимосвязи социально-экономических явлений

Корреляционная связь (частный случай стохастической) – связь, проявляющаяся при достаточно большом числе наблюдений в виде определенной зависимости между средним значением результативного признака и признаками-факторами.

Изучение корреляционных связей сводится в основном к решению следующих задач:

  • выявление наличия (или отсутствия) корреляционной связи между изучаемыми признаками;

  • измерение тесноты связи между двумя (и более) признаками с помощью специальных коэффициентов. Корреляционный анализ;

  • определение уравнения регрессии – математической модели, в которой среднее значение результативного признака у рассматривается как функция факторных признаков. Регрессионный анализ.

Задача корреляционного анализа – измерение тесноты связи между варьируемыми признаками и оценка факторов, оказывающих наибольшее влияние.

Задача регрессионного анализа – выбор типа модели (формы связи), устанавливающих степени влияния независимых переменных.

7

72

.1. Корреляционный анализ

Различают:

  • парную корреляцию – это зависимость между результативным и факторным признаком;

  • частную корреляцию – это зависимость между результативным и одним факторным признаком при фиксированном значении других факторных признаков;

  • множественную – многофакторное влияние в статической модели .

К простейшим показателям тесноты связи относятся:

  • линейный коэффициент корреляции Пирсона;

  • коэффициент детерминации;

  • коэффициенты корреляции знаков – для оценки тесноты связи качественных признаков (непараметрические методы), Г. Фехнера, К. Спирмэна, М. Кэндэла.

7

73

.1.1. Параллельное рассмотрение значений х и у у n единиц

Коэффициент Фехнера (коэффициент корреляции знаков) основан на сравнении поведения отклонений индивидуальных значений каждого признака (х и у) от своей средней величины. При этом во внимание принимаются не величины отклонений () и (), а их знаки (“+” или “–”). Определив знаки отклонения в каждом ряду, рассматривают все пары знаков и подсчитывают число их совпадений. Если совпадение знаков обозначить С, а несовпадений – Н, то коэффициент Фехнера:

. (7.1)

Как и любой показатель тесноты связи коэффициент Фехнера может принимать значения от –1 до +1 (). Если ΣН=0, знаки всех отклонений совпадают и Кф = 1. Если ΣС=0, знаки всех отклонений не совпадают и Кф = 0.

П

74

ример 7.1. С помощью коэффициента Фехнера определить степень и направление связи между признаками.

Таблица 7.1

Производство продукции в смену, шт.

х

10

11

12

13

14

15

Σx=75

12,5

Себестоимость единицы изделия, руб.

у

20

21

18

20

17

15

Σy=111

18,5

Знаки отклонений от средней величины

+

+

+

+

+

+

Совпадение знаков – С

Несовпадение знаков – Н

Н

Н

С

С

Н

Н

– связь обратная, слабая.

7

75

.1.2. Линейный коэффициент корреляции

Линейный коэффициент корреляции представляет собой среднюю величину из произведений нормированных отклонений для х и у:

. (7.2)

и как постоянные величины можно вынести за знак суммы, тогда

. (7.3)

Числитель формулы (7.3), деленный на n, т.е.

, (7.4)

представляет собой среднее произведение отклонений значений признаков от их средних, именуемое ковариацией.

М

76

одификации формулы линейного коэффициента корреляции:

; (7.5)

; (7.6)

; (7.7)

, (7.8)

где a1 – коэффициент регрессии в уравнении связи (см. подраздел 7.2).

Домашнее задание: вывести формулу (7.5) из формул (7.3, 7.6, 7.7)

Л

77

инейный коэффициент корреляции может принимать значения от –1 до +1 () (табл. 7.2).

Таблица 7.2

Оценка линейного коэффициента корреляции

Значение r

Характер связи

Интерпретация связи

r = 0

Отсутствует

Изменение x не влияет на изменения y

0 < r < 1

Прямая

С увеличением x увеличивается y

–1 > r > 0

Обратная

С увеличением x уменьшается y и наоборот

r = 1

Функциональная

Каждому значению факторного признака строго соответствует одно значение результативного

О

78

ценка существенности r основана на сопоставлении r с его средней квадратической ошибкой: .

Для достаточно большого числа наблюдений (n>50):

. (7.9)

Если > 3 – r считается значимым, а связь существенной.

При небольшом числе наблюдений (n<30)

. (7.10)

Определяется расчетное значение t-критерия Стьюдента:

, (7.11)

79

Пример 7.2. Определить тесноту связи между х и у

Таблица 7.3

Номер п/п

2

2

1

2

3

4

5

6

1

1

20

1

20

400

2

2

25

4

50

625

3

3

31

9

93

961

4

4

31

16

124

961

5

5

40

25

200

1600

6

6

56

36

336

3136

7

7

52

49

364

2704

8

8

60

64

480

3600

9

9

60

81

540

3600

10

10

70

100

700

4900

Сумма

55

445

385

2907

22487

Средняя величина

=5,5

=44,5

=38,5

=290,7

=2248,7

Е

80

сли отобразить имеющиеся данные на диаграмме рассеяния (рис. 7.1), то видно, что рассматриваемые признаки находятся в достаточно тесной линейной зависимости. Проверим это на основе расчета линейного коэффициент корреляции.

,

млн. руб.

, млн. руб.

Рис. 7.1. Диаграмма рассеяния

Р

81

ассчитаем по данным табл. 7.3 (итоговые суммы гр. 2,3,4,6) и :

=2,872;

=16,384.

Рассчитываем линейный коэффициент корреляции по формуле (7.5)

=0,976 – сильная прямая связь между x и y.

Расчетное значение t-критерия Стьюдента:

> tкр=2,306,

из ччего можно сделать вывод о значимости рассчитанного коэффициента корреляции.

Домашнее задание: найти r, используя формулы (7.6) – (7.8) с помощью Ms Excel

7

82

.2. Регрессионный анализ

7.2.1. Парная регрессия

линейная . (7.12)

полулогарифмическая ; (7.13)

показательная ; (7.14)

степенная ; (7.15)

параболическая ; (7.16)

гиперболическая . (7.17)

83

Для оценки параметров уравнений регрессии наиболее часто применяют метод наименьших квадратов (МНК)суть которого (для линейной зависимости):

. (7.18)

Дальнейшее решение сводится к задаче на экстремум, т.е. к определению того, при каком значении а0 и а1 функция двух переменных S может достигнуть минимума.

Как известно для этого надо найти частные производные S по а0 и а1, приравнять их к нулю и после элементарных преобразований решить систему двух уравнений с двумя неизвестными.

Найдем частные производные и приравняем их к нулю

(7.19)

С

84

ократив каждое уравнение на –2, раскрыв скобки и перенеся члены с x в одну сторону, а с y – в другую, получим систему нормальных уравнений МНК для линейной парной регрессии

(7.20)

Отсюда можно выразить коэффициенты регрессии:

;

(7.21)

.

Коэффициент регрессии а0 иногда называют константой уравнения связи.

Домашнее задание: составить систему нормальных уравнений МНК для других видов зависимостей.

К

85

оэффициент эластичности Э

. (7.22)

Для линейной регрессии . (7.23)

Более точно коэффициент эластичности определяют

, (7.24)

где – первая производная уравнения регрессии у по х.

Для линейной зависимости

. (7.25)