Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

3. Учебно-методическое обеспечение дисциплины(твимс 36л)

.pdf
Скачиваний:
40
Добавлен:
21.03.2016
Размер:
962.78 Кб
Скачать

При формулировке вывода руководствуются следующим правилом:

Если наблюдаемое значение критерия Uнабл попало в область принятия гипотезы, то нет оснований отвергать нулевую гипотезу, по данным

наблюдения р = р0, расхождение между гипотетической р0 и

статистической m вероятностями случайное; n

если наблюдаемое значение критерия Uнабл попало в критическую область, то нулевая гипотеза отвергается, справедлива конкурирующая гипотеза, расхождение между гипотетической и статистической вероятностями значимо.

Тема 10. Корреляционно-регрессионный анализ

Лекция 1

1.Функциональная, статистическая зависимости. Условные распределения. Условные средние. Корреляционная зависимость. Уравнение регрессии.

2.Линейная корреляционная зависимость. Коэффициент корреляции, его свойства. Проверка значимости коэффициента корреляции. Коэффициент детерминации и его экономический смысл. Оценивание параметров выборочного уравнения линейной регрессии методом наименьших квадратов.

Лекция 2

1.Нелинейная корреляционная зависимость. Корреляционное отношение, его свойства. Проверка значимости корреляционного отношения.

2.Простейшие случаи нелинейной корреляционной зависимости: параболическая, гиперболическая. Отыскание параметров уравнений регрессии методом наименьших квадратов.

Линейная корреляционная зависимость. Коэффициент корреляции, проверка

его значимости. Линейное уравнение регрессии

Признаки Х и Y находятся в корреляционной зависимости, если каждому значению одного признака xi соответствует определенная условная средняя yxi другого признака.

Парная корреляционная зависимость будет линейной, если она приближенно выражается линейной функцией. Вид зависимости можно определить графически. С этой целью строятся точки с координатами (xi ,

31

yxi ). По расположению построенных точек подбирается линия. Если это

будет прямая, то связь линейная.

Целью корреляционного анализа является оценка тесноты связи между признаками. Для этого находится выборочный линейный коэффициент корреляции по формуле

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

r

 

xy x y

,

 

 

 

 

 

 

 

в

x y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где x , y , xy – выборочные средние; x , y

– выборочные средние

квадратические отклонения.

 

 

 

 

 

 

 

 

 

Так как коэффициент корреляции rв

рассчитывается по выборочным

данным и является оценкой генерального коэффициента корреляции rген , то необходимо проверить значимость rв . С этой целью выдвигаются нулевая и

конкурирующая гипотезы:

Н0: rген = 0, Н1: rген 0.

Нулевая гипотеза проверяется при заданном уровне значимости с помощью случайной величины T , имеющей распределение Стьюдента с k = n – 2 степенями свободы:

T rв n 2 .

1 rв2

По выборочным данным рассчитывают Тнабл, а по таблице критических точек распределения Стьюдента находим tкрит.дв( , k) с учетом двусторонней

критической области. Сравниваем Тнабл и tкрит.дв( , k).

Если Тнабл tкрит.дв( , k), то есть наблюдаемое значение критерия попало в область принятия гипотезы, то нет оснований отвергать нулевую гипотезу,

по данным наблюдения

rген = 0,

rв незначим, признаки Х и Y

некоррелированны. А

если

Тнабл попало в критическую область, то есть

Тнабл tкрит.дв( , k),

то

нулевую

гипотезу отвергаем, справедлива

конкурирующая, то есть rген 0, rв значим, признаки Х и Y коррелированны.

С помощью rв анализируем тесноту взаимосвязи между признаками X и Y. Чем ближе rв к единице, тем теснее связь между признаками, чем ближе

rв к нулю, тем связь слабее.

 

 

 

 

Далее

находим

коэффициент

детерминации

по

формуле

D = r 2 100 %,

который

показывает,

на

сколько процентов

в среднем

в

 

 

 

 

 

 

вариация результативного признака

Y

объясняется за

счет

вариации

факторного признака X.

 

 

 

 

 

 

Следующим этапом

является регрессионный анализ, с помощью

которого корреляционную

зависимость

между признаками

 

приближенно

выражаем в виде линейного уравнения

регрессии вида

 

x a0 + a1

 

.

y

x

 

 

 

32

Неизвестные параметры a0 и a1 находятся методом наименьших квадратов. Применяя этот метод, получаем следующую систему нормальных уравнений:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a1 x y

 

a0

 

 

 

 

 

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

xy

 

a0 x a1 x

 

 

Решая систему, находим оценки параметров a0 и a1. Уравнение

регрессии можно записать в

 

таком

 

виде:

y

x

y

= a1(x

x

),

где

a1 x y x y .

2x

Параметр a1 коэффициент регрессии – показывает, как изменится в среднем результативный признак, если факторный признак увеличится на единицу своего измерения. Уравнение регрессии можно использовать для

прогнозирования (предсказания).

Простейшие случаи нелинейной корреляционной зависимости. Корреляционное отношение.

Нелинейное уравнение регрессии

Простейшие случаи парной нелинейной корреляционной зависимости – это гиперболическая и параболическая. Их уравнения регрессии,

соответственно, имеют вид:

yx a0 ax1 ; yx a0 a1 x a2 x2. .

Как и в случае линейной зависимости, параметры ai , i = 0,1,2 находятся методом наименьших квадратов, который дает следующие системы нормальных уравнений.

Для гиперболической зависимости:

a

 

a

 

 

 

 

 

 

1 x

y

 

0

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1 x a2 1 x

2

1 x y .

a0

 

Для параболической зависимости:

a

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

a x a

2

x2 y

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a1 x2 a2 x3 xy

a0 x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

a1 x3 a2 x4 x2 y.

a0 x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Параметры ai, находим, решая эти системы нормальных уравнений. Теснота взаимосвязи между признаками в нелинейной зависимости

измеряется с помощью корреляционного отношения, рассчитываемого по формуле:

33

 

 

Dм/гр

,

 

 

 

 

Dобщ

где Dобщ общая дисперсия признака Y;

Dм/гр межгрупповая дисперсия признака Y.

Общая дисперсия результативного признака Y складывается из двух

дисперсий: межгрупповой и внутригрупповой, то есть Dобщ = Dм/гр + Dвн/гр. Межгрупповая дисперсия Dм/гр характеризует вариацию признака Y за счет учтенного фактора, а внутригрупповая дисперсия Dвн/гр – за счет неучтенных факторов.

 

 

 

 

 

 

 

 

1

s

 

 

1

k

 

 

 

 

 

 

 

 

 

 

 

Dобщ =

( yi

 

)2 my ; Dм/гр =

(

 

x

 

 

)2 mx

,

 

 

 

 

 

 

 

y

y

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i

 

 

n j 1

j

j

 

 

 

 

 

 

 

 

n i 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где yi – значение признака Y, i = 1,s;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

условная средняя признака Y,

j = 1, k ;

 

 

 

 

 

y

j

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y

– общая средняя признака Y;

 

 

 

 

 

 

 

 

 

 

 

m y

i

– частота значений признака Y;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

mx

j

– частота значений признака X;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n – объем выборки (сумма всех частот).

 

 

 

 

 

 

 

 

 

Корреляционное отношение изменяется от 0 до 1, то есть 0 1. Чем

ближе к 0, тем слабее связь между результативным признаком Y и

учтенным фактором Х, чем ближе к 1 – тем эта связь сильнее.

 

 

 

 

 

 

С

помощью корреляционного

отношения можно оценить тесноту

взаимосвязи между признаками и в случае линейной зависимости, так как rв = в случае линейной зависимости.

34