Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Конспект лекций по курсу Мн_ст_анализ.doc
Скачиваний:
68
Добавлен:
01.02.2015
Размер:
366.59 Кб
Скачать

Лекция 4

Вопросы лекции:

4.1. Условия, которые допускают использование регрессионного анализа.

4.2. Парная регрессия.

4.3. Стадии парного регрессионного анализа.

4.4. Поле корреляции.

4.5. Определение параметров уравнения регрессии.

4.6. Нормированный коэффициент регрессии и проверка значимости.

4.1. Условия, которые допускают использование регрессионного анализа

Это статистический метод установления формы и изучения связей между метрической зависимой переменной и одной или несколькими независимыми переменными.

Как правило, регрессионный анализ используют в следующих случаях.

  1. Действительно ли независимые переменные обуславливают значимую вариацию зависимой переменной. Другими словами, действительно ли эти переменные взаимосвязаны?

  2. В какой степени вариацию зависимой переменной можно объяснить независимыми переменными (здесь идет разговор о тесноте связи)?

  3. Требуется определить форму связи, т.е. математическое уравнение, описывающее зависимость между зависимой и независимой переменными.

  4. Требуется предсказать значения зависимой переменной.

  5. Требуется контролировать другие независимые переменные при определении вкладов конкретной переменной.

В регрессионном анализе используются такие термины, как зависимая или критериальная переменная и независимая переменная (предиктор). Эти термины отражают наличие математической зависимости между переменными.

Рассмотрим последовательно сперва парную, а затем множественную регрессию.

4.2. Парная регрессия

Это метод установления математической зависимости между одной метрической зависимой (критериальной) переменной и одной метрической независимой переменной (предиктором). В значительной мере этот анализ аналогичен определению простой корреляции между двумя переменными. Однако для того, чтобы вывести уравнение, необходимо одну переменную представить как зависимую, а другую как независимую.

С парным регрессионным анализом связаны следующие статистики.

Мы приведем статистики и термины, относящиеся к парному регрессионному анализу.

Модель парной регрессии. Основное уравнение регрессии имеет вид

Yi = o + 1Xi + ei,

где Yзависимая или критериальная переменная,

Х - независимая переменная или предиктор,

o – точка пересечения прямой регрессии с осью OY,

1 – тангенс угла наклона прямой,

eiостаточный член (остаток), связанный с i-м наблюдением, характеризующий отклонение от функции регрессии.

Примечание: в отдельных источниках этот член уравнения называют также ошибочным (ошибкой) или возмущающим членом (возмущением).

Коэффициент детерминации. Тесноту связи измеряют коэффициентом детерминации r2 . Он колеблется в диапазоне между 0 и 1 и указывает на долю полной вариации Y, которая обусловлена вариацией Х.

Вычисляемое (теоретическое) значение Y. Вычисляемое значение Y равно

= a + bx,

где - вычисляемое значениеYi,

параметры a и b – это вычисляемые оценки o и i соответственно

Коэффициент регрессии. Вычисляемый параметр b обычно называют ненормированным коэффициентом регрессии.

Диаграмма рассеяния (поле корреляции). Поле корреляции – это графическое представление точек с координатами, определяемыми значениями двух переменных (независимой и зависимой), для всех наблюдений.

Стандартная ошибка уравнения регрессии. Эта статистика SEE представляет собой стандартное отклонение фактических значений Y от теоретических значений .

Стандартная ошибка коэффициента регрессии b. Стандартное отклонение b, обозначаемое SEb, называется стандартной ошибкой.

Нормированный коэффициент регрессии. Его также называют бета-коэффициентом, или взвешенным бета-коэффициентом. Он показывет изменения Y в зависимости от изменения Х (угол наклона прямой уравнения регрессии) при условии, что все данные нормированы.

Сумма квадратов ошибок. Значения расстояний всех точек до линии регрессии возводят в квадрат и суммируют, получая сумму квадратов ошибок, которая является показателем общей ошибки .

t-статистика. Эту статистику с n-2 степенями свободы можно использовать для проверки нулевой гипотезы, которая утверждает, что между X и Y не существует линейной зависимости или

H0 : 1 = 0

где t = b/ SEb.