
- •Лекция 1
- •1.1. Принципы измерений и шкалирования
- •1.2. Сопоставаление методов шкалирования
- •1.3. Методы сравнительного шкалирования
- •Лекция 2
- •2.1. Понятие дисперсионного анализа
- •2.2. Однофакторный дисперсионный анализ
- •2.3. Определение зависимых и независимых переменных
- •2.4. Измерение эффекта.
- •2.5. Проверка значимости.
- •Лекция 3
- •3.1. Допущения в дисперсионном анализе.
- •3.2. Многофакторный дисперсионный анализ
- •3.3. Ковариационный анализ
- •3.4. Парная корреляция
- •3.5. Частная корреляция
- •Лекция 4
- •4.1. Условия, которые допускают использование регрессионного анализа
- •4.2. Парная регрессия
- •4.3. Стадии парного регрессионного анализа
- •4.4. Поле корреляции
- •4.5. Определение параметров уравнения регрессии.
- •4.6. Нормированный коэффициент регрессии и проверка значимости.
- •Лекция 5
- •5.1. Теснота и значимость связи
- •5.2. Точность предсказаний
- •5.3. Допущения модели регрессионного анализа
- •5.4. Факторный анализ
- •Лекция 6
- •6.1. Факторная модель при нормированных переменных
- •6.2. Статистики факторного анализа
- •6.3. Этапы выполнения факторного анализа
- •Лекция 7
- •7.1. Формулировка проблемы и построение корреляционной матрицы.
- •7.2. Определение метода факторного анализа и числа факторов
- •7.3. Вращение и интерпретация факторов.
- •7.4. Вычисление значений факторов, отбор переменных-имитаторов и определение подгонки модели.
- •Лекция 8
- •8.1. Сущность кластерного анализа.
- •8.2. Статистики кластерного анализа
- •8.3. Этапы выполнения кластерного анализа.
Лекция 4
Вопросы лекции:
4.1. Условия, которые допускают использование регрессионного анализа.
4.2. Парная регрессия.
4.3. Стадии парного регрессионного анализа.
4.4. Поле корреляции.
4.5. Определение параметров уравнения регрессии.
4.6. Нормированный коэффициент регрессии и проверка значимости.
4.1. Условия, которые допускают использование регрессионного анализа
Это статистический метод установления формы и изучения связей между метрической зависимой переменной и одной или несколькими независимыми переменными.
Как правило, регрессионный анализ используют в следующих случаях.
Действительно ли независимые переменные обуславливают значимую вариацию зависимой переменной. Другими словами, действительно ли эти переменные взаимосвязаны?
В какой степени вариацию зависимой переменной можно объяснить независимыми переменными (здесь идет разговор о тесноте связи)?
Требуется определить форму связи, т.е. математическое уравнение, описывающее зависимость между зависимой и независимой переменными.
Требуется предсказать значения зависимой переменной.
Требуется контролировать другие независимые переменные при определении вкладов конкретной переменной.
В регрессионном анализе используются такие термины, как зависимая или критериальная переменная и независимая переменная (предиктор). Эти термины отражают наличие математической зависимости между переменными.
Рассмотрим последовательно сперва парную, а затем множественную регрессию.
4.2. Парная регрессия
Это метод установления математической зависимости между одной метрической зависимой (критериальной) переменной и одной метрической независимой переменной (предиктором). В значительной мере этот анализ аналогичен определению простой корреляции между двумя переменными. Однако для того, чтобы вывести уравнение, необходимо одну переменную представить как зависимую, а другую как независимую.
С парным регрессионным анализом связаны следующие статистики.
Мы приведем статистики и термины, относящиеся к парному регрессионному анализу.
Модель парной регрессии. Основное уравнение регрессии имеет вид
Yi = o + 1Xi + ei,
где Y – зависимая или критериальная переменная,
Х - независимая переменная или предиктор,
o – точка пересечения прямой регрессии с осью OY,
1 – тангенс угла наклона прямой,
ei – остаточный член (остаток), связанный с i-м наблюдением, характеризующий отклонение от функции регрессии.
Примечание: в отдельных источниках этот член уравнения называют также ошибочным (ошибкой) или возмущающим членом (возмущением).
Коэффициент детерминации. Тесноту связи измеряют коэффициентом детерминации r2 . Он колеблется в диапазоне между 0 и 1 и указывает на долю полной вариации Y, которая обусловлена вариацией Х.
Вычисляемое (теоретическое) значение Y. Вычисляемое значение Y равно
= a
+ bx,
где - вычисляемое значениеYi,
параметры a и b – это вычисляемые оценки o и i соответственно
Коэффициент регрессии. Вычисляемый параметр b обычно называют ненормированным коэффициентом регрессии.
Диаграмма рассеяния (поле корреляции). Поле корреляции – это графическое представление точек с координатами, определяемыми значениями двух переменных (независимой и зависимой), для всех наблюдений.
Стандартная
ошибка уравнения регрессии. Эта
статистика SEE представляет собой
стандартное отклонение фактических
значений Y
от теоретических значений
.
Стандартная ошибка коэффициента регрессии b. Стандартное отклонение b, обозначаемое SEb, называется стандартной ошибкой.
Нормированный коэффициент регрессии. Его также называют бета-коэффициентом, или взвешенным бета-коэффициентом. Он показывет изменения Y в зависимости от изменения Х (угол наклона прямой уравнения регрессии) при условии, что все данные нормированы.
Сумма квадратов
ошибок. Значения
расстояний всех точек до линии регрессии
возводят в квадрат и суммируют, получая
сумму квадратов ошибок, которая является
показателем общей ошибки
.
t-статистика. Эту статистику с n-2 степенями свободы можно использовать для проверки нулевой гипотезы, которая утверждает, что между X и Y не существует линейной зависимости или
H0 : 1 = 0
где t = b/ SEb.