- •5.1. Простая линейная регрессия
- •5.1.1. Назначение простой линейной регрессии
- •5.1.2. Вызов процедуры
- •5.1.3. Установка параметров
- •5.1.4. Вид результатов
- •5.2.2.2. Метод пошагового исключения (backward elimination)
- •5.2.2.3. Метод пошагового включения (forward selection)
- •5.2.2.4. Метод пошагового отбора (stepwise selection)
- •5.2.2.5. "Оптимальное" число независимых переменных
- •5.2.3. Вид результатов расчета множественной линейной регрессии
- •5.3. Нелинейная регрессия
- •5.3.1. Подгонка кривых
- •5.3.2. Использование фиктивных переменных
- •5.3.2.1. Модели нелинейные по переменным
- •5.3.2.2. Модели нелинейные по параметрам
- •5.4. Анализ остатков
- •5.4.1. Назначение анализа остатков
- •5.4.2. Понятие остатков
- •5.4.3. Проверка линейности
- •5.4.3.1. График остатков по экспериментальным значениям у
- •5.4.3.3. График остатков по независимой переменной
- •5.4.4. Однородность дисперсий
- •5.4.5. Независимость ошибок
- •5.4.6. Нормальность остатков
- •5.4.6.1. Построение гистограммы остатков
- •5.4.6.2. Построения графика остатков на нормальной вероятностной бумаге
- •5.4.7. Выявление выбросов
- •5.4.7.1. Проверка на выбросы зависимой переменной
- •5.4.7.2. Проверка на выбросы независимой переменной
- •5.4.8. Выявление существенных наблюдений
- •5.4.8.1. Включение и исключение подозрительного наблюдения
- •5.4.8.2. Вычисление расстояния Кука
- •5.4.9. Некоррелированность независимых переменных.
- •5.4.9.1. Вычисление фактора "вздутия" вариации
- •5.4.9.2. Вычисление собственных чисел
5.1.4. Вид результатов
Результаты расчета линейной регрессии представлены большим количеством таблиц. Приведем самые основные из них. На рис. 5-5 представлена таблица суммарных характеристик. В ней нужно обратить внимание на R, R square, F Change, Sig. F Change, Durbin-Watson. Из рис.5-5 следует, что рассчитанная модель адекватна, коэффициент корреляции очень высок, в остатках сериальная составляющая (Durbin-Watson) отсутствует.
На рис.5-6 проиллюстрирована таблица коэффициентов регрессии. Из нее следует, что полученные коэффициенты статистически значимы t- критерий и Sig. Показатель IMQ влияет на индекс РТС положительно.
Рис.5-5. Суммарные характеристики модели
Рис.5-6. Таблица коэффициентов регрессии
Таблица дисперсионного анализа (рис.5-7) показывает, что модель адекватна (F и Sig).
Рис.5-7. Дисперсионный анализ модели
5.2. Простая множественная регрессия
5.2.1. Назначение простой множественной регрессии
Простая множественная регрессия - есть некоторое усложнение простой линейной регрессии - предполагается, что может быть более одной независимой переменной. Модель будет выглядеть следующим образом:
Также можно воспользоваться матричной записью (X и Y матрицы)
Наиболее распространенный метод решения - Метод наименьших квадратов (МНК) получения коэффициентов модели
По МНК:
b^ = (X’X)-1 Х’ Y.
Таким образом, видно, что добавление регрессоров не повлияло ни на наши предпосылки, ни на алгоритм построения, ни на интерпретацию результата. Единственное отличие будет наблюдаться в окне ввода независимых переменных.
5.2.2. Отбор переменных во множественной регрессии
5.2.2.1. Назначение отбора переменных
SPSS может строить модели множественной регрессии с очень большим количеством независимых переменных. Такая возможность полезна, когда на исследуемый зависимый параметр влияет множество различных факторов. При этом иногда известно, какие именно переменные включить в модель в качестве предикторов. В этом случае вам следует построить модель, используя метод принудительного включения (ENTER), и все указанные вами переменные будут включены в модель. Этот способ построения уравнения регрессии используется по умолчанию.
Однако зачастую вы не можете точно знать, какие именно переменные из имеющихся, нужно включить в модель, а какие переменные отбросить, как не оказывающие влияния на исследуемый параметр. Для этого случая в SPSS имеется несколько методов подбора множества независимых переменных для регрессионной модели, которые мы и рассмотрим в данном разделе.
Входные данные, требуемые для использования различных методов подбора множества независимых переменных, такие же, как и для обычной процедуры построения линейной регрессии.
Нам требуется исследовать, от чего и как зависит индекс РТС. На первый взгляд сложно определить, какие факторы оказывают, а какие не оказывают влияние на индекс РТС, и для выбора множества независимых переменных в регрессионной модели мы должны использовать один из трех методов подбора, встроенных в SPSS.