- •Самарский государственный университет.
- •Глава 5. Анализ временных рядов. 29
- •Глава 6. Дисперсионный анализ. 34
- •Глава 7. Метод главных компонент 47
- •Глава 8. Факторный анализ 53
- •Глава 1. Математические модели.
- •1.1. Классификация моделей.
- •1.2. Этапы построения математических моделей
- •Глава 2. Корреляционный анализ: вид связи и проверка гипотез.
- •2.1.Коэффициент парной корреляции
- •2.2. Коэффициент детерминации
- •2.3. Статистическая оценка значимости коэффициентов корреляции.
- •2.4. Интервальные оценки для значимых парных коэффициентов корреляции.
- •2.5. Коэффициент корреляции рангов.
- •Решение
- •Глава 3. Регрессионный анализ: парная линейная регрессия.
- •3.1. Общие сведения. Парная линейная регрессия.
- •3.1.1. Функция регрессии
- •3.1.2. Последовательность проведения регрессионного анализа
- •3.1.3. Предпосылки к проведению регрессионного анализа
- •3.2. Метод наименьших квадратов
- •3.2.1. Проверка адекватности модели
- •3.2.2. Проверка значимости параметров модели
- •3.3. Описание типового примера. Алгоритм построения регрессионной модели.
- •3.4. Использование оцененной модели для прогнозирования
- •Глава 4. Множественная линейная регрессия
- •4.1. Корреляционно - регрессионный анализ.
- •4.2. Некоторые нелинейные модели, сводящиеся к линейным
- •4.3. Проверка предпосылок регрессионного анализа
- •1. Проверка нормальности закона распределения ошибок
- •3. Проверка на автокорреляцию случайных ошибок
- •Замечание. Если в модели много незначимых коэффициентов - ее надо упростить, т.Е. Уменьшить число искомых величин b. Если модель неадекватна, ее надо усложнить, т.Е. Добавить новые члены.
- •4.4. Пример решения задачи моделирования с использованием метода наименьших квадратов.
- •4.5. Метод наименьших квадратов (мнк) – общий случай
- •Глава 5. Анализ временных рядов.
- •5.1. Проверка законов распределения.
- •1. Проверка подчинения эмпирического распределения нормальному закону распределения
- •2. Проверка подчинения эмпирического распределения закону распределения Пуассона.
- •5.2. Изучение динамики
- •5.2.1. Средние показатели тенденции динамики
- •5.2.2. Выявление типа тенденции динамики тренда
- •5.2.3. Определение оптимального значения тренда
- •Глава 6. Дисперсионный анализ.
- •Однофакторный дисперсионный анализ.
- •6.2. Применение однофакторного анализа.
- •6.3. Проверка гипотезы об отсутствии влияния факторов на параметр
- •Можно показать [5], что, как и в случае однофакторного анализа, разность
- •Трехфакторный дисперсионный анализ.
- •6.5. Отсеивающие эксперименты и дисперсионный анализ
- •6.6. Рандомизация эксперимента
- •6.7. Определение аналитического вида зависимости параметра от факторов.
- •6.7.1. Матрица планирования
- •Глава 7. Метод главных компонент
- •7.1. Математическая модель метода главных компонент.
- •7.2. Алгоритм метода главных компонент
- •7.3. Нахождение коэффициентов характеристического уравнения
- •Глава 8. Факторный анализ
- •8.1. Модель факторного анализа.
- •8.2. Вращение факторов.
- •8.3. Применение факторного анализа.
- •8.4. Некоторые результаты факторного анализа
- •Приложение 1. Статистические таблицы
- •При числе степеней свободы
- •Критические точки распределения критерия g
- •Значения верхнего предела n2 в зависимости от уровня значимости
Глава 4. Множественная линейная регрессия
4.1. Корреляционно - регрессионный анализ.
Корреляционно - регрессионный анализ является одним из наиболее широко распространенных и гибких приемов обработки статистических данных. Его появление связано с именем английского исследователя Фрэнсиса Гальтона, предложившего в 1795 году теоретические основы регрессионного анализа, а в 1801 г. Рассчитавшего траекторию движения планеты Церера.
В разные годы над теорией регрессионного анализа работали известные в области теоретической статистики ученые: Карл Фридрих Гаусс, Андриан Мари Лежандр, Карл Пирсон и др.
Многомерный анализ отличают процедуры обработки множественных характеристик, комплексно представляющих взаимосвязанные признаки (объекты). При этом во множественном регрессионном анализе:
- исследуется зависимость результативной величины – отклика (у) от нескольких независимых переменных- предикторов (Хj) , т. е. У=f(X1, X2, X3 ,… , X m ) +ζ;
- выделяется понятие чистой регрессии – зависимости между парами предикторов из их множества при условии нивелирования действия остальных предикторов;
- учитывается возможность наличия тесных связей (когда коэффициент корреляции превышает уровень 0,7 – 0,8) между парами предикторов, искажающих конечные результаты регрессионного анализа. Это явление носит название мультиколлинеарности, устраняется оно одним из двух способов: один из пары предиктора, подверженных мультиколлинеарности, выводится из модели или заменяется другим новым предиктором – новым факторным признаком;
- существует необходимость установления определенного соотношения между числом наблюдаемых объектов и числом предикторов. Корректное проведение анализа требует обычно, чтобы это соотношение было 6-8 к 1;
- принимается во внимание, что при числе предикторов, превышающем два, графическое изображение результата регрессионного анализа становится невозможным и все выводы формируются в ходе формального решения аналитической задачи;
- в связи с тем, что во множественном корреляционно-регрессионном анализе определяется большое число параметров, проверке на достоверность подлежат не только регрессионная модель в целом, но и каждый из его параметров.
Множественная линейная регрессия представляет собой выражение
(4.1.1.)
Для случая =2 по результатам наблюдений система нормальных уравнений, полученная
Методом наименьших квадратов будет иметь вид:
(4.1.2.)
Дальнейшие рассуждения удобно вести, используя следующие матричные обозначения:
(4.1.3.)
Система нормальных уравнений имеет вид:
. (4.1.4.)
При условии, что – невырожденная матрица, решение системы можно записать в виде (4.1.5.)
Ковариационная матрица оценок параметров регрессионной модели будет равна
(4.1.6.)
Дисперсии параметров модели определяются соотношением
Во множественной линейной регрессии предпосылки регрессионного анализа и его проведение полностью совпадают с простой линейной регрессией. Особенностью множественной регрессии является корреляция независимых переменных. Желательно избегать включения в модель линейно зависимых переменных.