- •Самарский государственный университет.
- •Глава 5. Анализ временных рядов. 29
- •Глава 6. Дисперсионный анализ. 34
- •Глава 7. Метод главных компонент 47
- •Глава 8. Факторный анализ 53
- •Глава 1. Математические модели.
- •1.1. Классификация моделей.
- •1.2. Этапы построения математических моделей
- •Глава 2. Корреляционный анализ: вид связи и проверка гипотез.
- •2.1.Коэффициент парной корреляции
- •2.2. Коэффициент детерминации
- •2.3. Статистическая оценка значимости коэффициентов корреляции.
- •2.4. Интервальные оценки для значимых парных коэффициентов корреляции.
- •2.5. Коэффициент корреляции рангов.
- •Решение
- •Глава 3. Регрессионный анализ: парная линейная регрессия.
- •3.1. Общие сведения. Парная линейная регрессия.
- •3.1.1. Функция регрессии
- •3.1.2. Последовательность проведения регрессионного анализа
- •3.1.3. Предпосылки к проведению регрессионного анализа
- •3.2. Метод наименьших квадратов
- •3.2.1. Проверка адекватности модели
- •3.2.2. Проверка значимости параметров модели
- •3.3. Описание типового примера. Алгоритм построения регрессионной модели.
- •3.4. Использование оцененной модели для прогнозирования
- •Глава 4. Множественная линейная регрессия
- •4.1. Корреляционно - регрессионный анализ.
- •4.2. Некоторые нелинейные модели, сводящиеся к линейным
- •4.3. Проверка предпосылок регрессионного анализа
- •1. Проверка нормальности закона распределения ошибок
- •3. Проверка на автокорреляцию случайных ошибок
- •Замечание. Если в модели много незначимых коэффициентов - ее надо упростить, т.Е. Уменьшить число искомых величин b. Если модель неадекватна, ее надо усложнить, т.Е. Добавить новые члены.
- •4.4. Пример решения задачи моделирования с использованием метода наименьших квадратов.
- •4.5. Метод наименьших квадратов (мнк) – общий случай
- •Глава 5. Анализ временных рядов.
- •5.1. Проверка законов распределения.
- •1. Проверка подчинения эмпирического распределения нормальному закону распределения
- •2. Проверка подчинения эмпирического распределения закону распределения Пуассона.
- •5.2. Изучение динамики
- •5.2.1. Средние показатели тенденции динамики
- •5.2.2. Выявление типа тенденции динамики тренда
- •5.2.3. Определение оптимального значения тренда
- •Глава 6. Дисперсионный анализ.
- •Однофакторный дисперсионный анализ.
- •6.2. Применение однофакторного анализа.
- •6.3. Проверка гипотезы об отсутствии влияния факторов на параметр
- •Можно показать [5], что, как и в случае однофакторного анализа, разность
- •Трехфакторный дисперсионный анализ.
- •6.5. Отсеивающие эксперименты и дисперсионный анализ
- •6.6. Рандомизация эксперимента
- •6.7. Определение аналитического вида зависимости параметра от факторов.
- •6.7.1. Матрица планирования
- •Глава 7. Метод главных компонент
- •7.1. Математическая модель метода главных компонент.
- •7.2. Алгоритм метода главных компонент
- •7.3. Нахождение коэффициентов характеристического уравнения
- •Глава 8. Факторный анализ
- •8.1. Модель факторного анализа.
- •8.2. Вращение факторов.
- •8.3. Применение факторного анализа.
- •8.4. Некоторые результаты факторного анализа
- •Приложение 1. Статистические таблицы
- •При числе степеней свободы
- •Критические точки распределения критерия g
- •Значения верхнего предела n2 в зависимости от уровня значимости
Глава 2. Корреляционный анализ: вид связи и проверка гипотез.
Современная наука исходит из взаимосвязи всех явлений природы и общества. Невозможно управлять явлениями, предсказывать их развитие без изучения характера, силы и других особенностей связей. Поэтому методы исследования, измерения связей составляют чрезвычайно важную часть методологии научного исследования, в том числе и статистического.
Различают два типа связей между различными явлениями и признаками: функциональную или жестко-терминированную, с одной стороны, и статистическую или стохастически детерминированную - с другой.
Функциональная связь двух величин возможна лишь при условии, что вторая из них зависит от первой и ни от чего более.
Стохастическая детерминированная связь не имеет ограничений и условий, присущих функциональной связи.
В настоящее время наука не знает более широкого определения связи. Все связи, которые могут быть измерены и выражены численно, подходят под определение «статистические связи», в том числе и функциональные. Функциональные связи представляют собой частный случай статистических связей
Корреляционной связью называют важнейший частный случай статистической связи, состоящий в том, что разным значениям одной переменной соответствуют различные средние значения другой.
Корреляционно-регрессионный анализ является одним из наиболее широко распространенных и гибких приемов обработки статистических данных. Его появление связано с именем английского ученого-исследователя Фрэнсиса Гальтона, предложившего в 1975 году теоретические основы корреляционно-регрессионного метода, а 1801 году рассчитавшего с его помощью траекторию полета планеты Церера. В разное время над теорией анализа работали известные в области теоретической статистики ученые: Карл Фридрих Гаусс, Андриан Мари Лежандр, Карл Пирсон и другие.
Корреляционная связь между признаками может возникнуть разными путями. Важнейший путь – причинная зависимость результативного признака (его вариации) от вариации факторного признака. Для измерения тесноты корреляционной связи применяется несколько показателей. Рассмотрим некоторые из них.
2.1.Коэффициент парной корреляции
Коэффициент парной корреляции определяет меру тесноты связи между двумя факторами и вычисляется по формуле:(2.1.1)
Теснота парной линейной корреляционной связи, как и любой другой, может быть измерена коэффициентом парной корреляции, который при линейной форме уравнения связи представляет собой стандартизованный коэффициент, т. е. коэффициент, выраженный не в абсолютных единицах измерения признаков, а в долях среднего квадратического отклонения результативного признака.
Коэффициент корреляции не зависит от принятых единиц измерения признаков, а стало быть, он сравним для всех признаков.
В математической статистике коэффициент корреляции характеризует следующие виды
корреляционной связи:
r= 0 - связь отсутствует;
0,01 < r 0,09 - связь слабая, (1.1.2.)
0,09 < r 0,49 - связь средняя,
0,49 < r 1,00 - связь сильная.
Многофакторная система требует уже не одного, а множества показателей тесноты связей, имеющих разный смысл и применение.
Основой измерения связей является матрица парных коэффициентов корреляции. Все элементы главной диагонали матрицы парных корреляций равны 1, остальные элементы меняются от -1 до 1.( -1< rij <1) Корреляционная матрица симметрична, относительно главной диагонали, т. е.rxixj = rxjxi
Таблица 1.1.
Признаки |
х1 |
х2 |
... |
хi |
... |
хk |
х1 |
1 |
rx1x2 |
… |
rx1xi |
… |
rx1xk |
х2 |
rx2x1 |
1 |
… |
rx2xi |
… |
rx2xk |
... |
... |
... |
1 |
… |
… |
… |
хj |
rхjx1 |
rxjx2 |
... |
1 |
… |
rxjxk |
... |
... |
... |
... |
... |
1 |
… |
хk |
rхkx1 |
rxkx2 |
... |
rxkxi |
... |
1 |
На основе этой матрицы можно судить о тесноте связи факторов с результативным признаком и между собой. Хотя все эти показатели относятся к парным связям, все же матрицу можно использовать для предварительного отбора факторов для включения их в уравнение регрессии.