
- •Тема 8. Корреляционно-регрессионный анализ и моделирование статистических связей
- •Понятие корреляционной связи и корреляционно-регрессионного анализа (кра).
- •Условия применения и ограничения кра.
- •Парная регрессия на основе метода наименьших квадратов
- •Применение парного линейного уравнения регрессии.
- •Показатели тесноты связи.
- •Множественная регрессия.
Тема 8. Корреляционно-регрессионный анализ и моделирование статистических связей
Понятие корреляционной связи и корреляционно-регрессионного анализа (КРА).
Условия применения и ограничения КРА.
Парная регрессия на основе метода наименьших квадратов.
Применение парного линейного уравнения регрессии.
Показатели тесноты связи.
Множественная регрессия.
Понятие корреляционной связи и корреляционно-регрессионного анализа (кра).
Различают два типа связей между явлениями:
- функциональная;
- статистическая.
Функциональной называется такая связь, когда с изменением значения одной из переменных вторая изменяется строго определенным образом, т.е. значению одной переменной соответствует одно или несколько точно заданных значений другой переменной.
Функциональная связь возможна лишь в том случае, когда переменная y зависит только от переменной x и не зависит от других факторов.
Статистическая связь существует в том случае, когда с изменением значения одной переменной вторая может в определенных пределах принимать любые значения, а ее статистические характеристики изменяются по определенному закону.
Важнейший частный случай статистической связи – корреляционная связь, т.е. такая связь, когда разным значениям одной переменной соответствуют различные средние значения другой, т. е. с изменением значения признака x закономерным образом изменяется среднее значение признака y; в то время, как в каждом отдельном случае значение признака y (с различными вероятностями) может принимать множество различных значений.
Если же с изменением значений признака x среднее значение признака y не изменяется закономерным образом, но закономерно изменяется другая статистическая характеристика (коэффициент вариации), то связь является не корреляционной, но статистической.
Пути возникновения корреляционной связи:
- причинная зависимость вариации результативного признака от вариации факторного признака;
- связь между двумя следствиями одной причины;
- взаимосвязь признаков, каждый из которых и причина, и следствие одновременно.
Парная корреляция – связь между двумя признаками, результативным и факторным.
Множественная корреляция – зависимость результативного признака от двух и более факторных признаков, включенных в исследование.
Задача корреляционного анализа – количественная оценка тесноты связи.
Задача регрессионного анализа – определение аналитического выражения связи.
КРА как общее понятие включает в себя изменение тесноты связи и установление аналитического выражения связи.
Условия применения и ограничения кра.
- наличие массовых данных, т.к. корреляционная связь является статистической;
- необходима качественная однородность совокупность;
- близость распределения совокупности по результативному и факторному признаку, нормальному закону распределения, что связано с применением метода наименьших квадратов.
Парная регрессия на основе метода наименьших квадратов
Регрессионный анализ заключается в определении аналитического выражения связи.
По направлению связь различают:
- прямую, т.е. с увеличением признака x, происходит увеличение признака y.
- обратную, т.е. с увеличением признака x, происходит уменьшение признака y.
Способы определения параметров уравнения регрессии:
Графический
Метод наименьших квадратов (МНК)
Исходное условие МНК для прямой линии:
Таким образом при применении МНК минимизируется сумма квадратов отклонений фактических значений результативного признака от значений, рассчитанных по выбранному уравнению регрессии.
Система нормальных уравнений для линейной зависимости:
Система нормальных уравнений для параболической зависимости.
Система нормальных уравнений для гиперболы.
Коэффициент парной линейной регрессии (b) измеряет силу связи, т.е. характеризует среднее по совокупности отклонение признака y от его средней величины при отклонении признака x от своей средней величины на принятую единицу измерения. Положительный коэффициент регрессии говорит о прямой связи, отрицательный – об обратной.