Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
сТАТИСТИКА.docx
Скачиваний:
1
Добавлен:
01.07.2025
Размер:
557.41 Кб
Скачать

2 Парная регрессия на основе метода наименьших квадратов

Парная регрессия характеризует связь между признаками: результативным и факторным. Аналитически связь между ними описывается уравнениями:

прямой х = а0 + а1х;

(9.1)

параболы х = а0 + а1х + а2х2;

(9.2)

гиперболы х = а0 + а11/x.

(9.3)

Определить тип уравнения можно, исследуя зависимость графически. Однако существуют более общие указания, позволяющие выявить уравнение связи, не прибегая к графическому изображению. Если результативный и факторный признаки возрастают одинаково, примерно в арифметической прогрессии, а факторный значительно быстрее, то используется параболическая или степенная функции.

Оценка параметров уравнения регрессии а0, а12 - в уравнении параболы второго порядка) осуществляется методом наименьших квадратов, в основе которого лежит предположение о независимости наблюдений исследуемой совокупности и нахождения параметров модели (а0 и а1), при котором минимизируется сумма квадратов отклонений фактических значений результативного признака от теоретических, полученных по уравнению регрессии.

Система нормальных уравнений для нахождения параметров линейной парной регрессии методом наименьших квадратов имеет следующий вид:

,

(9.4)

где n - объем исследуемой совокупности (число единиц наблюдения).

В уравнениях регрессии параметр а0 показывает усредненное влияние на результативный признак неучтенных (не выделенных для исследования) факторов, параметр а1 (а в уравнении параболы и а2) - коэффициент регрессии показывает, насколько изменяется в среднем значение результативного признака при изменении факторного на единицу его собственного измерения.

Если связь между признаками у и х криволинейная и описывается уравнением параболы второго порядка (формула 9.2), то система нормальных уравнений имеет вид:

.

(9.5)

Оценка обратной зависимости между х и у, когда с увеличением (уменьшением) х уменьшается (увеличивается) значение результативного признака у, может быть осуществлено на основе уравнения гиперболы (формула 9.3).

Система нормальных уравнений для нахождения параметров гиперболы следующая:

3 Множественная (многофакторная) регрессия

Изучение связи между тремя и более связанными между собой признаками носит название множественной (многофакторной) регрессии, описываемой функцией вида: 1,2,...,k = f (х1, х2,...,хk)

Построение моделей множественной регрессии включает этапы: 1) выбор формы связи (уравнения регрессии); 2) отбор факторных признаков; 3) обеспечение достаточного объема совокупности для получения несмещенных оценок.

Выбор типа уравнения затрудняется тем, что для любой формы зависимости можно выбрать целый ряд уравнений, которые в определенной степени будут описывать эти связи. Поскольку уравнение регрессии строится главным образом для объяснения и количественного выражения взаимосвязей, оно должно хорошо отражать сложившиеся между исследуемыми факторами фактические связи.

Практика построения многофакторных моделей взаимосвязи показывает, что все реально существующие зависимости между социально-экономическими явлениями можно описать, используя пять типов моделей:

1) линейная: 1,2,...,k = а0 + а1 х + а2 х2+ ... +аkxk;

(9.7)

2) степенная: 1,2,...,k = ;

(9.8)

3) показательная: 1,2,...,k = ;

(9.9)

4) параболическая: 1,2,...,k = а0 + а1 х2 + а2 х22+ ... +аkxk2;

(9.10)

5) гиперболическая: 1,2,...,k = а0 + а12 + а22+ ... +аk/xk.

(9.11)

Основное значение имеют линейные модели в силу простоты и логичности их экономической интерпретации.

Важным этапом построения уже выбранного уравнения множественной регрессии являются отбор и последующее включение факторных признаков.

Наиболее приемлемым способом отбора факторных признаков является шаговая регрессия. Сущность метода шаговой регрессии заключается в последовательном включении факторов в уравнение регрессии и последующей проверке их значимости. При проверке значимости введенного фактора определяется, насколько уменьшается сумма квадратов остатков и увеличивается величина множественного коэффициента корреляции (R2).

При построении моделей регрессии можно столкнуться с проблемой мультиколлинеарности, под которой понимается тесная зависимость между факторными признаками, включенными в модель. Мультиколлинеарность существенно искажает результаты исследования.

Одним из индикаторов определения наличия мультиколлинеарности между факторными признаками является превышение величины парного коэффициента корреляции 0,8 ( 0,8).

Устранение мультиколлинеарности может реализовываться через исключение из корреляционной модели одного или нескольких линейно связанных факторных признаков или преобразованием исходных факторных признаков в новые, укрупненные факторы.