Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
РГР2.doc
Скачиваний:
0
Добавлен:
01.03.2025
Размер:
676.86 Кб
Скачать

3. Формирование модели множественной регрессии

После нахождения модели парной регрессии определяется уравнение( модель) множественной регрессии.

Изучение связи между тремя и более связанными между собой признаками носит название множественной регрессии.

Уравнение множественной регрессии характеризует среднее изменение c изменением факторных признаков.

Аналитическое выражение связи между результативными признаком и факторными признаками - есть функция:

, где

- теоретическое значение результативного признака, полученное в результате подстановки соответствующих значений факторных признаков в уравнение регрессии;

- факторные признаки.

Практика построения многофакторных моделей взаимосвязи показывает, что реально существующие зависимости между социально-экономическими явлениями можно описать, используя, пять типов моделей: линейную, степенную, показательную, параболическую и гиперболическую.

Основное значение имеют линейные модели в силу простоты и логичности их экономической интерпретации. Нелинейные формы зависимости приводят к линейным путем линеаризации.

В связи с трудоемкостью работ рекомендуется проводить нахождение параметров уравнения (модели) множественной регрессии, а также самой модели множественной регрессии с помощью программ Microsoft Excel и программы статистической графики Statgraphics Plus for Windows.

3.1. Отбор значимых факторов

Для анализа тесноты взаимосвязи х и у используют значения коэффициента парной корреляции между фактором и функцией - . Величина , определяется на ЭВМ и представляется в корре­ляционной матрице вида. Таблица 7

Корреляционная матрица

№ переменной

1

1

1

...

1

1

1

Факторы, для которых = 0, т. е. не связанные с у, подлежат исключению в первую очередь. Факторы, имеющие наименьшее значение , могут быть потенциально исключены из модели. Во­прос об их окончательном исключении решается в ходе анализа других статистических характеристик.

3.2. Анализ и способы снижения мультиколлинеарности факторов

Здесь производится анализ значений коэффициентов парной кор­реляции (или ) между факторами и .

Мультиколлинеарность - попарная корреляци­онная зависимость между факторами.

Мультиколлинеарная зависимость присутствует, если коэффи­циент парной корреляции .

Отрицательное воздействие мультиколлинеарности состоит в следующем:

1) усложняется процедура выбора главных факторов;

2) искажается смысл коэффициента множественной корреляции (он предполагает независимость факторов);

3) усложняются вычисления при построении самой модели;

4) снижается точность оценки параметров регрессии, искажается оценка дисперсии.

Следствием снижения точности является ненадежность коэффициентов регрессии и отчасти неприемлемость их использования для интерпретации как меры воздействия соответствующей объяс­няющей переменной на зависимую переменную.

Оценки коэффициента становятся очень чувствительными к выборочным наблюдениям. Небольшое увеличение объема выбор­ки может привести к очень сильным сдвигам в значениях оценок. Кроме того, стандартные ошибки оценок входят в формулы крите­рия значимости, поэтому применение самих критериев становится также ненадежным. Из сказанного ясно, что исследователь должен пытаться установить стохастическую мультиколлинеарность и по возможности устранить ее.

Для измерения мультиколлинеарности можно использовать ко­эффициент множественной детерминации:

,

где - коэффициент множественной корреляции.

При отсутствии мультиколлинеарности факторов ,

где - коэффициент парной детерминации (обозначим через ), вычисляемый по формуле

где - коэффициент парной корреляции между j-м фактором ( ) и зависи­мой переменной у.

При наличии мультиколлинеарности соотношение не со­блюдается. Поэтому в качестве меры мультиколлинеарности ис­пользуется следующая разность:

Чем меньше эта разность, тем меньше мультиколлинеарность. Для устранения мультиколлинеарности используется метод исклю­чения переменных. Этот метод заключается в том, что высоко корре­лированные объясняющие переменные (факторы) устраняются из регрессии и она заново оценивается. Отбор переменных, подлежа­щих исключению, производится с помощью коэффициентов пар­ной корреляции. Опыт показывает, что если , то одну из переменных можно исключить, но какую переменную исключить из анализа, решают исходя из управляемости факторов на уровне предприятия. Обычно в модели оставляют тот фактор, на который можно разработать мероприятие, обеспечивающее улучшение значения этого фактора в планируемом году.

Если между факторами нет предпочтений на уровне предприятия, то применима методика отбора главных факторов рассмотренная выше. Из двух факторов исключается из модели фактор, имеющий наименьшее значение .