Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
готовая_работа_621696.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
167.39 Кб
Скачать
  1. Корреляционный анализ связей в экономических и производственных системах

Корреляционный анализ используют для выявления и оценки связи между различными показателями, характеризующими экономические и производственные системы. Степень тесноты связи оценивают коэффициентами, изменяющимися в пределах от 0 до + 1,0. Малое значение коэффициента свидетельствует о слабой связи, значение, близкое по величине к 1,0, характеризует очень сильную связь и часто позволяет предположить наличие функциональной причинно-следственной связи.

В табл. приведены качественные оценки степени тесноты связи в экономических системах с помощью коэффициента корреляции. В некоторых источниках ошибочно рекомендуют при малой величине коэффициента корреляции, например до 0,20, делать заключение об отсутствии связи. Это заблуждение противоречит тео­ретико-вероятностным основам оценки гипотез.

Метод оценки корреляционной связи и тип определяемого при этом коэффициента зависят от закона распределения данных.

  1. Модели простой линейной и нелинейной регрессии

Во многих практических задачах прогнозирования, изучая раз­личного рода связи в экономических, производственных системах, необходимо на основании экспериментальных данных выразить зависимую переменную в виде некоторой математической функции от независимых переменных - регрессоров, то есть построить регрессионную модель. Регрессионный анализ позволяет:

  • производить расчет регрессионных моделей путем определения значений параметров - постоянных коэффициентов при независимых переменных - регрессорах, которые часто называют факто­рами;

  • проверять гипотезу об адекватности модели имеющимся наблюдениям;

  • использовать модель для прогнозирования значений зависимой переменной при новых или ненаблюдаемых значениях независимых переменных.

Среди регрессионных моделей обычно выделяют однопараметрические модели (зависимости от одной переменной) и многопараметрические модели (зависимости от нескольких переменных), а также модели, линейные относительно независимых переменных, нелинейные по переменным и нелинейные по параметрам.

Наиболее просты для построения и анализа однопараметрические и многопараметрические линейные модели, которые содержат независимые переменные только в первой степени.

Рассматриваемые ниже наиболее распространенные методы регрессионного анализа являются параметрическими, большая их часть основана на предположении о нормальном распределении данных или ошибок наблюдений, поэтому в каждом случае анализа необходима предварительная проверка соответствия данных нормаль­ному распределению.

Модель простой линейной регрессии имеет вид: Y= а0 + а1 • х + е,

где Y - функция, х - независимая переменная-регрессор (фак­тор), а0 и а1 - постоянные коэффициенты (параметры), е - случайная ошибка.

  1. Модели множественной линейной регрессии

Регрессионный анализ позволяет получать модели зависимости одной переменной-отклика Тот нескольких переменных-регрессоров х (j=1, … , n): Y = а0 + aj х1 + а2× х2 + а3 х3 + … + аn хn + e,

где Y- функция, х - переменные-регрессоры (факторы), а0, … аn - постоянные коэффициенты (параметры), n - количество регрессоров, е - случайная ошибка.

Такая модель может быть получена и оценена подобно моделям простой регрессии. Но обычно необходимо построить регрессионную модель с минимальным и достаточным для описания поведения экономической или производственной системы набором переменных. Необходимость добиться высокого уровня детерминации определяет тенденцию к включению в состав модели большого числа переменных. Но чем больше переменных включает модель, там больше среди них взаимосвязанных и взаимозависимых. Корреляция между регрессорами снижает точность и детерминированность модели. Модель, для построения которой использованы сильно коррелированные данные, может быть вообще ошибочной.

На практике переменные далеко не всегда могут быть независимыми, поэтому далее будем по возможности избегать этого термина.

Метод пошаговой регрессии, включенный во многие статистические пакеты, позволяет из множества исходных переменных производить отбор тех переменных, которые наиболее значимы для адекватного представления исходных данных. Этот метод позволяет, во-первых, построить более простую, сокращенную модель, а, во-вторых, при последующем сборе данных не регистрировать несущественные переменные. Он может быть использован в качестве предварительного этапа перед построением нелинейной модели.

Имеются три разновидности процедуры отбора переменных, каждая из которых может давать различный конечный набор переменных.

1. Метод последовательного включения. На первом шаге в модель включается переменная, которая имеет наибольший коэффициент корреляции с зависимой переменной. На каждом очередном шаге в модель добавляется та переменная, которая имеет наибольший частный коэффициент корреляции. Процесс может прекращаться, когда те или иные статистические характеристики не могут быть улучшены включением ни одной из переменных.

2. Метод последовательного исключения состоит в удалении на очередном шаге из имеющегося набора той переменной, которая имеет наименьший частичный коэффициент корреляции. Процесс прекращается, когда удаление очередной, предназначенной для удаления переменной может ухудшить статистические характеристики модели.

3. Метод пошагового включения-исключения состоит в сочетании двух рассмотренных методов, когда на каждом шаге вычислительного процесса производится включение некоторой переменной, после чего предпринимается попытка исключения из полученного набора некоторых переменных.