Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ВЗ_Методы принятия решений.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
296.96 Кб
Скачать
  1. Виды взаимосвязи статистических показателей.

Формы проявления взаимосвязей весьма разнообразны. В качестве двух самых общих их видов выделяют функциональную (полную) и корреляционную (неполную) связи. При функциональной связи величине факторного признака соответствует одно или несколько значений функции. Этот вид связи часто проявляется в физике, химии. В экономике примером может служить прямо пропорциональная зависимость между производительностью труда и увеличением производства продукции.

Корреляционная связь (неполная) проявляется в среднем, когда заданным значениям зависимой переменной соответствует некоторый ряд вероятных значений независимой переменной. Каждому значению аргумента соответствуют случайно распределенные значения функции.

По направлению связи бывают:

прямыми (положительными), когда зависимая переменная растет с увеличением факторного признака;

обратными (отрицательными), при которых рост факторного признака сопровождается уменьшением функции.

Относительно своей аналитической формы связи бывают линейными и нелинейными. В первом случае между признаками в среднем проявляются линейные отношения. Нелинейная взаимосвязь выражается нелинейной функцией, а переменные связаны между собой в среднем нелинейно.

Если характеризуется связь двух признаков, то ее называют парной.

Если изучается связь более двух переменных, то называют множественной.

Задачи корреляционного анализа сводятся к измерению тесноты связи между признаками, определению неизвестных причинных связей и оценке факторов, оказывающих наибольшее влияние на результативный признак.

Традиционные методы корреляции и регрессии широко представлены в разного рода статистических пакетах программ для ЭВМ.

  1. Оценка тесноты корреляционной связи и ее статистической значимости.

Методы оценки тесноты связи подразделяются на:

– параметрические (корреляционные);

– непараметрические.

Параметрические (корреляционные) основаны на использовании оценок нормального распределения и применяются в случаях, когда изучаемая совокупность состоит из величин, которые подчиняются закону нормального распределения.

Непараметрические методы не накладывают ограничений на законы распределения изучаемых величин

  1. Предпосылки метода наименьших квадратов

Классический метод наименьших квадратов, лежащий в основе регрессионного анализа, предъявляет довольно жесткие требования к базе данных и свойствам полученных случайных остатков:

Должны выполняться ряд условий (предпосылки) метода наименьших квадратов.

Пусть выполнена основная предпосылка эконометрического анализа, т.е. моделируемую случайную величину Y можно разбить на две части объясненную и случайную:

 Перечислим предпосылки классического метода наименьших квадратов.

 1). Зависимая переменная Yi и возмущения Ei – это случайные величины, а вектор объясняющих переменных Хi – неслучайный (детерминированный).

2). Математическое ожидание возмущений Eравно 0:

M=0

3). Дисперсия возмущений Ei (дисперсия зависимой переменной Yi) постоянна:

                                                                                  (3.12)

где Еn – матричная единица.

Это условие называется гомоскедастичностью или равноизменчивостью возмущения E(зависимой переменной Yi). На рисунке 3.1. показан случай нарушения свойства гомоскедастичности:  , т.е. для разных диапазонов изменения х дисперсия  существенно изменяется (зависит от х).

 

 4). Возмущения Ei и Ej (или наблюдение Yi и Yj) не корректированы:

                                            M(Ei·Ej)= 0 ;    i¹j                                         (3.13)

 5). Ранг матрицы плана X должен быть не более числа опытов N:

 

r=k < N,

где, k – число членов регрессии. Ранг r равен числу линейно независимых столбцов матрицы X.

6). Возмущения Ei (или зависимая переменная Yi) есть нормально распределенная случайная величина

                                             E~N(0;s2En).                                (3.14)

 При выполнении всех предпосылок 1…5 и 6 модель называется классической нормальной регрессионной моделью.

Замечание 1: Формально уравнение регрессии можно построить и без предпосылки s о нормальном ЗР? возмущений Ei. Однако при этом модель не имеет практического смысла, поскольку невозможно оценить:

-     адекватность;

-     точность;

-     доверительные интервалы оценок коэффициентов и Y.

В этих операциях используется НЗР ? (критерий Стьюдента)

Замечание 2: Для получения адекватного, хорошего интерпретируемого (с возможностью раздельной оценки вклада каждого фактора) уравнения регрессии с необходимой точностью требуется выполнение еще одной седьмой предпосылки.

 7). Отсутствие мультиколлинеарности.

Мультиколлениарность – это наличие линейной корреляции объясняющих переменных между собой.

Предпосылки метода наименьших квадратов проверяются как соответствующие статистические гипотезы.