- •Сущность управленческого решения
- •Классификация управленческих решений
- •Обеспечение сопоставимости альтернативных вариантов принятия решений
- •Учет фактора риска при принятии решений
- •Виды взаимосвязи статистических показателей.
- •Оценка тесноты корреляционной связи и ее статистической значимости.
- •Предпосылки метода наименьших квадратов
- •Определение параметров уравнения парной линейной регрессии.
- •Оценка качества уравнения регрессии.
- •Оценка статистической значимости коэффициентов регрессии.
- •Интерпретация коэффициентов регрессии. Коэффициент эластичности
- •Доверительные интервалы для коэффициентов регрессии
- •Прогнозирование на основе линейного уравнения регрессии. Доверительные интервалы для зависимой переменной.
- •Нелинейная регрессия.
- •Модель множественной регрессии. Определение параметров уравнения множественной регрессии.
- •Использование фиктивных переменных в сезонном анализе.
- •Регрессионные модели с фиктивной зависимой переменной.
- •Линейные балансовые модели. Статическая модель межотраслевого баланса Леонтьева.
- •Балансовые модели в расчетах затрат и цен на продукцию (услуги) внутрипроизводственных подразделений предприятия
Виды взаимосвязи статистических показателей.
Формы проявления взаимосвязей весьма разнообразны. В качестве двух самых общих их видов выделяют функциональную (полную) и корреляционную (неполную) связи. При функциональной связи величине факторного признака соответствует одно или несколько значений функции. Этот вид связи часто проявляется в физике, химии. В экономике примером может служить прямо пропорциональная зависимость между производительностью труда и увеличением производства продукции.
Корреляционная связь (неполная) проявляется в среднем, когда заданным значениям зависимой переменной соответствует некоторый ряд вероятных значений независимой переменной. Каждому значению аргумента соответствуют случайно распределенные значения функции.
По направлению связи бывают:
– прямыми (положительными), когда зависимая переменная растет с увеличением факторного признака;
– обратными (отрицательными), при которых рост факторного признака сопровождается уменьшением функции.
Относительно своей аналитической формы связи бывают линейными и нелинейными. В первом случае между признаками в среднем проявляются линейные отношения. Нелинейная взаимосвязь выражается нелинейной функцией, а переменные связаны между собой в среднем нелинейно.
Если характеризуется связь двух признаков, то ее называют парной.
Если изучается связь более двух переменных, то называют множественной.
Задачи корреляционного анализа сводятся к измерению тесноты связи между признаками, определению неизвестных причинных связей и оценке факторов, оказывающих наибольшее влияние на результативный признак.
Традиционные методы корреляции и регрессии широко представлены в разного рода статистических пакетах программ для ЭВМ.
Оценка тесноты корреляционной связи и ее статистической значимости.
Методы оценки тесноты связи подразделяются на:
– параметрические (корреляционные);
– непараметрические.
Параметрические (корреляционные) основаны на использовании оценок нормального распределения и применяются в случаях, когда изучаемая совокупность состоит из величин, которые подчиняются закону нормального распределения.
Непараметрические методы не накладывают ограничений на законы распределения изучаемых величин
Предпосылки метода наименьших квадратов
Классический метод наименьших квадратов, лежащий в основе регрессионного анализа, предъявляет довольно жесткие требования к базе данных и свойствам полученных случайных остатков:
Должны выполняться ряд условий (предпосылки) метода наименьших квадратов.
Пусть выполнена основная предпосылка эконометрического анализа, т.е. моделируемую случайную величину Y можно разбить на две части объясненную и случайную:
Перечислим предпосылки классического метода наименьших квадратов.
1). Зависимая переменная Yi и возмущения Ei – это случайные величины, а вектор объясняющих переменных Хi – неслучайный (детерминированный).
2). Математическое ожидание возмущений Ei равно 0:
M=0
3). Дисперсия возмущений Ei (дисперсия зависимой переменной Yi) постоянна:
(3.12)
где Еn – матричная единица.
Это
условие называется гомоскедастичностью
или равноизменчивостью возмущения
Ei (зависимой
переменной Yi).
На рисунке 3.1. показан случай нарушения
свойства гомоскедастичности:
,
т.е. для разных диапазонов
изменения х дисперсия
существенно
изменяется (зависит от х).
4). Возмущения Ei и Ej (или наблюдение Yi и Yj) не корректированы:
M(Ei·Ej)= 0 ; i¹j (3.13)
5). Ранг матрицы плана X должен быть не более числа опытов N:
r=k < N,
где, k – число членов регрессии. Ранг r равен числу линейно независимых столбцов матрицы X.
6). Возмущения Ei (или зависимая переменная Yi) есть нормально распределенная случайная величина
E~N(0;s2En). (3.14)
При выполнении всех предпосылок 1…5 и 6 модель называется классической нормальной регрессионной моделью.
Замечание 1: Формально уравнение регрессии можно построить и без предпосылки s о нормальном ЗР? возмущений Ei. Однако при этом модель не имеет практического смысла, поскольку невозможно оценить:
- адекватность;
- точность;
- доверительные интервалы оценок коэффициентов и Y.
В этих операциях используется НЗР ? (критерий Стьюдента)
Замечание 2: Для получения адекватного, хорошего интерпретируемого (с возможностью раздельной оценки вклада каждого фактора) уравнения регрессии с необходимой точностью требуется выполнение еще одной седьмой предпосылки.
7). Отсутствие мультиколлинеарности.
Мультиколлениарность – это наличие линейной корреляции объясняющих переменных между собой.
Предпосылки метода наименьших квадратов проверяются как соответствующие статистические гипотезы.
