Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекция (регрессии) по ЭМ.doc
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
264.7 Кб
Скачать

Особенности обоснования формы модели

Наиболее часто используемые виды функций:

1) линейная ;

2) правая полулогарифмическая ;

3) степенная ;

4) гиперболическая ;

5) логарифмическая гиперболическая ;

6) обратная линейная (функция Торнквиста)

.

Методы отбора факторов

- априорное

(до построения модели) исследование характера и силы взаимосвязей между рассматриваемыми переменными, по результатам которого в модель включаются факторы, наиболее значимые по своему «непосредственному» влиянию на зависимую переменную у.

Для оценки силы влияния используется парный линейный коэффициент корреляции.

Ложная корреляция, характеризуется достаточно высокими по абсолютной величине значениями коэффициентов парной корреляции у процессов, с содержательной точки зрения между собой никак не связанными.

- апостериорное

исследование предполагает первоначально включить в модель все отобранные на этапе содержательного анализа факторы. Уточнение их состава в этом случае производится на основе анализа характеристик качества построенной модели, одной из групп которых являются и показатели, выражающие силу влияния каждого из факторов на зависимую переменную уt.

Регрессио́нный анализ (линейный)

статистический метод исследования зависимости между зависимой переменной Y и одной или несколькими независимыми переменными X1,X2,...,Xp. Независимые переменные иначе называют регрессорами или предикторами, а зависимые переменные — критериальными. Терминология зависимых и независимых переменных отражает лишь математическую зависимость переменных, а не причинно-следственные отношения.

Цели регрессионного анализа

  1. Определение степени детерминированности вариации критериальной (зависимой) переменной предикторами (независимыми переменными)

  2. Предсказание значения зависимой переменной с помощью независимой(-ых)

  3. Определение вклада отдельных независимых переменных в вариацию зависимой

Математическое определение регрессии

Пусть Y, X1,X2,...,Xp — случайные величины с заданным совместным распределением вероятностей. Если для каждого набора значений X1 = x1,X2 = x2,...,Xp = xp определено условное математическое ожидание

y(x1,x2,...,xp) = E(Y | X1 = x1,X2 = x2,...,Xp = xp) (уравнение линейной регрессии в общем виде),

то функция y(x1,x2,...,xp) называется регрессией величины Y по величинам X1,X2,...,Xp, а ее графиклинией регрессии Y по X1,X2,...,Xp, или уравнением регрессии.

Парная регрессия

у = f(х),

у - зависимая переменная (результативный признак);

х - независимая, объясняющая переменная (признак-фактор).

Линейная регрессия: у = а + b • х + ε.

Нелинейные регрессии делятся на два класса:

Регрессии, нелинейные по объясняющим переменным:

• полиномы разных степеней

у = а + b1 • х + b2х2 + b3х3 + ε;

• равносторонняя гипербола

у = а + + ε.

Регрессии, нелинейные по оцениваемым параметрам:

  • степенная ;

  • показательная ;

  • экспоненциальная .

метод наименьших квадратов (МНК)

,

.

Качество построенной модели определяется с помощью коэффициентов: