Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Эконометрика ФК31.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
389.08 Кб
Скачать

Кривые е Энгеля

На основе изучения семейных расходов (бюджетов) Энгель сформулировал закономерность, названную его именем: отношение части доходов, предназначенной для закупки продуктов, к общему доходу изм меншуеться вместе с ростом доход.

На величину спроса на данный товар влияют различные факторы, но в первую очередь цена P и доход m В первом приближении спрос d можно рассматривать как функцию цены и дохода: d = f (P, m)

Спрос можно представить графически в трех измерениях как некоторую поверхность D (рис 65) Предположим, что цена является постоянной: P =P1, тогда для этой цены спрос d = f (P1, m) и является функцией дохода m На рис 65 изображением функций, для которых P = const, будут кривые, полученные путем пересечения поверхности D плоскостями, перпендикулярными к оси OP, на которой отложены величины цены P Это и есть кривые Энгеля

На рис 66 в двух измерениях представлены кривые Энгеля для постоянных P, P2P3. Они выражают зависимость спроса от дохода в данной цены

Если мы предположим, что доход является постоянным: m = m1, то спрос d = f (P, m1) является функцией цены Изображением таких функций является кривые, которые образуются путем пересечения поверхности D плоскостями, перпендикулярными к оси Om

На рис 67 представлены кривые, выражающие зависимость спроса от цены за допущение, что доход является постоянным, равным соответственно m1, m2, m3....

С помощью кривых Энгеля, составленных на основе семейных бюджетов, можно количественно оценить влияние роста национального дохода на увеличение потребления

Уравнение нелинейной регрессии, так же как и в линейной зависимости, дополняется показателями корреляции:

       = 1-  ;      .

     Величину R2 для нелинейных связей называют индексом детерминации, а R – индексом корреляции. Чем ближе значение R2 к 1, тем связь рассматриваемых признаков теснее, тем более надежно уравнение регрессии.

     Если после преобразования уравнение регрессии (нелинейное по объясняющим переменным) принимает форму линейного парного уравнения регрессии, то для оценки тесноты связи может быть использован линейный коэффициент корреляции Ryx = ryz, где z – преобразованная величина признака-фактора, например z = 1/xили z = ln x.

     Если преобразования в линейную форму связаны с результативным признаком (нелинейность по параметрам), то линейный коэффициент корреляции по преобразованным значениям признаков дает лишь приближенную оценку тесноты связи. Он численно не совпадает с R, R   r, так как r рассчитывается между lny и lnx, а коэффициент детерминации использует суммы квадратов отклонений признака y, а не его логарифма.

     R2 для нелинейной регрессии имеет тот же смысл, что и коэффициент детерминации.

      Оценка существенности индекса корреляции производится так же, как и оценка надежности коэффициента корреляции. Индекс корреляции  R используется для проверки существенности уравнения нелинейной регрессии в целом по F – критерию Фишера:

                  F =     , где n – число наблюдений, р – число параметров при х.

Индекс детерминации R2 можно сравнивать с коэффициентом детерминации r2   для обоснования возможности применения линейной функции. Чем больше кривизна линии регрессии, тем величина коэффициента детерминации r2 меньше индекса детерминации R2. Близость этих показателей означает, что нет необходимости усложнять форму уравнения регрессии и можно использовать линейную функцию. Практически, если величина (R2 – r2)   0,1, то предположение о линейной форме связи считается оправданным. В противном случае проводится оценка существенности различий R2, вычисленных по одним и тем же исходным данным, через t – критерий Стьюдента:

,

где     - ошибка разности между R2 и r2.

Если  tнабл > tкр, то различия между рассматриваемыми показателями корреляции существенны и замена нелинейной регрессии уравнением линейной функции невозможно. Если t < 2, то различия между R и r несущественны, и, следовательно, возможно применение линейной регрессии, даже если есть предположение о некоторой нелинейности рассматриваемых соотношений признаков фактора и результата.

     Если R2 и r2 приблизительно равны, используют стандартную процедуру, известную под названием теста Бокса-Кокса.  Тест включает следующие шаги:

1) определяется среднее геометрическое y в выборке;

2) пересчитываются наблюдения   где   - пересчитанные значения для i-го наблюдения;

3) оценивается регрессия для   вместо y и для логарифмической модели ln y* вместо ln y;

4) определяют величину  , где z – отношение значений суммы квадратов отклонений в пересчитанных регрессиях, n – число наблюдений.

Эта статистика имеет распределение  с 1-й степенью свободы. Если   <  кр(1, ), то разница значима. Модель с меньшей суммой квадратов отклонений обеспечивает лучшее соответствие.

                   (3.45)

 - номер опыта;

j - номер объясняющей переменной; 

Коэффициент эластичности показывает: на сколько единиц (либо процентов) в долях от среднего значения  измениться выходная величина если объясняющая переменная хj измениться на одну единицу (либо процент) в долях от среднего значения  .

Таким образом, Эj измеряет чувствительность   к вариации хj.

Замечание. В учебниках по эконометрике почему-то умалчивается вопрос: в долях от чего измеряются вариации   и хj? Без этой информации определения для Эjстановиться для студентов малопонятным.

 

Бета-коэффициент выражается формулой

                                                                                                                       (3.46)

Это   – коэффициент отличается от коэффициента эластичности только масштабами нормировки хj  и  : вместо средних взяты их средние квадратические отклонения.

 – коэффициент показывает: на сколько % в долях от Sy измениться  , если хj  измениться на 1% в долях от  .

 

                                                            (3.47)

 

Дельта-коэффициент определяется по формуле

 

                                                                                                      (3.48)

 

Здесь   – коэффициент парной корреляции между j-м фактором и зависимой переменой Y.

Дельта-коэффициент показывает долю влияния каждого фактора в суммарном влиянии всех факторов на зависимую переменную Y.

Построение модели множественной регрессии является одним из методов характеристики аналитической формы связи между зависимой (результативной) переменной и несколькими независимыми (факторными) переменными.

Модель множественной регрессии строится в том случае, если коэффициент множественной корреляции показал наличие связи между исследуемыми переменными.

Общий вид линейной модели множественной регрессии:

yi=

где yi – значение i-ой результативной переменной,

x1i…xmi – значения факторных переменных;

– неизвестные коэффициенты модели множественной регрессии;

– случайные ошибки модели множественной регрессии.

При построении нормальной линейной модели множественной регрессии учитываются пять условий:

1) факторные переменные x1i…xmi  – неслучайные или детерминированные величины, которые не зависят от распределения случайной ошибки модели регрессии

2) математическое ожидание случайной ошибки модели регрессии равно нулю во всех наблюдениях:

3) дисперсия случайной ошибки модели регрессии постоянна для всех наблюдений:

4) между значениями случайных ошибок модели регрессии в любых двух наблюдениях отсутствует систематическая взаимосвязь, т.е. случайные ошибки модели регрессии не коррелированны между собой (ковариация случайных ошибок любых двух разных наблюдений равна нулю):

Это условие выполняется в том случае, если исходные данные не являются временными рядами;

5) на основании третьего и четвёртого условий часто добавляется пятое условие, заключающееся в том, что случайная ошибка модели регрессии – это случайная величина, подчиняющейся нормальному закону распределения с нулевым математическим ожиданием и дисперсией G2:

Общий вид нормальной линейной модели парной регрессии в матричной форме:

Y=X*

Где

– случайный вектор-столбец значений результативной переменной размерности (n*1);

– матрица значений факторной переменной размерности (n*(m+1)). Первый столбец является единичным, потому что в модели регрессии коэффициент умножается на единицу;

– вектор-столбец неизвестных коэффициентов модели регрессии размерности ((m+1)*1);

– случайный вектор-столбец ошибок модели регрессии размерности (n*1).

Включение в линейную модель множественной регрессии случайного вектора-столбца ошибок модели обусловлено тем, что практически невозможно оценить связь между переменными со 100-процентной точностью.

Условия построения нормальной линейной модели множественной регрессии, записанные в матричной форме:

1) факторные переменные x1j…xmj – неслучайные или детерминированные величины, которые не зависят от распределения случайной ошибки модели регрессии . В терминах матричной записи Х называется детерминированной матрицей ранга (k+1), т.е. столбцы матрицы X линейно независимы между собой и ранг матрицы Х равен m+1<n;< em=""></n;<>

2) математическое ожидание случайной ошибки модели регрессии равно нулю во всех наблюдениях:

3) предположения о том, что дисперсия случайной ошибки модели регрессии является постоянной для всех наблюдений и ковариация случайных ошибок любых двух разных наблюдений равна нулю, записываются с помощью ковариационной матрицы случайных ошибок нормальной линейной модели множественной регрессии:

где

G2

In – единичная матрица размерности (n*n).

4) Х случайной величиной, подчиняющейся многомерному нормальному закону распределения с нулевым математическим ожиданием и дисперсией G2:

В нормальную линейную модель множественной регрессии должны входить факторные переменные, удовлетворяющие следующим условиям:

1) данные переменные должны быть количественно измеримыми;

2) каждая факторная переменная должна достаточно тесно коррелировать с результативной переменной;

3) факторные переменные не должны сильно коррелировать друг с другом или находиться в строгой функциональной зависимости.