- •ОГЛАВЛЕНИЕ
- •ПРЕДИСЛОВИЕ
- •МЕТОДИЧЕСКИЕ МАТЕРИАЛЫ
- •РАБОЧАЯ ПРОГРАММА ДИСЦИПЛИНЫ
- •РЕКОМЕНДАЦИИ ПО САМОСТОЯТЕЛЬНОЙ РАБОТЕ СТУДЕНТА
- •ТЕОРЕТИЧЕСКИЕ МАТЕРИАЛЫ
- •ГЛАВА 1. СТАТИСТИЧЕСКИЕ ПОНЯТИЯ И РАСПРЕДЕЛЕНИЯ
- •§ 1. Введение
- •§ 2. Суть регрессионного анализа
- •§ 3. Некоторые статистические определения
- •§ 4. Нормальное (гауссовское) распределение
- •§ 5. (хи-квадрат)-распределение
- •§ 6. Распределение Стьюдента (t-распределение)
- •§ 7. F-распределение (распределение дисперсионного отношения)
- •§ 8. Статистическая проверка гипотез
- •§ 9. Определение критических значений распределений Стьюдента и Фишера с использованием программы Microsoft Office Excel
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 2. ПАРНАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ. УСЛОВИЯ ГАУССА–МАРКОВА
- •§ 1. Основные понятия
- •§ 2. Метод наименьших квадратов
- •§ 3. Предпосылки метода наименьших квадратов
- •§ 4. Анализ точности определения оценок коэффициентов регрессии
- •§ 5. Проверка статистической значимости коэффициентов парной линейной регрессии
- •§ 6. Интервальные оценки коэффициентов линейного уравнения регрессии
- •§ 7. Доверительные интервалы для зависимой переменной
- •§ 8. Проверка общего качества уравнения регрессии. Коэффициент детерминации
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 3. МНОЖЕСТВЕННАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Определение параметров уравнения регрессии
- •§ 2. Расчет коэффициентов множественной линейной регрессии
- •§ 3. Дисперсии и стандартные ошибки коэффициентов
- •§ 4. Проверка статистической значимости коэффициентов уравнения регрессии
- •§ 5. Интервальные оценки коэффициентов теоретического уравнения регрессии
- •§ 6. Проверка общего качества уравнения регрессии
- •§ 7. Проверка равенства двух коэффициентов детерминации
- •§ 8. Проверка гипотезы о совпадении уравнений регрессии для двух выборок
- •§ 10. Частные уравнения регрессии
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 4. АВТОКОРРЕЛЯЦИЯ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Суть и причины автокорреляции
- •§ 2. Последствия автокорреляции
- •§ 3. Обнаружение автокорреляции. Критерий Дарбина–Уотсона
- •§ 4. Методы устранения автокорреляции
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 5. ГЕТЕРОСКЕДАСТИЧНОСТЬ СЛУЧАЙНЫХ ВОЗМУЩЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Последствия гетероскедастичности
- •§ 3. Обнаружение гетероскедастичности
- •§ 4. Методы смягчения проблемы гетероскедастичности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 6. МУЛЬТИКОЛЛИНЕАРНОСТЬ
- •§ 1. Общие понятия и последствия мультиколлнеарности
- •§ 2. Определение мультиколлинеарности
- •§ 3. Методы устранения мультиколлинеарности
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 7. ФИКТИВНЫЕ ПЕРЕМЕННЫЕ В РЕГРЕССИОННЫХ МОДЕЛЯХ
- •§ 1. Модель с одной фиктивной (бинарной) переменной
- •§ 3. Сравнение двух регрессий
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 8. НЕЛИНЕЙНАЯ РЕГРЕССИЯ
- •§ 1. Общие понятия
- •§ 2. Степенные модели (логарифмические)
- •§ 3. Обратная модель (гиперболическая)
- •§ 4. Полиномиальная модель
- •§ 5. Показательная модель (лог-линейная)
- •§ 6. Выбор формы модели
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 9. ВРЕМЕННЫЕ РЯДЫ
- •§ 1. Общие понятия
- •§ 2. Моделирование тренда временного ряда
- •§ 4. Стационарные ряды
- •§ 5. Процесс авторегрессии AR(p)
- •§ 6. Процессы скользящего среднего MA(q)
- •§ 7. Комбинированные процессы авторегрессии-скользящего среднего ARMA(p, q)
- •§ 8. Модели ARMA, учитывающие наличие сезонности
- •§ 9. Нестационарные временные ряды. Процессы авторегрессии и проинтегрированного скользящего среднего ARIMA(p, k, q)
- •§ 10. Регрессионные модели с распределенными лагами
- •§ 11. Полиномиально распределенные лаги Ш. Алмон
- •Резюме
- •Вопросы для самопроверки
- •ГЛАВА 10. СИСТЕМЫ ОДНОВРЕМЕННЫХ УРАВНЕНИЙ
- •§ 1. Общие понятия
- •§ 2. Идентификация структурной формы модели
- •§ 3. Косвенный метод наименьших квадратов
- •§ 4. Двухшаговый метод наименьших квадратов
- •§ 5. Трехшаговый метод наименьших квадратов
- •Резюме
- •Вопросы для самопроверки
- •ЗАКЛЮЧЕНИЕ
- •ЗАДАНИЯ ДЛЯ КОНТРОЛЯ
- •Тесты для самоконтроля
- •Ключи к тестам для самоконтроля
- •Контрольная работа
- •Вопросы к зачету (экзамену)
- •ГЛОССАРИЙ
- •СПИСОК ЛИТЕРАТУРЫ
ли отсюда, что одна величина является причиной изменения другой?
4.Изменится ли коэффициент корреляции двух переменных X
иY, если все значения обеих переменных умножить на -1?
5.Изменится ли коэффициент корреляции r xy двух перемен-
ных X и Y, если все значения обеих переменных вырастут в n раз?
6.Изменится ли ковариация двух переменных X и Y, если все значения обеих переменных вырастут в n?
7.Какая зависимость называется статистической?
8.Что означает термин «параметризация модели»?
9.Что означает термин «верификация модели»?
10.Что такое функция регрессии?
11.Почему дисперсия, ковариация, коэффициент корреляции, рассчитанные по выборке отличаются от теоретических значений?
ГЛАВА 2. ПАРНАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ. УСЛОВИЯ ГАУССА–МАРКОВА
Цель: научиться определению параметров уравнения парной линейной регрессии методом наименьших квадратов и проведению анализа построенного уравнения. Изучить условия Гаусса– Маркова и понятия несмещенности, состоятельности и эффективности оценок.
Методические указания
В этой главе важно абсолютно все. На примере парной линейной модели происходит знакомство с регрессионным анализом. Необходимо подробно изучить приведенный пример, что поможет в выполнении первой задачи контрольной работы. Следует обратить внимание на геометрический смысл параметров (коэффициентов) уравнения, на социально-экономический смысл коэффициента при объясняющей переменной. Запомните смысл коэффициента детерминации и пределы его изменения. Обратите внимание, что свойства несмещенности, состоятельности и эффективности оценок следуют из условий Гаусса–Маркова. Обратите внимание на различие между теоретическими понятиями и их оценками.
40
§ 1. Основные понятия
Если функция регрессии линейна, то говорят о линейной регрессии. Модель линейной регрессии (линейное уравнение) является наиболее простым видом зависимости между экономическими переменными. Кроме того, построенное линейное уравнение может служить начальной точкой эконометрического анализа.
Линейная регрессия (теоретическое линейное уравнение рег-
рессии) представляет собой линейную функцию между условным математическим ожиданием M(Y X =xi ) зависимой переменной Y и одной объясняющей переменной X ( xi — значения независимой
переменной в i-м наблюдении). |
|
M(Y X =xi )= β0 +β1xi . |
(2.1) |
Принципиальной является линейность уравнения по параметрам β0, β1 . Так как каждое индивидуальное значение yi отклоняется
от соответствующего условного математического ожидания, в соотношение (2.1) необходимо ввести случайное слагаемое ε ,
yi =M(Y |
X =xi )+εi = β0 +β1xi +εi . |
(2.2) |
Соотношение (2.2) называется теоретической линейной регрессионной моделью, β0 и β1 — теоретическими параметрами (теоретическими коэффициентами) регрессии, εI — случайным отклонением.
Отметим, что в эконометрике уравнение и параметры, относящиеся к генеральной совокупности, называют теоретическими. Уравнение и параметры, полученные в результате оценки с использованием выборочных данных, называют эмпирическими. Заметим, что обычно преподаватели общей теории статистики эмпирические уравнения называют «теоретическими», а теоретические не рассматривают вовсе. Поэтому возможны недоразумения при выполнении тестов Федерального Интернет-экзамена в сфере профессионального образования (http://www.fepo.ru). Необходимо догадаться, какую терминологию использует автор того или иного вопроса.
Следовательно, индивидуальные значения yi представляются в виде суммы двух компонент — систематической β0 и β1xi и случай-
41
ной εi. В общем, теоретическую линейную регрессионную модель будем представлять в виде:
Y = β0 +β1X +ε. |
(2.3) |
Как правило, переменные будем обозначать прописными символами, а индивидуальные значения переменных — соответствующими строчными. Теоретические значения параметров обозначаем буквами греческого алфавита, а их оценки — латинскими.
Для определения значений теоретических коэффициентов регрессии необходимо знать и использовать все значения переменных Y и X генеральной совокупности, что невозможно.
Таким образом, задачи линейного регрессионного анализа состоят в том, чтобы по имеющимся статистическим данным
(xi , yi), i =1, ..., n , для переменных Y и X:
а) получить наилучшие оценки неизвестных параметров β0 иβ1; б) проверить статистические гипотезы о параметрах модели; в) проверить, достаточно ли хорошо модель согласуется со ста-
тистическими данными (адекватность модели данным наблюдений). Следовательно, по выборке ограниченного объема мы сможем
построить так называемое эмпирическое уравнение регрессии:
ˆyi =b0 +b1xi , |
(2.4) |
где ˆyi — оценкаусловногоматематического ожидания M(Y (X =xi ) ;
b0 и b1 — оценки неизвестных параметров β0 и β1, называемые эм-
пирическими коэффициентами регрессии. Следовательно, в кон-
кретном случае:
yi =b0 +b1xi +ei , |
(2.5) |
где отклонение еi — оценка теоретического случайногоотклонения εi. В силу несовпадения статистической базы для генеральной совокупности и выборки оценки b0 и b1 практически всегда отличаются от истинных значений коэффициентов β0 и β1, что приводит к несовпадению эмпирической и теоретической линий регрессии. Различные выборки из одной и той же генеральной совокупности
42
обычно приводят к определению отличающихся друг от друга оценок.
Задача состоит в том, чтобы по конкретной выборке (xi , yi), i =1, ..., n найти оценки b0 и b1 неизвестных параметров β0 и
β1 так, чтобы построенная линия регрессии являлась наилучшей в определенном смысле среди всех других прямых линий. Построенная прямая Yˆ =b0 +b1 X должна быть «ближайшей» к точкам на-
блюдений по их совокупности.
Самым распространенным и теоретически обоснованным является метод нахождения коэффициентов, при котором минимизиру-
n |
n |
ется сумма ∑ei2 =∑(yi−ˆyi)2 . Он получил название метод наи- |
|
i=1 |
i=1 |
меньших квадратов (МНК). Этот метод оценки является наиболее простым с вычислительной точки зрения. Кроме того, оценки коэффициентов регрессии, найденные МНК при определенных предпосылках, обладают рядом оптимальных свойств.
§ 2. Метод наименьших квадратов
Пусть по выборке (xi , yi), i =1, ..., n , требуется определить
оценки b0 и b1 эмпирического уравнения регрессии (2.4).
В этом случае при использовании МНК минимизируется следующая функция:
( |
) |
n |
2 |
n |
ˆ 2 |
n |
2 |
(2.6) |
Q |
b0,b1 |
=∑ei |
=∑(yi−yi) |
=∑(yi−b0−b1xi) |
|
|||
|
|
i=1 |
|
i=1 |
|
i=1 |
|
|
Нетрудно заметить, что функция Q(b0,b1) является квадратичной функцией двух параметров b0 и b1, поскольку (xi , yi), i =1, ..., n — известные данные наблюдений. Так как функция Q(b0,b1) непрерывна, выпукла и ограничена снизу Q(b0,b1)>0 , то она имеет ми-
нимум.
Необходимым условием существования минимума функции двух переменных (2.6) является равенство нулю ее частных производных по неизвестным параметрам b0 иb1.
43
∂Q |
|
n |
|
|
|
||
|
|
=−2∑(yi −b0 −b1xi)=0 |
|||||
|
|||||||
∂b0 |
|
i=1 |
|
|
|
||
|
|
|
|
|
|
|
|
∂Q |
|
n |
|
|
|
||
|
|
=−2∑ (yi −b0 −b1xi)xi =0 |
|||||
|
|||||||
∂b1 |
|
i=1 |
|
|
|
||
|
|
|
n |
|
n |
|
|
|
nb0 |
+b1∑xi =∑ yi |
|
||||
|
|
|
i=1 |
|
i=1 |
|
|
|
|
n |
n |
|
n . |
||
|
|
∑ |
∑ |
2 |
y |
i |
|
|
n |
xi +b1 |
xi |
=∑xi |
|||
|
|
i=1 |
i=1 |
|
i=1 |
|
Решение данной системы имеет вид:
(2.7)
(2.8)
|
|
|
|
|
|
n |
|
|
|
|
|
n |
|
|
|
|
|
|
n |
|
|
|
|
n |
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
∑ yi |
× ∑ xi2 − ∑ xi × ∑ xiyi |
|
||||||||||||||||||||||||||||||||||||||
b0 = |
|
i=1 |
|
i=1 |
i=1 |
|
|
|
i=1 |
|
|
, |
|
|
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
|
n |
2 |
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
∑ xi − |
∑ xi |
|
|
|
|
|
|
|
|
||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i=1 |
i=1 |
|
|
|
|
|
|
|
|
(2.9) |
||||||||||||||||||
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
n |
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
n ∑ xi yi |
|
− ∑ xi × ∑ yi |
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||
b1 = |
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
|
|
i=1 |
|
|
|
|
i=1 |
. |
|
|
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
n |
2 |
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
∑ xi |
− |
∑ xi |
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
Если в формулах (2.9) числитель и знаменатель разделить на n2, |
||||||||||||||||||||||||||||||||||||||||||||||
то получим: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
− |
|
|
× |
|
|
|
|
|
|
|
|
|
× |
|
|
|
|
− |
|
|
× |
|
|
|
|||||||||
b0 = |
y |
|
× x2 |
x |
|
|
xy |
|
= |
|
y |
|
x2 |
x |
|
xy |
|
, |
||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
Var(x) |
|
|
|
|
|||||||||||
|
|
|
|
|
|
x2 − (x) |
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||
b1 = |
|
|
|
|
− |
|
|
|
|
|
|
= |
|
|
− |
|
× |
|
|
. |
|
|
|
|
|
|
|
|
||||||||||||||||||
xy |
x |
|
× y |
xy |
x |
y |
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||
|
|
|
|
|
x2 − (x) |
|
|
|
|
|
|
|
Var(x) |
|
|
|
|
|
|
|
|
|
|
|
|
44
Можно получить следующие формулы для определения параметров:
b1 = |
Var (Y ) |
r xy , b0 = y−b1x . |
Var (X ) |
Таким образом, по МНК оценки параметров b0 и b1 определяются по формулам (2.9) или эквивалентным им.
Справедливы следующие результаты:
1.Оценки МНК являются функциями от выборки, что позволяет их легко рассчитывать.
2.Оценки МНК являются точечными оценками теоретических коэффициентов регрессии.
3.Согласно первой формуле системы (2.8), эмпирическая пря-
мая регрессии обязательно проходит через точку x, y .
4. Эмпирическое уравнение регрессии построено таким обра-
n
зом, что сумма отклонений ∑ei =0 , а также среднее значение от-
i=1
n
клонения e= ∑ei
i=1
n =0 .
5.Остатки еi не коррелированны с наблюдаемыми значениями xi независимой переменной X.
6.Остатки еi не коррелированны со значениями ˆyi =b0 +b1xi.
Пример 2.1. Для анализа зависимости объема потребления Y (ден. ед.) домохозяйства от располагаемого дохода X (ден. ед.) отобрана выборка объема n = 20 домохозяйств, результаты которой приведены в табл. 2.1. Необходимо определить вид зависимости, по МНК оценить параметры уравнения регрессии Y на X и спрогнозировать потребление при доходе X= 160.
Решение. Для определения вида зависимости построим корреляционное поле (рис. 2.1).
45
Рис. 2.1. Зависимость объема потребления Y (ден. ед.) домохозяйства
от располагаемого дохода X (ден. ед.)
По расположению точек на корреляционном поле полагаем, что
ˆ
зависимость между X и Y линейная: Y =b0 +b1X .
|
|
|
|
|
|
Таблица 2.1 |
|
|
Исходные данные и вспомогательные расчеты |
|
|
||||
|
|
|
|
|
|
|
|
№ |
xi |
yi |
|
xiyi |
|
2 |
|
п/п |
|
|
xi |
|
|||
1 |
2 |
3 |
|
4 |
|
5 |
|
1 |
106 |
102 |
|
10812 |
|
11236 |
|
2 |
107 |
102 |
|
10914 |
|
11449 |
|
3 |
108 |
104 |
|
11232 |
|
11664 |
|
4 |
109 |
106 |
|
11554 |
|
11881 |
|
5 |
110 |
108 |
|
11880 |
|
12100 |
|
6 |
112 |
108 |
|
12096 |
|
12544 |
|
7 |
113 |
112 |
|
12656 |
|
12769 |
|
8 |
118 |
114 |
|
13452 |
|
13924 |
|
9 |
120 |
112 |
|
13440 |
|
14400 |
|
10 |
122 |
118 |
|
14396 |
|
14884 |
|
11 |
123 |
120 |
|
14760 |
|
15129 |
|
12 |
125 |
121 |
|
15125 |
|
15625 |
|
|
|
|
46 |
|
|
|
|
|
|
|
|
|
Окончание табл. 2.1 |
|||
|
|
|
|
|
|
5 |
|
|
|
1 |
2 |
3 |
4 |
|
|
||
|
13 |
128 |
122 |
15616 |
|
16384 |
|
|
|
14 |
130 |
127 |
16510 |
|
16900 |
|
|
|
15 |
136 |
131 |
17816 |
|
18496 |
|
|
|
16 |
138 |
136 |
18768 |
|
19044 |
|
|
|
17 |
142 |
134 |
19028 |
|
20164 |
|
|
|
18 |
143 |
139 |
19877 |
|
20449 |
|
|
|
19 |
148 |
143 |
21164 |
|
21904 |
|
|
|
20 |
152 |
142 |
21584 |
|
23104 |
|
|
|
ИТОГО |
2490 |
2401 |
302680 |
|
314050 |
|
|
|
|
|
|
|
|
|
|
|
Согласно МНК, имеем:
|
n |
n |
|
|
n |
|
n |
|
∑ yi × ∑ xi2 |
− ∑ xi × ∑ xiyi |
|||||
b0= |
i=1 |
i=1 |
|
|
i=1 |
|
i=1 |
|
n |
|
2 |
n |
|
2 |
|
|
n |
∑ |
x |
∑ |
x |
|
|
|
|
i |
− |
i |
|||
|
|
i=1 |
|
|
|
||
|
|
|
|
i=1 |
|
|
=2401×314050−2490×302680 =4,46; 20×314050−24902
|
n |
|
|
n |
n |
|
|
|
|
n ∑ xi yi − ∑ xi × ∑ yi |
|
20×302680−2490×2401 |
|
||||
b = |
i=1 |
|
|
i=1 |
i=1 |
= |
=0,928. |
|
|
|
|
||||||
|
|
|
|
|
|
|||
1 |
|
n |
|
n |
2 |
|
20×314050−24902 |
|
|
|
2 |
|
|||||
|
n |
|
|
|
|
|
|
|
|
∑ xi |
− ∑ xi |
|
|
|
|||
|
|
i=1 |
|
i=1 |
|
|
|
|
Таким образом, уравнение парной линейной регрессии имеет
ˆ
вид: Y =4,46+0,928X . Данная прямая линия изображена на корреляционном поле. По этому уравнению при xi = 160 рассчитаем
ˆyi =4,46+0,928×160=152,94 .
Построенное уравнение регрессии требует интерпретации и анализа. Необходимо словесное описание полученных результатов с трактовкой найденных коэффициентов. Коэффициент b1 = 0,928 может трактоваться как предельная склонность к потреблению. Он показывает, на какую величину изменится объем потребления, если располагаемый доход возрастает на одну единицу. На графике ко-
47