
- •Ковалев а.Н. Эконометрика
- •Ковалев а.Н. Эконометрика
- •Методические рекомендации для проведения лабораторных занятий и самостоятельной работы студентов по курсу «Эконометрика» предназначено для студентов всех специальностей и направлений подготовки вуза.
- •Содержание
- •Введение
- •Тема 1. Предмет, метод и задачи эконометрики
- •Контрольные вопросы
- •Тема 2. Парная регрессия и корреляция
- •Контрольные вопросы
- •Задания для лабораторных занятий и самостоятельного решения
- •Задача 6. В результате наблюдения 16 пар переменных (х и y) получены следующие данные:
- •Тема 3. Множественная регрессия и корреляция
- •Контрольные вопросы
- •Задания для лабораторных занятий и самостоятельного решения
- •Тема 4. Нелинейные регрессионные модели
- •Контрольные вопросы
- •Задания для лабораторных занятий и самостоятельного решения
- •Тема 5. Регрессионные модели с переменной структурой
- •Контрольные вопросы
- •Задания для лабораторных занятий и самостоятельного решения
- •Контрольные вопросы
- •Задания для лабораторных занятий и самостоятельного решения
- •Тема 7. Системы одновременных уравнений
- •Контрольные вопросы
- •Задания для практических занятий и самостоятельного решения
- •Глоссарий
- •Словарь терминов
- •Примерная тематика рефератов
- •Список литературы
- •Ковалев Александр Николаевич Эконометрика
- •308023, Г. Белгород, ул. Садовая, 116а
Глоссарий
Алгоритм Левенберга-Маркара – метод нелинейной оптимизации, использующий для поиска минимума комбинированную стратегию - линейную аппроксимацию и градиентный спуск; переключение с одного метода на другой происходит в зависимости от того, была ли успешной линейная аппроксимация; такой подход называется моделью доверительных областей.
Анализ выживаемости – (разведочный анализ данных и проверка гипотез) включает описательные методы для оценивания распределения выборочных времен жизни, сравнения выживаемости в двух или нескольких группах, а также опции подгонки линейных и нелинейных регрессионных моделей к данным о выживаемости. Характерным аспектом данных о выживаемости является наличие так называемых цензурированных наблюдений, например, наблюдаемых объектов, которые дожили до определенного момента времени, а после этого были исключены из наблюдения. Вместо удаления такого наблюдения из множества изучаемых данных (т.е. необязательной потери потенциально важной информации), методы анализа выживаемости позволяют собрать цензурированные наблюдения и использовать их при проверке статистической значимости и подгонке модели.
Анализ главных компонент – линейный метод понижения размерности, в котором определяются попарно ортогональные направления максимальной вариации исходных данных, после чего данные проектируются на пространство меньшей размерности, порожденное компонентами с наибольшей вариацией.
Апостериорные сравнения – обычно, получив при проведении дисперсионного анализа статистически значимое значение F-критерия, необходимо узнать, какая из групп вызвала этот эффект, т.е. какие из групп значительно отличаются от других. Можно вычислить последовательность обычных f-критериев для сравнения всех возможных пар средних. Однако такая процедура будет основана на случайности. Получаемые уровни вероятности будут завышать значимость различия между средними. Метод апостериорных сравнений, наоборот, предполагает наличие более чем двух выборок. Этот метод используется для проверки гипотез и разведочного анализа.
Асимметрия – асимметрия или коэффициент асимметрии является мерой несимметричности распределения. Если асимметрия отчетливо отличается от 0, распределение асимметричное, плотность нормального распределения симметрична относительно среднего.
Временной ряд - это последовательность измерений в последовательные моменты времени.
Выбросы – это нетипичные или редкие значения, которые существенно отклоняются от распределения остальных выборочных данных. Эти данные могут отражать истинные свойства изучаемого явления (переменной), а могут быть связаны с ошибками измерения или аномальными явлениями, и поэтому не должны включаться в модель. Из-за особого способа определения линии регрессии при вычислении множественной регрессии (особенно при минимизации не сумм отклонений, а суммы квадратов отклонений наблюдений от линии регрессии), выбросы оказывают существенной влияние на угол наклона регрессионной линии и, соответственно, на коэффициент корреляции. Всего один выброс может полностью изменить наклон регрессионной линии и, следовательно, вид зависимости между переменными. Обычно предполагается, что выбросы являются случайными ошибками, влияние которых хотелось учесть. Понятно, что выбросы могут не только искусственно увеличить коэффициент корреляции, но могут также и уменьшить степень "реальной" зависимости.
Вырожденная матрица – прямоугольная матрица называется вырожденной, если элементы столбца (или строки) матрицы линейно зависимы, с элементами других столбцов (или строк). Например, если элементы одного из столбцов матрицы равны 1, -1,0, а элементы другого столбца равны 2, -2,0, то матрица вырождена, поскольку умножая элементы первого столбца на два, мы получаем элементы второго столбца.
Группировка – это процедура, позволяющая вычислить описательные статистики и корреляции для зависимых переменных, наблюдения которых разбиты на группы, определяемыми одной (или более) группирующей (независимой) переменной. Эта процедура используется в проверке гипотез или в разведочных методах.
Дискриминантный анализ – используется для принятия решения о том, какие переменные дискриминируют или разделяют объекты на две или более естественно возникающих (или заранее определенных) групп (его используют как метод проверки гипотез или как метод разведочного анализа). Переменные, с помощью которых происходит дискриминация объектов, называются дискриминирующими.
Дисперсионный анализ – целью дисперсионного анализа является проверка значимости различия между средними с помощью сравнения дисперсий. А именно, разделение общей дисперсии на несколько источников (связанных с различными эффектами в плане), позволяет сравнить дисперсию, вызванную различием между группами, с дисперсией, с дисперсией, вызванной внутригрупповой изменчивостью. При истинности нулевой гипотезы оценка дисперсии, связанной с внутригрупповой изменчивостью, должна быть близкой к оценке межгрупповой дисперсии.
Доверительные интервалы и интервалы предсказания – проведение регрессионного анализа позволяет предсказать значения зависимой переменной, исходя из заданных значений независимых переменных. После этого, можно дополнительно вычислить доверительные интервалы и/или интервалы предсказания.Доверительный интервал предоставляет информацию об ожидаемом (среднем) значении зависимой переменной. Таким образом, доверительный интервал для предсказанного значения зависимой переменной содержит информацию о диапазоне возможных значений, расположенных вокруг "истинного" (популяционного) среднего зависимой переменной с заданным уровнем доверия.
Избыточная дисперсия – относится к случаю, когда дисперсия наблюдаемых зависимых переменных превышает значение дисперсии для соответствующего предполагаемого распределения.
Инерция – термин инерция в анализе соответствий используется по аналогии с определением в прикладной математике понятия "момент инерции", которое определяется как интеграл массы умноженной на квадрат расстояния до центра масс. Инерция определяется как значение статистики Хи-квадрат Пирсона для двухвходовой таблицы деленное на сумму всех наблюдений в таблице.
Интервальная шкала – эта шкала измерений позволяет не только упорядочить наблюдения, но и количественно выразить расстояния между ними.
Интерполяция – восстановление значения функции в промежуточной точке по известным ее значениям в соседних точках
Йетса скорректированный хи-квадрат – аппроксимация статистики хи-квадрат для таблиц 2x2 с малыми частотами может быть улучшена понижением абсолютного значения разностей между ожидаемыми и наблюдаемыми частотами на величину 0.5 перед возведением в квадрат (так называемая поправка Иетса). Поправка Иетса, делающая оценку более умеренной, обычно применяется в тех случаях, когда таблицы содержат только малые частоты, таким образом, некоторые ожидаемые частоты становятся меньше 10.
Квадратичная функция ошибок – функция ошибок, равная сумме квадратов разностей целевых и фактических значений.
Квази-ньютоновский метод – это процедура нелинейного оценивания, вычисляющая на каждом шаге значения функции в различных точках для оценивания первой и второй производной, и использующая эти данные для определения направления изменения параметров и минимизации функции потерь.
Кластерный анализ – термин кластерный анализ включает в себя набор различных алгоритмов классификации. Общий вопрос, задаваемый исследователями во многих областях, состоит в том, как организовать наблюдаемые данные в наглядные структуры, т.е. развернуть таксономии или определить кластеры схожих объектов.
Корреляция – это мера связи между двумя переменными. Коэффициент корреляции может изменяться от -1 до +1. Чем ближе к 1 тем связь теснее, чем ближе к 0 связь слабее. Значение -1 означает полностью отрицательную корреляцию, значение +1 означает полностью положительною, корреляцию. При этом переменные связаны строгой линейной зависимостью. Значение 0 означает отсутствие корреляции.
Корреляция Пирсона – наиболее часто используемый коэффициент корреляции Пирсона называется также линейной корреляцией, т.к. измеряет степень линейных связей между переменными.
Коэффициент детерминации – это квадрат корреляции Пирсона между двумя переменными. Он характеризует долю результативного признака «у» объясняемую регрессией, следовательно 1 – r2 доля дисперсии объясняемая другими случайными факторами.
Коэффициент регрессии – показывает как изменяется результативный признак, с изменением факторного признака на 1.
Кривые Джонсона – система плотностей, получающихся преобразованием стандартной нормальной плотности. Применяя эти преобразования к стандартной нормальной переменной (т.е. переменной со средним 0 и стандартным отклонением 1) можно аппроксимировать различные распределения, отличные от нормальных, включая распределения, сосредоточенные на полуосях или компактах.
Кривые Джонсона – система плотностей, получающихся преобразованием стандартной нормальной плотности. Применяя эти преобразования к стандартной нормальной переменной (т.е. переменной со средним 0 и стандартным отклонением 1) можно аппроксимировать различные распределения, отличные от нормальных, включая распределения, сосредоточенные на полуосях или компактах. Преимущество этого подхода в том, что если однажды кривая Джонсона была подогнана к данным, то затем можно использовать стандартное нормальное распределение для вычисления нужных процентных точек.
Критерии однородности дисперсии Левена и Брауна-Форсайта – важным предположением дисперсионного анализа является предположение об однородности дисперсии в различных группах. Наиболее часто для проверки этого предположения используются два достаточно мощных критерия: критерий Левена и его модификация, предложенная Брауном-Форсайтом. Однако важно понимать, что (1) предположение однородности дисперсии не так критично, как другие предположения дисперсионного анализа, а также, что (2) описанные ниже критерии сами по себе не обязательно являются очень устойчивыми.
Критерий Андерсона-Дарлинга – является общим критерием согласия эмпирической (оцененной) функции распределения с ожидаемой или гипотетической. Этот критерий применяется к данным без цензурирования. Критические значения статистики Андерсона-Дарлинга табулированы для объемов выборки от 10 до 40; этот критерий не вычисляется для объема выборки п меньше 10 и больше 40.
Латентная переменная – это переменная, значения которой в ходе наблюдения не доступны для непосредственного измерения, а лишь могут быть оценены в соответствии с выдвинутой гипотезе по значениям явных переменных.
Ложные корреляции – это корреляции, которые вызваны влиянием одной или нескольких "других" переменных.
Лямбда – определяется как геометрическая сумма 1 минус квадрат канонической корреляции, при этом лямбда также упоминается как лямбда Уипка. Квадрат канонической корреляции является оценкой доли дисперсии, общей между двумя каноническими переменными, поэтому 1 минус это значение равно оценке необъясненной доли дисперсии. Лямбда используется в качестве статистики критерия значимости квадрата канонической корреляции и имеет распределение хи-квадрат:
Медиана выборки – это значение, которое разбивает выборку на две равные части. Половина наблюдений лежит ниже медианы, и половина наблюдений лежит выше медианы. Если число наблюдений в выборке нечетно, то медиана вычисляется как среднее двух средних значений.
Метод Монте-Карло – это специальный метод изучения поведения заданной статистики при проведении многократных повторных выборок, существенно использующий вычислительные возможности современных компьютеров. При проведении анализа по методу Монте-Карло компьютер использует процедуру генерации псевдослучайных чисел для имитации данных из изучаемой генеральной совокупности. Процедура анализа по методу Монте-Карло модуля моделирование структурными уравнениями строит выборки из генеральной совокупности в соответствии с указаниями пользователя, а затем производит следующие действия: имитирует случайную выборку из генеральной совокупности; проводит анализ выборки; сохраняет результаты.
Метод наименьших квадратов – общий смысл оценивания по методу наименьших квадратов заключается в минимизации суммы квадратов отклонений наблюдаемых значений зависимой переменной от значений, предсказанных моделью.
Множественная регрессия – общее назначение множественной регрессии состоит в анализе связи между несколькими независимыми переменными (называемыми также регрессорами или предикторами) и зависимой переменной.
Множественный коэффициент корреляции R – это положительный квадратный корень из R-квадрата (множественного коэффициента детерминации) Эта статистика полезна при проведении многомерной регрессии (т.е. использовании нескольких независимых переменных), когда необходимо описать зависимость между переменными.
Мода – это значение, наиболее часто встречающееся в выборке.
Объясненная дисперсия – доля вариации данных, учитываемая моделью.
Объясняемая переменная (результат) – это зависимая переменная, вычисляемая по спецификации модели при подстановке в неё объясняющих переменных (обычно обозначаются через «у»).
Объясняющие переменные (факторы) – это независимые изменяемые, переменные модели (обычно обозначаются через «х»).
Отрицательная корреляция – связь между двумя переменными может быть следующей - когда значения одной переменной возрастают, значения другой переменной убывают. Это и показывает отрицательный коэффициент корреляции. Про такие переменные говорят, что они отрицательно коррелированны.
Параметры модели – это коэффициенты уравнения (обычно обозначаются через «а0», «а1», «а2», «а3»,...., «аn»,).
Парная регрессия – общее назначение парной регрессии состоит в анализе связи между одной независимой переменной и зависимой переменной.
Подавляющая переменная – имеет нулевую (или почти нулевую) корреляцию с критериальной переменной, но коррелированную с одной или несколькими предикторными переменными и, поэтому, она подавляет не относящуюся к делу дисперсию независимых переменных.
Положительная корреляция – связь между двумя переменными может быть следующей - когда значения одной переменной возрастают, значения другой переменной также возрастают. Это и показывает положительный коэффициент корреляции. Про такие переменные говорят, что они положительно коррелированы.
Производственная функция – представляет собой математическую модель, характеризующую зависимость объема выпускаемой продукции от объема трудовых и материальных затрат.
Расстояния Махаланобиса – независимые переменные в уравнении регрессии можно представлять точками в многомерном пространстве (каждое наблюдение изображается точкой). В этом пространстве можно построить точку центра. Эта средняя точка в многомерном пространстве называется центроидом, т.е. центром тяжести. Расстояние Махаланобиса определяется как расстояние от наблюдаемой точки до центра тяжести в многомерном пространстве, определяемом коррелированными (неортогональными) независимыми переменными (если независимые переменные некоррелированы, расстояние Махаланобиса совпадает с обычным евклидовым расстоянием). Эта мера позволяет, в частности, определить является ли данное наблюдение выбросом по отношению к остальным значениям независимых переменных.
Регрессионные бета-коэффициенты – коэффициенты Бета являются коэффициентами, которые были бы получены, если бы мы заранее стандартизовали все переменные, т.е. сделали их среднее равным 0 а стандартное отклонение равное 1. Одним из преимуществ Бета коэффициентов заключается в том, что бета-коэффициенты позволяют сравнить относительные вклады каждой независимой переменной в предсказание зависимой переменной.
Спецификация – это конкретная аналитическая запись математической модели.
Средний коэффициент эластичности – показывает на сколько процентов в среднем как изменяется результативный признак, с изменением факторного признака на один процент.
Средняя ошибка аппроксимации – позволяет оценить качество модели и недолжно превышать 8%.
Стандартная ошибка – это стандартное отклонение выборочного среднего.
Статистический уровень значимости (р-уровень) – статистическая значимость результата представляет собой меру уверенности в его истинности (в смысле репрезентативности выборки). Более точно, р-уровень - это показатель, обратно пропорциональный надежности результата. Более высокий р-уровень соответствует более низкому уровню доверия найденным в выборке результатам.
Стохастическая связь – это связь между величинами, при которой одна из них «у» реагирует на изменение другой величины «х» путем изменения закона распределения.
Стьюдента t-критерий – позволяет оценить надежность параметров регрессии и коэффициентов корреляции, и должно быть больше критического (табличного) значения.
Уровень значимости – это вероятность, с которой может быть опровергнута гипотеза о том или ином законе распределения (например 2-м доверительным вероятностям 0,95 и 0,99 соответственно соответствует 5% и 1% уровень значимости, т.е. 1 = 0,05, 2 = 0,01).
Фишера F-критерий – позволяет оценить качество модели и должно быть больше критического (табличного) значения.
Функциональная связь – это связь между величинами при которой каждому возможному значению независимого признака «х» соответствует одно или несколько определенных значений зависимого признака «у».
Частная корреляция – корреляция между двумя переменными, вычисленная при фиксированных уровнях всех других переменных, называется частной корреляцией.
Частный коэффициент регрессии – показывает как изменяется результативный признак с изменением соответствующего факторного признака на 1, при фиксированном положении остальных факторов.
Число степеней свободы - представляет собой число свободно варьирующих элементов совокупности.
Экзогенная переменная – это переменная, которая не входит ни в одно уравнение структурной модели в качестве зависимой переменной.
Эконометрика – это наука, которая дает количественное выражение взаимосвязей между различными социально-экономическими показателями, явлениями и процессами на основании реальных статистических данных.
Экстраполяция – прогнозирование неизвестных значений путем продолжения функций за границы области известных значений.
Эксцесс – или точнее, коэффициент эксцесса измеряет пикообразность распределения. Если эксцесс значимо отличен от 0, то функция плотности либо имеет более закругленный пик, либо имеет более острый пик, чем пик плотности нормального распределения. Функция плотности нормального распределения имеет эксцесс равный 0.
Эндогенная переменная – это переменная, которая входит в качестве зависимой переменной хотя бы в одно линейное уравнение структурной модели.
Ядерные функции – функции известного типа (как правило, гауссовы), которые размещаются в известных точках данных и затем суммируются, и таким образом строится аппроксимация выборочного распределения.