Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Эконометрика.doc / Эконометрика.doc
Скачиваний:
245
Добавлен:
11.04.2015
Размер:
7.44 Mб
Скачать

Глава 2. Множественная корреляция и регрессия

Простая регрессия редко используется в практических исследованиях, т. к. экономические явления, как правило, определяются большим числом одновременно и совокупно действующих факторов. В связи с этим возникает задача исследования зависимости одной зависимой переменной от нескольких независимых переменных. В этом случае мы имеем дело с множественным регрессионным анализом, который, сочетается с множественным корреляционным анализом.

Одно из различий этих двух видов анализа заключается в том, что в корреляционном анализе переменные равноправны, а в регрессионном анализе они делятся на зависимые и независимые. Такое деление в последнем случае хотя и обязательно, но довольно условно. Причинно-следственные связи устанавливаются обычно вне статистических методов исходя из профессионально-логических соображений. Статистические же методы позволяют изучать лишь зависимостимежду переменными.

Корреляционный анализ обычно предшествует регрессионному анализу, поэтому рассмотрим сначала его.

2.1. Множественный корреляционный анализ

2.1.1. Анализ матрицы парных коэффициентов корреляции

Такая матрица состоит из коэффициентов парных корреляций, рассчитанных для набора переменных y, x1, x2,….., xmи размещенных в виде матрицы. В дальнейшем переменнуюy будем называть зависимой, а остальные – независимыми. Для корреляционного анализа эти переменные равноправны, но для удобства анализа мы их будем различать.

Поскольку rxy=ryx, то корреляционная матрица симметрична относительно главной диагонали, поэтому естественно анализировать только одну из её частей (верхнюю или нижнюю относительно главной диагонали). Пусть корреляционная матрицаRимеет вид:

y x1 x2 xm

.

В дальнейшем будем анализировать верхнюю часть такой матрицы.

Задача анализа такой матрицы обычно преследует две цели: выявление значимых и мультиколлинеарных независимых переменных.

Первая строка матрицы содержит коэффициенты корреляции между зависимой переменной yи независимыми переменнымих1, х2, …, xm. Коэффициенты этой строки анализируют с целью выявления значимых независимых переменных. Значимость независимой переменной здесь понимается с точки зрения влияния ее на зависимую переменную. Если проверка гипотезы Н0:= 0 покажет, что коэффициент корреляции междуyиxiнезначимо отличен от нуля, то это означает, что соответствующая независимая переменная незначимо влияет на зависимую переменную, т. е. незначима, и в уравнение регрессии ее включать не следует. Отметим, что подобные выводы правомерны лишь на начальном этапе анализа информации, на самом деле взаимосвязи здесь более сложные, о чем речь ниже.

Второй этап анализа матрицы парных коэффициентов корреляции заключается в выявлении мультиколлинеарности среди независимых переменных (высокой интеркорреляции). Идеальным условием реализации регрессионного анализа является независимость между собой независимых переменных. Но это практически никогда не выполняется, и уж совсем нежелательно, чтобы между независимыми переменными наблюдалась тесная корреляционная взаимосвязь. В этом случае говорят о коллинеарности переменных. Считается, что две случайные переменные коллинеарны, если коэффициент корреляции между ними не менее 0,8. Если таких переменных несколько, то говорят о мультиколлинеарности. Мультиколлинеарность для регрессионного анализа нежелательна, и, как было отмечено, ее выявление является одной из задач анализа матрицы парных коэффициентов корреляции.

Для этого просматривается оставшаяся часть матрицы R (кроме первой строки) и выделяются коэффициенты, по величине 0,8. Они и укажут на коллинеарные переменные. Обычно в уравнении регрессии оставляют те из значимых коллинеарных переменных, которые слабее связаны с другими зависимыми переменными. Более подробно об этом ниже.