- •(Технический университет)
- •Введение
- •Лабораторная работа 5. ЛинЕная регрессия.
- •5.1. Теоретические сведения
- •5.2. Оценка качества построенной модели.
- •5.3. Геометрическая интерпретация
- •5.4. Матричная форма записи
- •5.5. Средство «Регрессия» надстройки «Пакет анализа»msExcel
- •Задание. Построение уравнения парной Линейной регрессии
- •Варианты заданий.
- •Лабораторная работа 6. Нелинейная регрессия.
- •6.1. Теоретические сведения
- •6.2. Оценка качества построенной модели
- •Задание
- •Список литературы
Лабораторная работа 5. ЛинЕная регрессия.
Цель: освоить на практике нахождение с помощью табличного процессора MS EXCEL числовых характеристик линейной парной регрессии, а также изучить основные свойства теории корреляции.
5.1. Теоретические сведения
Рассмотрим некоторый экономический объект (процесс, явление, систему) и выделим только две признака (величины), характеризующие этот объект. Обозначим признакибуквами Y и X.
Тесноту
линейной связи между признаками Y
и Xхарактеризуеткоэффициент корреляции
:
, (5.1)
где величина
называетсяковариациеймежду
признакамиY
и X,
;
.
Отметим,
что
.
Чем ближе
к единице, тем сильнее связь. Если
,
то между признаками
и
существует прямая зависимость, т.е. с
ростом одного признака другой признак
тоже возрастает. Если
,
то между признаками
и
существует обратная зависимость, т.е.
с ростом одного признака другой признак
убывает. Если
,
то между признаками
и
существует линейная зависимость. Если
,
то между признаками
и
отсутствует линейная зависимость.
Иногда показателям тесноты связи можно дать качественную оценку (шкала Чеддока) (табл.5.1).
Таблица 5.1
|
Количественная мера тесноты связи |
Качественная характеристика силы связи |
|
0,1-0,3 |
Слабая |
|
0,3-0,5 |
Умеренная |
|
0,5-0,7 |
Заметная |
|
0,7-0,9 |
Высокая |
|
0,9-0,99 |
Весьма высокая |
Следует
отметить, что при вычислении коэффициента
корреляции
оба
признака
и
входят
симметрично (равноправно), т.е. он
характеризует как зависимость
от
,
так и зависимость
от
.
Будем предполагать, что независимая переменная X (объясняющая переменная, предиктор, факторный признак, регрессор) оказывает воздействие на значения зависимой переменнойY (отклик, результативный признак), т.е. имеет место зависимость:
(5.2)
Зависимость (5.2) можно рассматривать с целью установления самого факта наличия или отсутствия значимойсвязи междуY иX, можно преследовать цель прогнозирования неизвестных значенийY по известным значениямX, наконец, возможно выявление причинно-следственных связей междуX иY.Таким образом, уравнение регрессии позволяет провести анализ и прогноз.
Пусть мы располагаем п- парами выборочных наблюдений над двумя переменнымиX иY:
(5.3)
Функция f(X)называется функцией регрессииYнаX,если она описывает изменение значений результирующей переменнойYв зависимости от изменения значений объясняющей переменнойХ. Таким образом, имеет место уравнение регрессионной связи междуYиX:
(5.4)
Присутствие в модели (5.4) случайной компоненты i, называемойслучайным членомиливозмущением, обусловлено следующими причинами:
ошибками спецификации, то есть отбора факторов и выбора связи между явлениями;
ошибками измерения;
ошибками, связанными со случайностью человеческих реакций.
Относительно необходимо принять ряд гипотез, известных как условия Гаусса-Маркова:
Равенство нулю математического ожидания случайного члена:
![]()
Постоянство дисперсии регрессионных остатков (гомоскедастичность остатков):
![]()
Отсутствие систематической связи (корреляции) между значениями случайного члена в любых двух наблюдениях:

- неслучайные величины.
Уравнение линейной регрессии
(5.5)
В данной
работе
- теоретические значения отклика.
Коэффициент
в уравнении (5.5) называетсякоэффициентом
регрессии. Его величина показывает
среднее изменение результата при
изменении фактора на единицу. Параметр
может и не иметь экономического смысла,
формально это значение функции при
нулевом значении параметра
.
Для определения коэффициентов
уравнения (5.5) используется
метод наименьших квадратов (МНК).
.

Рис.5.1 Геометрический смысл метода наименьших квадратов.
Рассмотрим сумму
, (5.6)
она равна сумме квадратов отклонений.
Величина этой суммы
зависит от коэффициентов
и
.
Суть метода наименьших квадратов
(МНК) заключается ввыборе
таких оценок
и
,
для которых сумма квадратов отклонений
(остатков) найденных значений функции
(5.5) от заданных значений
функции (5.3)для всех точек
будет минимальной.
Для
того чтобы найти набор коэффициентов
и
,
которые доставляют минимум функции
,
определяемой формулой (5.6), используем
необходимое условие экстремума функции
нескольких переменных - равенство нулю
частных производных. В результате
получим нормальную систему для определения
коэффициентов
и
:
(5.7)
После преобразования систему (5.7) можно привести к виду
(5.8)
Таким
образом, нахождение коэффициентов
и
сводится
к решению системы линейных уравнений
относительно
и
.
Эту систему можно решить различными
способами: с помощью обратной матрицы,
по формулам Крамера, методом Гаусса,
методом подстановки.Решая
последним способом, получаем соотношения
(5.9)
Таким
образом, коэффициенты
и
линейного уравнения парной регрессии
можно получить по формулам (5.9)
