Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
shpory_kis_peredelan.docx
Скачиваний:
0
Добавлен:
01.03.2025
Размер:
343.2 Кб
Скачать

1 Множественная линейная регрессия: задача и основные предположения.

Общее назначение множественной регрессии состоит в анализе связи между несколькими независимыми переменными (называемыми также регрессорами или предикторами) и зависимой переменной.

Множественная линейная регрессия является обобщением парной линейной регрессии на несколько объясняющих переменных. При выполнении предпосылок Гаусса-Маркова оценки параметров уравнения множественной линейной регрессии, полученные методом наименьших квадратов, обладают свойствами несмещенности, эффективности и состоятельности. Статистическая значимость коэффициентов и качество подбора уравнения проверяются с помощью распределений Стьюдента и Фишера. Коэффициент при объясняющей переменной показывает, на сколько единиц изменится зависимая переменная, если объясняющая вырастет на одну единицу при фиксированном значении остальных объясняющих переменных. В случае множественной регрессии дополнительно предполагается отсутствие мультиколлинеарности объясняющих переменных.

Вопрос 2. Метод наименьших квадратов для множественной линейной регрессии.

Классический подход к оцениванию параметров линейной модели множественной регрессии основан на МНК. МНК позволяет получить такие оценки параметров, при которых сумма квадратов отклонений фактических значений результативного признака от расчетных минимальна:

Оценки коэффициентов моделей, полученные на основе МНК, не зависят от фактического закона распределения.

В отношении свойств ошибки модели выдвигаются следующие предположения:

– ошибка имеет нулевое математическое ожидание;

– ее дисперсия конечна и постоянна;

– автокорреляционные связи в ряду ошибки отсутствуют

– ряд значений ошибки статистически не связан с рядами значений независимых переменных модели.

3. Геометрическая интерпретация мнк

Идея МНК заключается в том, что функцию f (x, a1, a2,.. ak) необходимо подобрать таким образом, чтобы сумма квадратов отклонений измеренных значений уi от расчетных Уi= f (x, a1, a2, … ak) была бы наименьшей.

Геометрически задача МНК состоит в том, чтобы найти такой вектор у^ из £(Х), чтобы евклидово расстояние между у и у^ было минимальным. Иными словами, мы ищем среди всех линейных комбинаций регрессоров наиболее близкую к y.

4. Статистические свойства оценок параметров, теорема Гаусса-Маркова.

Если предпосылки метода наименьших квадратов, то оценки, полученные по МНК, обладают следующими свойствами:

  1. Оценки параметров являются несмещенными, т. е. M(b1) = β1, M(b0) = β0 (математические ожидания оценок параметров равны их теоретическим значениям). Это вытекает из того, что M(εi) = 0, и говорит об отсутствии систематической ошибки в определении положения линии регрессии.

  2. Оценки параметров состоятельны, так как дисперсия оценок параметров при возрастании числа n наблюдений стремится к нулю D(b0) → 0, D(b1) → 0 при n → ∞ . По другому говоря, при увеличении объема выборки надежность оценок увеличивается (b1 наверняка близко к β1, b0 — близко к β0).

  3. Оценки параметров эффективны, т. е. они имеют наименьшую дисперсию по сравнению с другими оценками данных параметров, линейными относительно величин yi.

Предпосылки МНК (Условия Гаусса-Маркова):

  1. Математическое ожидание случайного отклонения еi равно нулю: M(еi) = 0 для всех наблюдений.

  2. Дисперсия случайных отклонений epsiloni постоянна: D(εi) = D (εj ) = σ2 = const для любых наблюдений i и j.

  3. Случайные отклонения εi и εj являются независимыми друг от друга для i ≠ j.

  4. Случайное отклонение должно быть независимо от объясняющих переменных.

  5. Модель является линейной относительно параметров.

  6. Отсутствие мультиколлинеарности.

  7. Случайные отклонения εi, i = 1, 2, ... , n, имеют нормальное распределение.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]