- •2.Виды связи между переменными
- •8.Коэффициент Корреляции.
- •9.Смысл экспериментов по методу Монте-Карло
- •10.Основные предпосылки регрессионного анализа. Теорема Гаусса-Маркова.
- •11.Использование метода Фишера для оценки значимости регрессии. Коэффициент детерминации.
- •12. Гетероскедастичность, способы обнаружения и исправления. Метод взвешенных наименьших квадратов.
- •13. Нелинейные модели регрессии и линеаризация
- •14. Коэффициент эластичности
- •15.Множественная регрессия
- •16. Требования к факторам, включаемым в модель множественной регрессии
- •17. Выбор формы уравнения множественной регрессии
- •18. Частные уравнения, коэффициенты эластичности множественной регрессии
- •19. Фиктивная переменная
- •20. Понятие мультиколлинеарности
- •22. Автокорреляция и связанные с ней факторы
- •23. Автокорреляция первого порядка. Критерия Дарбина-Уотсона
8.Коэффициент Корреляции.
Коэффициент
корреляции показывает степень
статистической зависимости между двумя
числовыми переменными. Он вычисляется
следующим образом:
где n –
количество наблюдений, x – входная
переменная,
y – выходная
переменная.
Значения коэффициента корреляции
всегда расположены в диапазоне от -1 до
1 и интерпретируются следующим образом:
если коэффициент корреляции близок к 1, то между переменными наблюдается положительная корреляция. Иными словами, отмечается высокая степень связи входной и выходной переменных. В данном случае, если значения входной переменной x будут возрастать, то и выходная переменная также будет увеличиваться;
если коэффициент корреляции близок к -1, это означает, что между переменными наблюдается отрицательная корреляция. Иными словами, поведение выходной переменной будет противоположным поведению входной. Если значение x будет возрастать, то y будет уменьшаться, и наоборот;
промежуточные значения, близкие к 0, будут указывать на слабую корреляцию между переменными и, соответственно, низкую зависимость. Иными словами, поведение входной переменной x не будет совсем (или почти совсем) влиять на поведение y.
Коэффициент корреляции равен квадратному корню коэффициента детерминации, поэтому может применяться для оценки значимости регрессионных моделей. Очевидно, что если корреляция между переменными высокая, то, зная поведение входной переменной, проще предсказать поведение выходной, и полученное предсказание будет точнее (говорят, что входная переменная хорошо «объясняет» выходную). Однако, чем выше корреляция наблюдается между переменными, тем очевиднее связь между ними, например, взаимозависимость между ростом и весом людей, однако данное соотношение настолько очевидно, что не представляет интереса.
9.Смысл экспериментов по методу Монте-Карло
Сущность метода Монте-Карло состоит в следующем: требуется найти значение а некоторой изучаемой величины. Для этого выбирают такую случайную величину X,математическое ожидание которой равно а: М(Х) =а. Практически же поступают так: производят п испытаний, в результате которых получают п возможных значений X, вычисляют их среднее арифметическое и принимают его в качестве оценки (приближенного значения) а* искомого числа а. Поскольку метод Монте-Карло требует проведения большого числа испытаний, его часто называют методом статистических испытаний. Теория этого метода указывает, как наиболее целесообразно выбрать случайную величину X, как найти ее возможные значения.
10.Основные предпосылки регрессионного анализа. Теорема Гаусса-Маркова.
В основе корреляционно-регрессионного анализа лежит взаимосвязь всех явлений природы и общества. Объем продукции предприятия связан с численностью работников, стоимостью производственных фондов, мощностью двигателей, запасами сырья, величиной резервов финансовых ресурсов и еще многими другими признаками.
Управление предприятием невозможно без прогнозирования его развития, которое в свою очередь основано на знании закономерностей, связей между явлениями и их признаками.
Опр. Корреляционно-регрессионным анализом называется многообразие методов исследования параметров генеральной совокупности, распределенной по нормальному закону.
Предпосылки корреляционно-регрессионного анализа:
1) Наличие данных по достаточно большой совокупности явлений. Обычно считается, что число наблюдений должно быть в 5-6 раз, случи в 10 р., чем число факторов.
2) Качественная однородность изучаемых единиц.
3) Проверка на однородность и нормальность распределения. На однородность по коэффициенту корреляционности на нормальность по правилу трех сигм.
4) Включаемые в исследование факторы должны быть независимы друг от друга, т.к. наличие тесной связи между ними свидетельствует о том, что они характеризуют одни и те же стороны изучаемого явления и дублируют друг друга.
Корреляционный анализ позволяет с помощью выборки делать выводы о степени статистической связи между признаками.
В качестве мер связи между признаками чаще всего используется принцип ковариации и принцип сопряженности.
Принцип ковариации: наличие связи между переменными утверждается, если увеличение значения одной переменной сопровождается устойчивым увеличением или уменьшением другой переменной.
Принцип сопряженности: эта группа мер связи направлена на выяснение следующего факта – появляются ли некоторые значения одного признака одновременно с определенными значениями другого чаще, чем это можно объяснить случайным стечением обстоятельств.
Задачи корреляционно-регрессионного анализа сводятся к измерению тесноты известной связи между варьирующими признаками, определению неизвестных причинных связей (причинный характер которых должен быть выяснен с помощью теоретического анализа) и оценки факторов, оказывающих наибольшее влияние на результативный признак.
Изучение корреляционной связи имеет 2 цели:
1) Измерение параметров уравнения, выражающего связь средних значений зависимой переменной со значениями независимой переменной;
2) Измерение тесноты связи двух или большего числа признаков между собой.
Основным
методом решения задачи нахождения
параметров уравнения связи является метод
наименьших квадратов (МНК), разработанный
К.Ф.Гауссом (1777-1855), а был предложен
Лежандром. В простейшем случае он
формулируется так: Результат yi повторяющихся
измерений можно рассматривать как
сумму неизвестной величины x и
ошибки измерения ej:
