- •55. Понятие и основные этапы изучения связи явлений.
- •56. Виды связей и зависимостей признаков.
- •57.Коррелционный анализ (показатели).
- •1. Коэффициент корреляции значимо отличается от нуля (т.Е. Есть взаимосвязь между величинами):
- •2. Отличие между двумя коэффициентами корреляции значимо:
- •58. Построение модели парной регрессии.
- •59. Построение модели множественной регрессии.
56. Виды связей и зависимостей признаков.
В статистике связи классифицируются по степени их тесноты. Исходя
из этого различают функциональную (полную) и статистическую (неполную,
корреляционную) связь.
Функциональная связь – такая связь, при которой значение результативного
признака целиком определяется значением факторного (например, площадь круга).
Она полностью сохраняет свою силу и проявляется во всех случаях наблюдения и
для всех единиц наблюдения. Каждому значению факторного признака соответствует
одно или несколько определенных значений результативного признака.
Для корреляционной связи характерно то, что одному и тому же значению
факторного признака может соответствовать сколько угодно различных значений
результативного признака. Здесь связь проявляется лишь при достаточно большом
количестве наблюдений и лишь в форме средней величины.
По направлению изменений факторного и результативного признака
различают связь прямую и обратную.
Прямая связь – такая связь, при которой с изменением значений факторного
признака в одну сторону, в ту же сторону меняется и результативный признак.
Обратная связь – такая связь, при которой с увеличением (уменьшением)
факторного признака происходит уменьшение (увеличение) результативного
признака.
По аналитическому выражению выделяются две основные формы связи:
– прямолинейная (выражается уравнением прямой);
– криволинейная (описывается уравнениями кривых линий –
гипербол, парабол, степенных функций).
57.Коррелционный анализ (показатели).
Корреляционный анализ - метод, позволяющий обнаружить зависимость между несколькими случайными величинами.
Допустим, проводится независимое измерение различных параметров у одного типа объектов. Из этих данных можно получить качественно новую информацию - о взаимосвязи этих параметров.
Например, измеряем рост и вес человека, каждое измерение представлено точкой в двумерном пространстве:
Несмотря на то, что величины носят случайный характер, в общем наблюдается некоторая зависимость - величины коррелируют.
В данном случае это положительная корреляция (при увеличении одного параметра второй тоже увеличивается). Возможны также такие случаи:
Отрицательная корреляция:
|
Отсутствие корреляции:
|
Взаимосвязь между переменными необходимо охарактеризовать численно, чтобы, например, различать такие случаи:
|
|
Для этого вводится коэффициент корреляции. Он рассчитывается следующим образом:
Есть массив из n точек {x1,i, x2,i}
Рассчитываются
средние значения для каждого параметра:
И
коэффициент корреляции:
r изменяется в пределах от -1 до 1. В данном случае это линейный коэффициент корреляции, он показывает линейную взаимосвязь между x1 и x2: r равен 1 (или -1), если связь линейна.
Коэффициент r является случайной величиной, поскольку вычисляется из случайных величин. Для него можно выдвигать и проверять следующие гипотезы:
1. Коэффициент корреляции значимо отличается от нуля (т.Е. Есть взаимосвязь между величинами):
Тестовая статистика вычисляется по формуле:
и
сравнивается с табличным значением
коэффициента Стьюдента t(p
= 0.95, f =
)
= 1.96
Если тестовая статистика больше табличного значения, то коэффициент значимо отличается от нуля. По формуле видно, что чем больше измерений n, тем лучше (больше тестовая статистика, вероятнее, что коэффициент значимо отличается от нуля)
