Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория вероятности-математика..doc
Скачиваний:
3
Добавлен:
01.03.2025
Размер:
3.26 Mб
Скачать

§ 6. Методы регрессионного и корреляционного анализа

Основной целью изучения причинно-следственной зависимости является выявление связей, закономерностей и тенденций развития. Причинно-следственная зависимость выражает соотношение между функцией (следствием) и аргументом (причиной).

Различают две основные формы причинных зависимостей - статистическую и функциональную. При функциональной зависимости каждому возможному значению аргумента поставлено в однозначное соответствие определенное значение функции, т.е. Y = f(X).

Но такого рода однозначные (функциональные) связи между переменными величинами встречаются не всегда. Известно, например, что между ростом (длиной тела) и массой человека существует положительная связь - более высокие индивиды имеют обычно и большую массу, чем индивиды низкого роста. То же наблюдается и в отношении качественных признаков - блондины, как правило, имеют голубые, а брюнеты — карие глаза. Однако из этого правила имеются исключения, когда сравнительно низкорослые индивиды оказываются тяжелее высокорослых, и среди населения встречаются кареглазые блондины и голубоглазые брюнеты. Причина таких “исключений” в том, что каждый признак, выражаясь математическим языком, является функцией многих переменных. На его величину оказывает влияние и генетические и средовые факторы, в том числе и случайные, что вызывает варьирование признаков, т.е. в реальности на производимые наблюдения (признаки) воздействуют многочисленные факторы. В этих случаях зависимость между признаками приобретает не функциональный, а статистический характер. Статистическая связь состоит в том, что одна случайная переменная реагирует на изменение другой изменением своего закона распределения. Такого рода зависимость между переменными величинами называется корреляционной или корреляцией (термин “корреляция” происходит от лат. correlatio — соотношение, связь).

Статистические связи между переменными можно изучать методами корреляционного и регрессивного анализа. Корреляционный анализ, как и другие статистические методы, основан на использовании вероятностных моделей, описывающих поведение исследуемых признаков в некоторой генеральной совокупности, из которой получены экспериментальные значения xi и yi. Регрессионный анализ заключается в определении аналитического выражения связи, в котором изменение результативного признака обуславливается влиянием одного или нескольких факторных признаков, а множество всех прочих факторов принимается за постоянные (или усредненные) величины.

Основная задача корреляционного анализа - выявление связи между случайными переменными путем точечной и интервальных оценок. Метод корреляции применяется для того, чтобы при сложном взаимодействии посторонних влияний выяснить какой должна была быть зависимость между величинами, если бы посторонние факторы не изменялись, и своим изменением не искажали основную зависимость.

Теория корреляции решает три основные задачи:

  • определение корреляционных уравнений связи между двумя и более случайными величинами,

  • определение тесноты связи и вероятности получаемых характеристик,

  • обоснование методики проведения исследований по выявлению корреляционных связей.

Показателями тесноты между двумя случайными наблюдениями х и y являются коэффициент корреляции

,

и - соответствующие средние квадратические отклонения, N - количество независимых наблюдений.

Для нахождения значения знаменателя в формуле коэффициента корреляции среднее квадратическое отклонение величин факторного признака вычисляется по формуле

где ,

а результативного — соответственно по формуле:

где .

Коэффициент корреляции не изменяется при изменении начала отсчета и масштаба измерения величин х и y. Он удовлетворяет неравенству . Знак «+» указывает на связь прямую (увеличение или уменьшение одного признака сопровождается аналогичным изменением другого признака), знак «–» – на связь обратную (увеличение или уменьшение одного признака сопровождается противоположным по направлению изменением другого признака). Если r = ±1, то между величинами существует тесная линейная связь, если r=0, нет линейной корреляционной зависимости (но может быть нелинейная).

Таблица 6.1.