
- •8.4.2.1 Корреляцонный эллипс как числовая характеристика
- •Глава 7. Обработка совместных измерений двух величин
- •7.1. Задачи совместной обработки двух величин
- •7.2. Линейная корреляция
- •7.2.1. Характеристики корреляции и их оценки
- •7.2.1.1 Свойства коэффициента корреляции
- •7.2.I.2. Геометрический смысл коэффициента корреляции
- •7.2.1.З. Назначение коэффициента корреляции
- •7.2.I.4. Оценка значимости коэффициента корреляции
- •7.2.I.5. Оценка равенства двух коэффициентов корреляции
- •7.2.2. Установление линейной корреляции, регрессии
- •7.2.3. Оценка нелинейной статистической связанности
- •7.2.3.1. Корреляционное отношение
- •7.2.3.2. Свойства корреляционного отношения
- •7.2.3.3. Критерий линейности
- •7.2.4.1. Подбор эмпирической кривой
- •7.2.4.2. Определение параметров кривой
- •7.2.4.3. Ортогональные полиномы Чебышева
- •7.2.4.4. Построение ортогональной системы полиномов
- •7.2.4.5. Аппроксимация ортогональными полиномами Чебышева
- •7.1. Основы корреляционного анализа.
- •7.1.1. Определение формы связи. Понятие регрессии.
- •7.1.2. Оценка тесноты связи.
- •7.1.3. Выборочный коэффициент корреляции и его свойства.
- •7.1.4. Частный коэффициент корреляции.
- •7.1.5. Совокупный коэффициент корреляции.
7.2. Линейная корреляция
7.2.1. Характеристики корреляции и их оценки
Основной характеристикой статистической линейной связи двух величин служит математическое ожидание произведения отклонений случайных величин и от их математических ожиданий, которое носит название ковариации (второй смешанный центральный момент)
.
(7.
1)
Точечная оценка ковариации отыскивается по формуле, аналогичной статистическим оценкам вторых центральных моментов, а именно
,
(7.2)
где xi yi - значения величин в выборках, xср yср - средние в выборках.
Из (7.2) видно, что K зависит от единиц, в которых даны значения той и другой выборки. Например, при измерениях x и y в мм получено K= I00. Тогда для этих же измерений x и y, выраженных в сантиметрах K =1.
Для удобства сравнения тесноты статистической связи эти ковариаци нормируют, точнее - нормируют отклонения случайных величин их стандартами. Нормированная ковариация носит название коэффициент корреляции:
,
(7.3)
где x и y - стандарты отклонений величин X и Y.
Оценка r коэффициента корреляции по данным выборки вычислится согласно (7.2) и (7.3) так:
,
где Sx и Sy - эмпирические стандарты, вычисляемые по (4.2).
Вынося стандарты из-под знака суммы, получим связь оценки ковариации с оценкой корреляции
.
(7.4)
При обработке пар случайных величин, а особенно их функций, коэффициент корреляции так же важен, как и их стандарты. Поэтому рассмотрим его свойства.
7.2.1.1 Свойства коэффициента корреляции
1.
Коэффициент r
изменяется
в пределах от -1 до +1. Это следует из
(7.4): если величины линейно зависимы, то
есть
,
то под знаком суммы в (7.4) образуется
дисперсия
,
а стандарт
будет отличаться от
только коэффициентом a.
Тогда a
в числителе и знаменателе сокращаются,
и r
= |1|.
Знак единицы будет тот же, что у a,
так
как принято
применять
положительное
значение
.
2. Коэффициент корреляции не меняет абсолютной величины при изменении начала отсчета или единицы измерения случайной величины, т.е.
.
Это вытекает из определения коэффициента корреляции. Коэффициент вычисляют по центрированным величинам, поэтому смещения выборки x на “b”, а y на “d” не влияют на его значение. В результате нормирования случайные отклонения выражаются в стандартах, т.е. они безразмерные, коэффициенты «a» и «c» сокращаются, поэтому «a» и «c» также не оказывают влияния.
3. Если при возрастании одной величины другая имеет тенденцию к возрастанию, то r>0, и говорят, что существует положительная корреляционная связь. При r<0 корреляция отрицательна.
4. Если X и Y независимы, то r= 0. Обратное утверждение неверно: при r =0 случайные величины могут быть функционально зависимы.
Пример.
Дана зависимость
,
где Х центрирована, т.е.
.
Тогда ковариация
.
Если распределение симметрично, то все нечетные моменты равны нулю.
Поэтому,
подставляя
,
получаем
,
т.е., хотя Y функционально зависит от X , но они некоррелированы.
(его пример?? Г.Я.Мирский. Характеристики стохастической взаимосвязи и их измерения. М.:-Энергоиздат-1987,319с. стр.15) Другой пример, равномерн распределенные X+Y=1 > Y=1-X.
Если r=0, то случайные величины называют несвязанными.
5. Если r= 0, а совместные ФПВ f(x,y) и частные f(x) и f(y) распределения СВ X и Y гауссовские, то эти величины независимы. Следовательно, некоррелированные нормально распределенные СВ независимы.
6. Если некоторое распределение системы двух СВ обладает симметрией относительно хотя бы одной прямой, параллельной оси координат, проходящей через центр рассеивания системы (X,Y), то эти величины не коррелированны, r=0. (См.пример).
7. При корреляции, близкой к нулю, распределение оценок коэффициента r близко к нормальному (Рис.7.I).
8. При малом числе наблюдений ni с возрастанием корреляции распределение оценок r сужается (с увеличением n), сдвигаясь к граничному значению ( I), т.е. стремится к (r) (Рис. 7.1).
Рис.7.1. Функции плотности вероятности оценок r при разных значениях коэффициента корреляции (нарисовать)