Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Математика_Семестр4_МетодПособие.pdf
Скачиваний:
492
Добавлен:
05.06.2015
Размер:
3.73 Mб
Скачать

144

10.5. Выборочный коэффициент корреляции

Умножим обе части равенства (10.8) на дробь σ

x /σ

y

и обозначим

полученное выражение через

 

 

 

 

 

 

 

 

 

 

σ

 

=

 

 

xy .

 

r = ρ

x

xy

(10.9)

в

y/ x σ

y

 

σ

σ

 

 

 

 

 

 

x y

 

Величина rв называется выборочным (эмпирическим) коэффици-

ентом корреляции и применяется в статистике в качестве точечной оцен-

ки теоретического коэффициента корреляции

r =

M(xy)M(x)M(y) при

 

 

σxσ y

ограниченном объеме опытных данных.

Выборочный коэффициент корреляции является мерой тесноты линейной корреляционной зависимости между случайными величинами X и Y.

Из (10.9) следует, что

ρ

y/ x

= r

σ

y

.

(10.10)

 

 

 

в σ

 

 

 

 

 

 

 

x

 

Поэтому уравнение линейной среднеквадратической зависимости Y от X можно записать в виде:

y y = rв σ y (x x)

σx

или в более симметричной форме

yσy y = rв xσx x .

Аналогично, выборочный коэффициент регрессии X на Y равен

ρ

 

= r

σ

x

,

(10.11)

 

x / y

в σ

 

 

 

 

 

 

 

y

 

 

а уравнение регрессии X на Y записывается в виде

145

 

 

x x = r

σ

x

(y y)

или

 

x x

= r

y y

.

 

 

 

 

 

 

 

 

 

 

в σ

y

 

 

 

 

 

σ

x

в

σ

y

 

 

 

 

 

 

 

 

 

 

 

 

Из

(10.10), (10.11) следует, что знак rв

совпадает со знаками коэф-

фициентов

регрессии. Но

 

так

как

регрессии

одного знака, то

ρy / x ρx / y

> 0

и поэтому rв = ±

 

, то есть выборочный коэфф и-

ρy / x ρx / y

циент корреляции равен среднему геометрическому из коэффициентов регрессии и имеет знак последних.

Свойства коэффициента корреляции

1. Если между величинами X и Y существует линейная функциональная связь

 

 

 

y = a x + в

 

 

 

 

(a = ρy / x 0),

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

то rв = ±1.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ

 

 

 

 

 

2

=

 

y2 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Действительно,

 

 

r =

ρ

 

 

 

x

 

,

 

σ

 

y2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

в

 

 

y/ x σ

y

 

 

 

y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

 

 

= a2

 

 

+ 2x + в2 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(ax + в)2

 

 

 

 

 

 

 

 

 

 

Но

 

 

 

y2

x2

 

 

 

 

 

 

 

 

 

а

y2 = (ax + в)2 = a2 x 2 + 2x + в2.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ

 

 

 

 

 

 

a

 

 

 

 

 

 

2

 

 

2

 

 

2

 

 

 

 

2

2

 

 

 

 

2

 

 

 

 

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Cледовательно,

σ y = a

 

(x

 

 

x

 

)= a σx

и

rв

= a

 

 

 

 

 

 

=

 

 

 

 

 

= ±1.

 

 

 

 

 

a

 

σ

x

 

 

a

 

 

 

 

 

 

 

 

 

 

Равенство

rв = ±1 является необходимым и достаточным условием

ли-нейной функциональной связи между величинами Х и У.

 

 

 

 

 

 

 

2. Чем больше угол между линиями регрессии

У на Х и

 

 

Х на У,

тем меньше rв.

Это наглядно иллюстрируется рисунком.

 

 

 

 

 

 

 

 

 

 

146

Очевидно,

ρy / x = tgα,

1/ ρy / x = tgβ,

 

следовательно,

 

tgϕ = tg(β α)=

1/ ρx / y ρy / x

 

1

r2

 

 

 

 

 

=

 

в

.

 

1+ ρy / x / ρx / y

ρx / y + ρy / x

 

 

 

 

Итак, с уменьшением rв увеличивается tgϕ.

 

 

 

 

При ϕ = 0

ρy / x =1/ ρx / y ,

rв = ±1, и л инии регрессии совпадают

между собой и с прямой линейной функциональной зависимости.

3. При rв = 0 отсутствует линейная корреляционная зависимость между X и Y. Отметим, что при этом может существовать нелинейная связь между X и Y (корреляционная или функциональная).

4. Если коэффициент корреляции rв определен по выборке объема n из неограниченной генеральной совокупности, то можно считать коэффициент корреляции генеральной совокупности приближенно равным rв. При этом средняя квадратичная ошибка будет равна

σr =1nrв2 .

При достаточно большом n (практически при n > 50) для оценки коэффициента корреляции нормально распределенной генеральной совокупности можно пользоваться формулой (rв 3σr r rв + 3σr ).

10.6. Методика вычисления rв и построения линии регрессии

Методику вычислений rв рассмотрим на конкретном примере. Пример. Результаты измерений угловых колебаний ведущего моста

автомобиля X и угловых колебаний подрессоренной массы (галопирование) Y сведены в корреляционную таблицу 14. Найти уравнение линейной среднеквадратической регрессии Y на X, установить тесноту связи между признаками. Для каждого интервала значений X вычислить фактические значения условных средних yi и их значения по уравнению регрессии.

Расчет может быть значительно упрощен, если перейти от величин X и Y к условным вариантам по формулам

σuσv

147

 

 

 

 

u j =

x j C1

,

vi =

y

i

C

2

.

 

 

 

 

 

h1

 

 

h2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Легко убедиться в том, что при этом

 

 

 

 

 

σ

x = h1σ

u ,

σ

y = h2σ

v ,

 

 

x = h1

u

+ C1,

 

y = h2v + C2 ,

xy = h1h2 uv + C2h1u + C1h2v + C1C2.

Поэтому выборочный коэффициент корреляции rв в новых обозначениях не меняется по величине и будет равен

rв = uv u v .

Трудоемкость расчета связана с вычислением uv. Для составления корреляционной таблицы в условных вариантах добавим к исходной корреляционной таблице (поле которой выделено толстыми линиями) дополнитель-

ные строки u j , nuvvi ,

u j nuvvi

и столбцы

vi ,

nuvu j ,

vi nuvu j .

 

 

i

 

i

 

 

 

 

j

j

В качестве ложного нуля

С1

для

X примем находящуюся примерно в се-

редине вариационного ряда для

X

величину

C =15 103 ,

аналогично

 

 

 

 

 

 

 

 

1

 

 

принимаем С

2

=13,2 10

3.

Шаг

 

h

(k =1,2)

равен разности между

 

 

 

 

 

k

 

 

 

 

двумя

 

 

 

 

 

 

 

 

 

 

соседними вариантами:

h1 = 6, h2 = 5,6.

Легко показать, что суммы эле-

ментов нижней строки и правого столбца равны между собой:

u j nuvvi = vi nuvu j = nuv.

j

i

i

j

nuv целесообразно вычислять по обеим формулам . Их совпадение должно свидетельствовать о правильности вычислений.

143

Таблица 14

 

 

u

-4

-3

-2

-1

0

1

2

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(-12)-(-6)

(-6)-0

0-6

6-12

12-18

18-24

24-30

30-36

 

 

 

V

y 103

x 10

 

 

 

 

 

 

 

 

ny = nv

nuvu j

vi nuvu j

 

 

 

 

 

 

 

 

 

 

 

 

j

j

 

 

 

-9

-3

3

9

15

21

27

33

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-4

-12 – (-6,4)

-9,2

 

 

 

 

 

2

1

 

3

4

-16

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-3

-6,4 – (-0,8)

-3,6

 

 

 

1

1

3

 

1

6

5

-15

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-2

-0,8 – 4,8

2,0

 

 

1

1

3

6

2

 

13

7

-14

 

 

 

 

 

 

 

 

 

 

 

 

 

 

-1

4,8 – 10,4

7,6

 

1

2

2

4

5

 

 

14

-4

4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

10,4 – 16,0

13,2

1

1

2

3

3

5

 

1

16

-6

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

16,0 – 21,6

18,8

1

1

3

5

5

4

1

 

20

-12

-12

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

21,6 – 27,2

24,4

 

3

6

7

2

2

1

1

22

-21

-42

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3

27,2 – 32,8

30,0

2

 

 

3

 

1

 

 

6

-10

-30

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

nx = nu

 

4

6

14

22

18

28

5

3

100

 

 

 

nuvvi

 

7

6

11

21

-4

-23

-5

-1

 

 

 

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

u j nuvvi

 

-28

-18

-22

-21

0

-23

-10

-3

 

 

-125

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Величины u,v,σu ,σv при большом числе наблюдений подсчитываются методом произведений, а при сравнительно малом числе наблюдений - непосредственно, исходя из определения этих величин по формулам:

 

 

 

 

 

u j nu

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

u

=

j

 

 

 

 

 

 

 

 

= (4) 4 + (3) 6 + (2) 14 + (1) 22 +1 28 + 2 5+ 3 3 = −0,37,

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

100

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

vi nv

 

 

 

 

(4) 3 + (3) 6 + (2)

13+ (1) 14 +1 20 + 2 22 + 3 6

 

 

v =

i

 

 

 

 

 

 

=

= 0,12,

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

100

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

аналогично

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= 1

u2j nu = 2,71,

 

 

 

 

 

=

1vi2nv = 3,30,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

u2

 

v

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

j

 

 

 

 

 

 

 

 

 

 

n

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2 =

 

 

 

 

 

 

 

 

 

 

=1,60;

 

 

 

 

 

 

 

 

 

 

v 2 =

 

 

 

=1,81.

σ

u

=

 

 

u2

u

 

2,71(0,37)2

 

 

σ

v

=

 

 

v2

3,30 0,122

Искомый коэффициент корреляции равен

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

u

v = 1,25(0,37) 0,12 = −0,416.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

r

=

uv

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

в

 

 

 

 

 

 

 

 

 

 

 

1,60 1,81

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σuσv

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Возвращаясь к старым переменным, получим

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x = h u + C =[6(0,37) +15] 103 =12,78 103 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

1

= (5,6 0,12 +13,2) 103 =13,87 103 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

y = h v + C

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

σ

x

= h σ

u

= 6 1,60 103 = 9,60 103;

σ

y

= h σ

v

 

= 5,6 1,81 103

=10,14 103.

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

Приближенное (теоретическое) уравнение линейной регрессии примет вид

y 13,87 10

3 = −0,416

10,14

103

(x 12,78 103 )

 

 

9,6

103

 

 

 

 

 

 

или окончательно

 

 

 

 

 

 

 

y = −0,44x +19,49 103.

(10.12)

Фактические значения условных средних, вычисленные по данным корреляционной таблицы, равны:

yx=−9 =13,2 +184,8 + 2 30 = 23,

 

145

 

yx=−3 = 7,6 +13,2 +18,8 + 3 24,4 =18,8.

 

6

 

Аналогично

 

 

yx=3 =17,6,

yx=9 =18,55,

yx=15 =13,62,

yx=21 =8,6,

yx=27 = 7,6,

yx=33 =11,33.

Эти значения, а также условные средние, найденные по уравнению регрессии (10.12) при x = x j , приведены ниже в таблице 15:

 

 

 

 

 

 

 

Таблица 15

 

 

 

 

 

 

 

 

 

 

-9

-3

3

9

15

21

27

33

 

 

 

 

 

 

 

 

 

По данным кор-

 

 

 

 

 

 

 

 

реляционной

23

18,80

17,6

18,55

13,62

8,60

7,60

11,33

таблицы

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

По уравнению

23,45

20,81

18,17

15,53

12,89

10,25

7,61

4,97

регрессии

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Как видно из таблицы, согласование фактически наблюдавшихся и расчетных условных средних удовлетворительное.

Эмпирическая и приближенная (теоретическая) линии регрессии Y на X показаны на рисунке.