Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Лекции (Теория вероятности)

.pdf
Скачиваний:
62
Добавлен:
10.02.2015
Размер:
1.74 Mб
Скачать

Лекция 19

Метод наименьших квадратов

Рассмотрим задачу о подборе функции одного переменного - подборе по неточным наблюдениям (измерениям). Предположим, что переменные y и x1;:::;xp связаны линейным соотношением

y = µ1x1 + µ2x2 + ¢¢¢ + µpxp;

где коэффициенты µ = (µ1;:::;µp) неизвестны. При некоторых значениях xi1;xi2;:::;xip, i = 1;n, переменных x1;:::;xp (называемых обычно факторами) были произведены измерения переменной y (называемой откликом) со случайной ошибкой "i, так что вместо неслучайных величин

yi = µ1xi1 + µ2xi2 + ¢¢¢ + µpxip; i = 1;n;

наблюдались случайные величины

Yi = µ1xi1 + µ2xi2 + ¢¢¢ + µpxip + "i; i =

 

 

(19.1)

1;n:

Возникает задача оценивания неизвестных коэффициентов µ = (µ1;:::;µp) по наблюдениям Y =

(y1;y2;:::;yn)T и элементам xij матрицы X размера n £ m.

Основное предположение об ошибках состоит в том, что случайные величины "1;"2;:::;"n считаются независимыми и E"i = 0, т.е. систематических ошибок при измерении отклика нет. Менее важные предположения заключаются в том, что "i распределены одинаково и по нормальному закону N(02). Величина ¾ обычно считается неизвестной. Она численно выражает неточность (изменчивость) измерений, т.е. масштаб случайных ошибок.

Систему (19.1) можно записать в матричном виде

Y = + ":

(19.2)

Один из способов оценивания коэффициентов µ = (µ1;:::;µp), называемый методом наименьших

квадратов состоит в следующем.

 

 

 

 

 

^ ^

^

 

;:::;µp) по методу наименьших квад-

Определение 19.1 Оценкой µ = (µ1

;:::;µp) параметра µ = (µ1

ратов называется точка минимума функции

 

 

 

 

 

n

 

 

 

S(µ) = jjY ¡ Xµjj2 = (Y ¡ Xµ)T

Xi

 

 

+ ¢¢¢ + µpxip)2:

(Y ¡ Xµ) = (Yi ¡ µ1xi1

µ2xi2

 

 

=1

 

 

 

Теорема 19.1 Предположим, что ранг матрицы X равен p. Тогда оценка наименьших квадратов имеет вид

µ^ = (XT X)¡1XT Y:

(19.3)

Теорема 19.2 Пусть "1;"2;:::;"n независимые одинаково распределенные случайные величины

сM"i = 0 и конечной дисперсией D"i = ¾2. Тогда оценка наименьших квадратов

^T ¡1 T

µ= (X X) X Y

является несмещенной и состоятельной оценкой параметра µ = (µ1;:::;µp).

Обозначим

S(µ) = (Y ¡ Xµ)T (Y ¡ Xµ);

(d1;d2;:::;dp) диагональные элементы матрицы (XT X)¡1.

91

Теорема 19.3 Пусть "1;"2;:::;"n независимые одинаково распределенные нормальные случайные величины с M"i = 0 и конечной дисперсией D"i = ¾2. Тогда оценка наименьших квадратов

^T ¡1 T

µ= (X X) X Y

является несмещенной, состоятельной оценкой параметра µ = (µ1;:::;µp) и нормальным случайным вектором с математическим ожиданием µ = (µ1;:::;µp) и ковариационной матрицей

2 T ¡1 ^ ^

¾ (X X) . Интервальная оценка для µj уровня доверия 1 ¡ ® имеет вид (µj ¡ ¢j + ¢), где

s

dj ^ ¢ = t1¡®(n ¡ p) n ¡ pS(µ);

а t1¡®(n ¡ p) квантиль распределения Стьюдента уровня 1 ¡ ® с n ¡ p степенями свободы.

Рассмотрим теперь задачу оценивания зависимости

y = µ1'1(t) + µ2'2(t) + :::µp'p(t);

считая функции '1;'2;:::;'p известными, по измерениям Y = (Y1;Y2;:::;Yn) величины y в неслучайных точках t1;t2;:::;tn со случайными ошибками " = ("1;"2;:::;"n):

Yi = µ1'1(ti) + µ2'2(ti) + :::µp'p(ti) + "i;

i =

 

 

 

 

(19.4)

1;n:

 

 

Обозначив

xij = 'j(ti); i =

 

 

 

 

 

 

 

 

 

 

 

 

1;n;j = 1;p;

 

 

 

 

 

 

 

сведем модель (19.4) к модели (19.2).

 

 

 

 

 

 

 

 

 

 

 

 

 

Пример 19.1 В “Основах химии”

 

ti

0

4

10

15

21

29

36

51

68

 

Д. И. Менделеев приводит следу-

 

yi

66,7

71,0

76,3

80,6

85,7

92,9

99,4

113,6

125,1

 

ющие данные о количестве y азот-

Таблица 19.1.

нонатриевой соли NaNO3, которое можно растворить в 100 г воды в зависимости от температуры t (см. таб. 19.1). Построим по этим данным приближенную эмпирическую формулу вида

 

 

 

y = µ1 + µ2t + µ3t2;

 

 

 

описывающую зависимость между рассматриваемыми величинами.

 

 

Оценим коэффициенты (µ123) по n = 9 наблюдениям (y1;y2;:::;yn)

случайных величин

(Y1;Y2;:::;Yn). В этом случае

 

 

 

 

 

 

 

 

 

1

1

1

1

1

1

1

1

1

 

XT = 00

4

10

15

21

29

36

51

68 1

;

@0

16

100

225

441

841

1296

2601

4624A

 

 

XT X = 0

9

234

10144

 

1;

 

 

 

234

10144

531828

 

 

 

0

@

10144

531828

30788836

A

1

 

 

0:4878864808

0:0299495315

 

0:0003565864

 

(XT X)¡1 =

0:0299495315

¡0:0028828545

 

0:0000399292

;

 

@

¡0:0003565864

¡0:0000399292

¡0:0000006047

A

 

^

µ = (66:71;0:96040:001359); y ¼ 66:71 + 0:9604t ¡ 0:001359t2:

92

Оглавление

1

Случайные события

1

2

Вероятность

6

3

Условная вероятность

11

4

Формула полной вероятности. Формула Байеса. Схема Бернулли

16

5

Одномерные случайные величины

20

6

Числовые характеристики случайных величин

26

7

Основные законы распределения случайных величин

30

8

Случайные векторы

35

9

Функции от случайных величин

41

10

Ковариация и коэффициент корреляции случайных величин

46

11

Условные характеристики случайных величин

50

12

Многомерное нормальное распределение

55

13

Предельные теоремы теории вероятностей

60

14

Основные понятия выборочной теории

65

15

Точечные оценки

69

16

Интервальные оценки и доверительные интервалы

72

17

Проверка гипотез. Параметрические модели

79

18

Проверка непараметрических гипотез

86

19

Метод наименьших квадратов

91

93