Лекции (Теория вероятности)
.pdfЛекция 19
Метод наименьших квадратов
Рассмотрим задачу о подборе функции одного переменного - подборе по неточным наблюдениям (измерениям). Предположим, что переменные y и x1;:::;xp связаны линейным соотношением
y = µ1x1 + µ2x2 + ¢¢¢ + µpxp;
где коэффициенты µ = (µ1;:::;µp) неизвестны. При некоторых значениях xi1;xi2;:::;xip, i = 1;n, переменных x1;:::;xp (называемых обычно факторами) были произведены измерения переменной y (называемой откликом) со случайной ошибкой "i, так что вместо неслучайных величин
yi = µ1xi1 + µ2xi2 + ¢¢¢ + µpxip; i = 1;n;
наблюдались случайные величины
Yi = µ1xi1 + µ2xi2 + ¢¢¢ + µpxip + "i; i = |
|
|
(19.1) |
1;n: |
Возникает задача оценивания неизвестных коэффициентов µ = (µ1;:::;µp) по наблюдениям Y =
(y1;y2;:::;yn)T и элементам xij матрицы X размера n £ m.
Основное предположение об ошибках состоит в том, что случайные величины "1;"2;:::;"n считаются независимыми и E"i = 0, т.е. систематических ошибок при измерении отклика нет. Менее важные предположения заключаются в том, что "i распределены одинаково и по нормальному закону N(0;¾2). Величина ¾ обычно считается неизвестной. Она численно выражает неточность (изменчивость) измерений, т.е. масштаб случайных ошибок.
Систему (19.1) можно записать в матричном виде
Y = Xµ + ": |
(19.2) |
Один из способов оценивания коэффициентов µ = (µ1;:::;µp), называемый методом наименьших
квадратов состоит в следующем. |
|
|
|
|
|
^ ^ |
^ |
|
;:::;µp) по методу наименьших квад- |
||
Определение 19.1 Оценкой µ = (µ1 |
;:::;µp) параметра µ = (µ1 |
||||
ратов называется точка минимума функции |
|
|
|
||
|
|
n |
|
|
|
S(µ) = jjY ¡ Xµjj2 = (Y ¡ Xµ)T |
Xi |
|
|
+ ¢¢¢ + µpxip)2: |
|
(Y ¡ Xµ) = (Yi ¡ µ1xi1 |
µ2xi2 |
||||
|
|
=1 |
|
|
|
Теорема 19.1 Предположим, что ранг матрицы X равен p. Тогда оценка наименьших квадратов имеет вид
µ^ = (XT X)¡1XT Y: |
(19.3) |
Теорема 19.2 Пусть "1;"2;:::;"n независимые одинаково распределенные случайные величины
сM"i = 0 и конечной дисперсией D"i = ¾2. Тогда оценка наименьших квадратов
^T ¡1 T
µ= (X X) X Y
является несмещенной и состоятельной оценкой параметра µ = (µ1;:::;µp).
Обозначим
S(µ) = (Y ¡ Xµ)T (Y ¡ Xµ);
(d1;d2;:::;dp) диагональные элементы матрицы (XT X)¡1.
91
Теорема 19.3 Пусть "1;"2;:::;"n независимые одинаково распределенные нормальные случайные величины с M"i = 0 и конечной дисперсией D"i = ¾2. Тогда оценка наименьших квадратов
^T ¡1 T
µ= (X X) X Y
является несмещенной, состоятельной оценкой параметра µ = (µ1;:::;µp) и нормальным случайным вектором с математическим ожиданием µ = (µ1;:::;µp) и ковариационной матрицей
2 T ¡1 ^ ^
¾ (X X) . Интервальная оценка для µj уровня доверия 1 ¡ ® имеет вид (µj ¡ ¢;µj + ¢), где
s
dj ^ ¢ = t1¡®(n ¡ p) n ¡ pS(µ);
а t1¡®(n ¡ p) квантиль распределения Стьюдента уровня 1 ¡ ® с n ¡ p степенями свободы.
Рассмотрим теперь задачу оценивания зависимости
y = µ1'1(t) + µ2'2(t) + :::µp'p(t);
считая функции '1;'2;:::;'p известными, по измерениям Y = (Y1;Y2;:::;Yn) величины y в неслучайных точках t1;t2;:::;tn со случайными ошибками " = ("1;"2;:::;"n):
Yi = µ1'1(ti) + µ2'2(ti) + :::µp'p(ti) + "i; |
i = |
|
|
|
|
(19.4) |
|||||||||
1;n: |
|
|
|||||||||||||
Обозначив |
xij = 'j(ti); i = |
|
|
|
|
|
|
|
|
|
|
|
|||
|
1;n;j = 1;p; |
|
|
|
|
|
|
|
|||||||
сведем модель (19.4) к модели (19.2). |
|
|
|
|
|
|
|
|
|
|
|
|
|
||
Пример 19.1 В “Основах химии” |
|
ti |
0 |
4 |
10 |
15 |
21 |
29 |
36 |
51 |
68 |
|
|||
Д. И. Менделеев приводит следу- |
|
yi |
66,7 |
71,0 |
76,3 |
80,6 |
85,7 |
92,9 |
99,4 |
113,6 |
125,1 |
|
ющие данные о количестве y азот-
Таблица 19.1.
нонатриевой соли NaNO3, которое можно растворить в 100 г воды в зависимости от температуры t (см. таб. 19.1). Построим по этим данным приближенную эмпирическую формулу вида
|
|
|
y = µ1 + µ2t + µ3t2; |
|
|
|
|||
описывающую зависимость между рассматриваемыми величинами. |
|
|
|||||||
Оценим коэффициенты (µ1;µ2;µ3) по n = 9 наблюдениям (y1;y2;:::;yn) |
случайных величин |
||||||||
(Y1;Y2;:::;Yn). В этом случае |
|
|
|
|
|
|
|
|
|
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
|
XT = 00 |
4 |
10 |
15 |
21 |
29 |
36 |
51 |
68 1 |
; |
@0 |
16 |
100 |
225 |
441 |
841 |
1296 |
2601 |
4624A |
|
|
XT X = 0 |
9 |
234 |
10144 |
|
1; |
|
|
|
|
234 |
10144 |
531828 |
|
|
||||
|
0 |
@ |
10144 |
531828 |
30788836 |
A |
1 |
|
|
|
0:4878864808 |
0:0299495315 |
|
0:0003565864 |
|
||||
(XT X)¡1 = |
0:0299495315 |
¡0:0028828545 |
|
0:0000399292 |
; |
||||
|
@ |
¡0:0003565864 |
¡0:0000399292 |
¡0:0000006047 |
A |
|
^
µ = (66:71;0:9604;¡0:001359); y ¼ 66:71 + 0:9604t ¡ 0:001359t2:
92
Оглавление
1 |
Случайные события |
1 |
2 |
Вероятность |
6 |
3 |
Условная вероятность |
11 |
4 |
Формула полной вероятности. Формула Байеса. Схема Бернулли |
16 |
5 |
Одномерные случайные величины |
20 |
6 |
Числовые характеристики случайных величин |
26 |
7 |
Основные законы распределения случайных величин |
30 |
8 |
Случайные векторы |
35 |
9 |
Функции от случайных величин |
41 |
10 |
Ковариация и коэффициент корреляции случайных величин |
46 |
11 |
Условные характеристики случайных величин |
50 |
12 |
Многомерное нормальное распределение |
55 |
13 |
Предельные теоремы теории вероятностей |
60 |
14 |
Основные понятия выборочной теории |
65 |
15 |
Точечные оценки |
69 |
16 |
Интервальные оценки и доверительные интервалы |
72 |
17 |
Проверка гипотез. Параметрические модели |
79 |
18 |
Проверка непараметрических гипотез |
86 |
19 |
Метод наименьших квадратов |
91 |
93