- •Измерения.
- •С учётом ошибок измерений связь между результатами измерений и неизвестными параметрами описывается следующей системой уравнений: ,
- •Основные задачи обработки измерений.
- •Можно левые части уравнения заменить приближёнными соотношениями вида:
- •Статистическая обработка измерений. Задача обработки измерений: отыскать методы построения оценок, при которых отсутствует смещение оценки, а дисперсия оценок – наименьшая – т.Е. Эффективных оценок.
- •Если считать, что , то система не доопределена.
- •Случайная величина и ее характеристики
- •Функция распределения вероятностей
- •Случайная величина и ее характеристики
- •Равномерное распределение
- •Нормальный закон распределения (закон Гаусса)
- •Закон редких событий (закон Пуассона)
- •Системы случайных величин
- •Числовые характеристики системы двух случайных величин
- •Числовые характеристики системы нескольких случайных величин
- •Двумерный нормальный закон распределения
- •Законы распределения, связанные с нормальным
- •Критерии качества оценок
- •Оценивание параметров процессов по результатам измерений.
- •Обзор основных понятий и задач математической статистики
- •Методы оценивания параметров
- •Недостатки метода наименьших квадратов и понятие о помехоустойчивом ( робастном, устойчивом ) методе оценивания
- •Введение в помехоустойчивое оценивание
- •Робастные оценки
- •Помехоустойчивая оценка параметра масштаба
- •Различны ли сорта при уровне значимости ? Если это так, то является ли бензин с октановым числом 94 значимо лучше?
- •Построение линейной регрессионной модели с одной независимой переменной.
- •Исследование уравнений регрессии.
- •Литература
Случайная величина и ее характеристики
Вероятность суммы двух независимых случайных событий равна сумме вероятностей этих событий
P(A+B)
= P(A) + P(B); P(
i)
=
P(Ai)
События называются зависимыми, если вероятность события А меняется в зависимости от того, произошло событие В или нет.
Вероятность произведения двух независимых событий равна произведению вероятностей этих событий
P(A*B) = P(A)*P(B) Обобщая, P(Пai) = ПP(Ai)
Для зависимых событий:
P(A*B) = P(A)*P(B/A)
P(A*B) = P(B)*P(A/B)
Основные законы распределения случайных величин.
Биномиальное распределение
Вероятность того, что при проведении n независимых опытов, событие А появится ровно m раз.
Вероятность появления А в одном опыте равна p, вероятность появления равна q ; (q = 1-p)
Pm,n
=
pmqn-m
Равномерное распределение
F(x)
=
E[x]
= mx
=
;
=
Dx
= µ2
=
Нормальный закон распределения (закон Гаусса)
f(x)
=
,
m
- математическое
ожидание
- средне квадратичное отклонение
Действительно, можно показать, что
M[x] = f(x)dx = dx = m
D[x]
=
dx
=
Нормированная нормальная случайная величина t
t
=
; Ф[x]
=
dt
- функция
Лапласа или интеграл вероятности
Ф[x] - табулирована
P(a
x
< b)
=
dt
=
Закон редких событий (закон Пуассона)
Pm
=
, Pm
-
вероятность
того, что на отрезок длинной l
попадает
ровно m
точек,
- математическое ожидание числа точек,
приходящихся на одну длину ( средняя
плотность ),
- среднее число точек на отрезке.
Системы случайных величин
Функции распределения случайных величин
F(x, y) = P((X < x)(Y < y))
Плотность распределения вероятностей случайных величин
f(x,
y)
=
- элементарные
вероятности
P((X,Y)
D)
=
dxdy
Геометрически вероятность попадания в область D изображается объемом цилиндрического тела С, ограниченного сверху поверхностью распределения и
опирающеюся на область D.
Свойства плотности распределения двух величин:
f(x,y)
0
dxdy
= 1
F1(x)=F
=
dxdy
f1(x)
= F
(x)
=
dy
f2(y)
= F
(y)
=
dx
f(x,y) dxdy = P[(x < X < x + dx)(y < Y < y + dy)]
Условная плотность вероятности - f(x\y)
f(x\y)
=
=
f(y\x)
=
=
,
то есть f(x,y) = f(x)f(y\x)
! Для независимых случайных величин f(x,y) = f(x)f(y)
Числовые характеристики системы двух случайных величин
Начальный момент порядка k,s
ak,s = M[xk ys]
Центральный момент порядка k,s
k,s
= M[
k
s]
;
=
x - mx
= y - my
то
есть ak,s
=
f(x,y)
dxdy
k,s
=
f(x,y)
dxdy
Первые начальные моменты
-
координаты
средней точки
Вторые
центральные моменты - дисперсии
и
Dx = 2,0 = M[ 2 0] = M[ 2] = D[x]
Dy
=
0,2
= D[y]
Второй смешанный центральный момент - корреляционный момент
kks = M[ ] = M[(x-mx)(y-my)]
kks
=
(xi
-
mx)
(yj
-
my)
Pij
Rxy
=
- коэффициент
корреляции ( безразмерная величина )
!
Для независимых случайных величин
корреляционный момент
0
!
Системы случайных величин (n > 2)
Закон распределения случайной величины - полная ее характеристика.
F(x1, x2,.., xn) = P((X1 < x1) (X2 < x2) ..(Xn < xn)) - функция распределения
f(x1,
x2,..,
xn)
=
- плотность распределения
F1(x)
= F[x1,
]
Условная плотность распределения
f(x1,..,xk\
xk+1,..,xn)
=
Для независимых случайных величин f(x1, x2,.., xn) = f(x1)..f(xn)
Вероятность попадания случайной точки (x1,.., xn) в пределы n - мерной области D:
P((x1,
x2,..,
xn)
D) =
dx1...
dxn
