- •1.2. Основные понятия и определения в области метрологии
- •1.2.2. Общие положения по организации тестирования
- •Общие сведения
- •Показатели производительности
- •Продуктивность
- •Реактивность
- •Точка перегиба
- •Толерантность
- •Интегральная продуктивность
- •2. Элементы теории вероятностей и математической статистики для решения прикладных задач метрологии
- •2.1. Роль, место и основные задачи математической статистики
- •2.2. Основные понятия теории вероятностей
- •2.3. Случайные величины, их законы распределения
- •2.4. Применение критериев согласия для согласования теоретического и статистического распределений случайных величин
- •2.5. Статистические оценки параметров распределения
- •3. Основные понятия теории случайных процессов
- •3.1. Понятие о случайной функции и стационарном случайном процессе
- •3.2. Основные характеристики случайных функций
- •3.3. Основные сведения о случайных процессах
- •3.4. Спектральное разложение стационарной случайной функции
- •4.2. Понятие экспериментальной оценки надежности
- •4.3. Организация испытаний и сбор информации
- •4.4. Методический подход к оценке показателей надежности по экспериментальным данным
- •5. Оценка надёжности информационных систем по экспериментальным статистическим данным
- •5.1. Определение законов распределения наработки на отказ
- •5.2. Виды испытаний на надёжность и их планирование
- •5.3. Статистическая оценка показателей надежности при определительных испытаниях
- •5.4. Общие принципы обеспечения контроля надежности
- •5.5. Статистические методы контроля надёжности серийных систем
- •Приемка
- •Браковка
- •Продолжение испытаний
- •6. Погрешности измерений вероятностных характеристик при статистических испытаниях информационных систем
- •6.1. Понятие о погрешности измерений вероятностных характеристик
- •6.2. Источники погрешностей стохастических измерений вероятностных характеристик и способы снижения общей погрешности в работе информационных систем
- •6.3. Анализ алгоритмов измерения вероятностных характеристик и рекомендации по уменьшению погрешностей
- •Точечные оценки неизвестных параметров распределения
- •Доверительные интервальные оценки с неизвестными параметрами распределения
- •Статистические критерии проверки совместимости результатов натурных испытаний и моделирования
- •Библиографический список
- •Оценка вероятностных характеристик случайных процессов при испытаниях информационных систем
- •170026, Г. Тверь, наб. Афанасия Никитина, 22
3. Основные понятия теории случайных процессов
3.1. Понятие о случайной функции и стационарном случайном процессе
Случайные величины, изменяющиеся в процессе опытов, в отличие от обычных случайных величин, называют случайными функциями X(t). Обычно в качестве аргумента t выступает время. Если t принимает континиум значений, случайную функцию называют случайным процессом.
Решение практических задач исследования и использования многофакторных случайных явлений обычно ограничивается случаями стационарных случайных процессов, (в общем случае - стационарных случайных функций) протекающих во времени приблизительно однородно и имеющих вид непрерывных случайных колебаний вокруг некоторого среднего значения, при этом не меняющихся существенно со временем.
Таким образом, случайная функция X(t) называется стационарной, если все её вероятностные характеристики не зависят от времени t. Если для случайной функции среднее по времени (на достаточно большом участке времени) приближённо равно среднему по множеству наблюдений, то говорят об эргодическом свойстве функции.
Для понимания излагаемого далее материала достаточно пользоваться только характеристиками (параметрами), обозначаемыми как Z. Это математическое ожидание, дисперсия и корреляционная функция.
Остановимся подробней на последней характеристике, так как ввиду краткости изложения в пособии не рассматривается раздел «Системы случайных величин» [1], где впервые вводятся понятия корреляционного момента и коэффициента корреляции.
По
аналогии с понятиями, характеризующими
случайные величины, начальным
моментом порядка k,s
системы (X,Y)
называется МОЖ произведения
на
:
Центральным моментом называется МОЖ произведения k-й и s-й степени соответственно центрированных величин:
,
где
;
.
Для прерывных случайных величин
;
,
где
– вероятность того, что система (X,Y)
примет значения (
),
а суммирование распространяется по
всем возможным значениям X,Y.
Помимо чисел k и s, характеризующих порядок момента по отношению к отдельным величинам, рассматривается ещё суммарный порядок момента k+s, равный сумме показателей степеней X и Y, в соответствии с которым моменты классифицируются на первые, вторые и т.д. (на практике обычно применяются только первые и вторые моменты).
Так, первые начальные моменты
;
представляют собой характеристику положения системы (координата средней точки на плоскости, вокруг которой происходит рассеивание точки (X,Y)).
Вторые центральные моменты системы представляют дисперсии величин X и Y:
;
,
характеризующие рассеяние случайной точки в направлении осей Ox и Oy.
Особую роль играет второй смешанный центральный момент
,
т.е.
МОЖ произведения центрированных величин,
носящий специальное обозначение
– корреляционный момент (момент связи).
Для прерывных случайных величин корреляционный момент выражается формулой
.
Помимо
описания рассеивания величин X
и Y
корреляционный момент указывает также
на связь между ними, при этом удобно
пользоваться безразмерной характеристикой
– коэффициентом корреляции
,
где
величин X
и Y.
Очевидно, что для независимых случайных величин коэффициент корреляции так же, как и корреляционный момент, равен нулю.
Коэффициент корреляции характеризует не всякую зависимость, а только степень тесности линейной зависимости между случайными величинами.
В
случае, если
,
говорят о положительной корреляции
величин X
и Y,
а в случае
– об отрицательной.
Рассмотренные выше характеристики и зависимости для систем случайных величин (в частности двух) могут интерпретироваться как расширенное понятие системы случайных величин и как функции нескольких аргументов в различные моменты времени t, в различных сечениях случайной функции X(t). При этом нет необходимости пользоваться законами распределения X(t), а можно ограничиться рассмотрением простейших характеристик случайных функций, аналогичных числовым характеристикам случайных величин (МОЖ, дисперсия и др.).
