
- •1.2. Основные понятия и определения в области метрологии
- •1.2.2. Общие положения по организации тестирования
- •Общие сведения
- •Показатели производительности
- •Продуктивность
- •Реактивность
- •Точка перегиба
- •Толерантность
- •Интегральная продуктивность
- •2. Элементы теории вероятностей и математической статистики для решения прикладных задач метрологии
- •2.1. Роль, место и основные задачи математической статистики
- •2.2. Основные понятия теории вероятностей
- •2.3. Случайные величины, их законы распределения
- •2.4. Применение критериев согласия для согласования теоретического и статистического распределений случайных величин
- •2.5. Статистические оценки параметров распределения
- •3. Основные понятия теории случайных процессов
- •3.1. Понятие о случайной функции и стационарном случайном процессе
- •3.2. Основные характеристики случайных функций
- •3.3. Основные сведения о случайных процессах
- •3.4. Спектральное разложение стационарной случайной функции
- •4.2. Понятие экспериментальной оценки надежности
- •4.3. Организация испытаний и сбор информации
- •4.4. Методический подход к оценке показателей надежности по экспериментальным данным
- •5. Оценка надёжности информационных систем по экспериментальным статистическим данным
- •5.1. Определение законов распределения наработки на отказ
- •5.2. Виды испытаний на надёжность и их планирование
- •5.3. Статистическая оценка показателей надежности при определительных испытаниях
- •5.4. Общие принципы обеспечения контроля надежности
- •5.5. Статистические методы контроля надёжности серийных систем
- •Приемка
- •Браковка
- •Продолжение испытаний
- •6. Погрешности измерений вероятностных характеристик при статистических испытаниях информационных систем
- •6.1. Понятие о погрешности измерений вероятностных характеристик
- •6.2. Источники погрешностей стохастических измерений вероятностных характеристик и способы снижения общей погрешности в работе информационных систем
- •6.3. Анализ алгоритмов измерения вероятностных характеристик и рекомендации по уменьшению погрешностей
- •Точечные оценки неизвестных параметров распределения
- •Доверительные интервальные оценки с неизвестными параметрами распределения
- •Статистические критерии проверки совместимости результатов натурных испытаний и моделирования
- •Библиографический список
- •Оценка вероятностных характеристик случайных процессов при испытаниях информационных систем
- •170026, Г. Тверь, наб. Афанасия Никитина, 22
2.2. Основные понятия теории вероятностей
Одним из основных понятий в теории вероятностей является понятие события, то есть всякий факт, который в результате опыта может произойти или не произойти [1].Степень возможности его возникновения называется вероятностью события. Понятие вероятности события по своей сути сопоставимо с опытным практическим понятием частоты события. Для сравнения событий по степени их возможности используют единицы измерения, изменяющиеся в диапазонах (от 1 до 0: от 1 – для достоверного события и до 0 – для противоположного ему невозможного события).
Другим не менее важным понятием теории вероятностей является понятие о случайной величине, которая в результате опыта может принять то или иное значение, не известное заранее. Случайные величины, принимающие только различные друг с другом значения, которые можно заранее перечислить, называются прерывными или дискретными, в отличие от тех случайных величин, возможные значения которых непрерывно заполняют некоторый промежуток и называются непрерывными случайными величинами.
В опытах, где возможные исходы симметричны (равновероятны), например выпадение одной из 6 цифр при бросании игральной кости, реализуют непосредственный подсчёт вероятностей. Но чаще для определения вероятностей событий обычно применяют не прямые, а косвенные методы, позволяющие по известным вероятностям одних событий определять вероятности других событий, связанных с ними, что позволяет свести к минимуму необходимые эксперименты. Это достигается использованием основных теорем теории вероятностей (сложения вероятностей и умножения вероятностей), а также их следствий (формулы полной вероятности и формулы Бейеса), базирующихся на некоторых дополнительных понятиях о событиях и вероятностях [1,12].
1. Полная группа событий.
Несколько событий образуют полную группу событий, если в результате опыта обязательно должно произойти хотя бы одно из них.
2. Несовместные события.
События несовместны в данном опыте, если никакие два из них не могут появиться вместе.
3. Равновозможные события.
События равновозможны в данном опыте, если по условиям симметрии можно полагать, что ни одно из них объективно не является более возможным, чем другие.
События, образующие такую группу, которая обладает всеми этими свойствами, называют случаями, или «шансами». Случай называется благоприятным некоторому событию, если его появление влечёт за собой появление данного события. Так, событию А – появлению чётного числа очков при бросании игральной кости – благоприятны три случая: 2,4,6. При этом, когда опыт сводится к схеме случаев, вероятность события А вычисляется как отношение числа благоприятных случаев m к общему их числу n: P(А)=m/n.
2.3. Случайные величины, их законы распределения
и характеристики
В развитие изложенного выше понятия случайной величины рассмотрим способы, с помощью которых эти величины могут быть описаны и охарактеризованы. Условимся в дальнейшем обозначать случайные величины большими буквами, а их возможные значения – соответствующими малыми, например X=x1; X=x2; …; X=xn или обозначение вероятностей возможных значений случайной величины X будет иметь соответствующий вид: P(X=x1)=p1; P(X=x2)=p2; …; P(X=xn)=pn, где P – вероятность соответствующего события.
Случайная величина P будет полностью описана с вероятностной точки зрения, если задать распределение между ее отдельными значениями, то есть установить так называемый закон распределения случайной величины, под которым понимается всякое соотношение, устанавливающее связь между возможными ее значениями и соответствующими им вероятностями. При этом говорят, что она подчинена данному закону распределения, простейшей формой задания которого для прерывной величины может быть таблица с перечислением значений случайной величины и соответствующих им вероятностей (ряд распределения случайной величины X).
Для непрерывных случайных величин (хотя она возможна и для прерывных) используется более совершенная, универсальная форма описания их распределения – интегральная функция распределения. или интегральный закон распределения, обозначаемые обычно F(x)=P(X<x) , где x – некоторая текущая переменная. Очевидно, что: а) F(x) есть неубывающая функция своего аргумента, то есть при x2>x1 F(x2)=> F(x1); б) F(– ∞)=0; в) F(+ ∞)=1.
Важное практическое значение имеет тот факт, что функция распределения позволяет вычислять вероятность попадания случайной величины X в некоторый диапазон, например от α до β. Легко показать [1], что эта величина равна приращению функции распределения на этом участке: P(α <=X < β) = F(β)–F(α).
Особенно часто используется в практических приложениях теории вероятностей производная от функции распределения f(x)=F'(x), характеризующая как бы плотность, с которой распределяются значения случайной величины в данной конкретной точке. Эта функция называется плотностью распределения («плотностью вероятности») непрерывной случайной величины Х. Кривая, изображающая плотность распределения случайной величины, называется кривой распределения, и, в отличие от функции распределения, она существует только для непрерывных случайных величин, а полная площадь, ограниченная кривой распределения и осью абсцисс, равна единице.
Рассмотренные выше законы распределения являются наиболее полными, исчерпывающими характеристиками случайных величин. Однако во многих практических случаях оказывается достаточным указать только отдельные числовые параметры, например среднее значение, вокруг которого группируются возможные значения случайной величины. Такие параметры, выражающие в сжатой форме наиболее существенные особенности распределения, называют числовыми характеристиками случайной величины. В теории вероятностей и математической статистике количество таких различных параметров (характеристик), имеющих различные области применения и назначения, достаточно велико. Поэтому рассмотрим только некоторые из них, наиболее часто применяемые при измерениях вероятностных характеристик случайных процессов. Это математическое ожидание (МОЖ), начальный и центральный моменты, дисперсия, среднеквадратическое отклонение (СКО).
МОЖ случайной величины часто называют просто средним ее значением. Математическим ожиданием случайной величины X , обозначаемым часто через mx =M[X], называется сумма произведений всех возможных значений случайной величины на вероятности этих значений, что, строго говоря, справедливо только для прерывных случайных величин. Однако МОЖ непрерывной случайной величины может интерпретироваться и как абсцисса центра тяжести в случае, когда «масса» распределена на оси абсцисс непрерывно с плотностью f(x) .
Следующими по важности и частоте использования при оценках случайных величин являются понятия начальных и центральных моментов. Понятие момента широко применяется в теории вероятностей для описания основных свойств распределения случайной величины. В дальнейшем ограничимся рассмотрением только дискретных прерывных случайных величин, имеющих большее значение для практического применения при испытаниях ИС. Начальным моментом s–го порядка прерывной случайной величины Х называется сумма вида
n
αs [X]=∑ xsi
i=1
Легко убедиться, что МОЖ представляет собой не что иное, как первый начальный момент случайной величины Х. В общем же случае начальным моментом s–го порядка случайной величины Х называется МОЖ s–й степени этой величины.
Понятие центрального момента базируется на понятии центрированной случайной величины Хº, соответствующей величине Х, представляющей собой отклонение случайной величины Х от её МОЖ:
Хº=X– mx.
МОЖ центрированной случайной величины Х всегда равно нулю. Поэтому центрирование случайной величины равносильно переносу начала координат в среднюю «центральную» точку, абсцисса которой равна математическому ожиданию. Таким образом, моменты центрированной случайной величины носят название центральных моментов, а центральным моментом порядка s случайной величины Х называют математическое ожидание s–й степени соответствующей центрированной случайной величины: μs[X]=M[(Хº)s]=M[(X– mx)s].
Очевидно, что для любой случайной величины центральный момент первого порядка равен нулю, т.к. МОЖ центрированной случайной величины всегда равно нулю; а для других центральных моментов легко выводятся формулы [1]: μ2= α 2– m2x ;
μ 3 = α 3 –3 mx α 2 +2 mx3 .
…………….
Из всех моментов в качестве характеристик случайной величины чаще всего применяют первый начальный момент (математическое ожидание)
mx= α1 и второй центральный момент μ2, который чаще называют дисперсией случайной величины и для которой вводят специальное обозначение D[X] : μ2 = D[X] .
Согласно определению центрального момента D[X] = M[(Хº)2],
то есть дисперсией случайной величины Х называется МОЖ квадрата соответствующей центрированной величины. Для непосредственного вычисления дисперсии служит формула
n
D[X]= ∑(xi– m x)2pi .
I=1
Дисперсия случайной величины есть характеристика рассеивания случайной величины около ее МОЖ. Для удобства и наглядности использования этого свойства из дисперсии извлекают квадратный корень, полученную величину называют средним квадратическим отклонением (СКО) случайной величины Х и обозначают σ [X] . Для упрощения записей допускается использовать сокращения и писать просто σ и D .
И последнее, чем хотелось бы закончить этот подраздел, –
это дать представление о роли и возможностях распределений по своеобразному закону редких явлений – закону Пуассона, характеризующему вероятность попадания ровно m точек в отрезок l:
,
где a= ۸l - МОЖ числа событий, приходящихся на некоторый отрезок времени; m – число, характеризующее появление ровно m событий за время испытаний, ۸ – плотность распределения случайной величины – попадания одной точки на отрезок l .
Важным результатом этого закона является то, что дисперсия случайной величины, распределенной по закону Пуассона, равна ее математическому ожиданию.