Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

PZMS

.pdf
Скачиваний:
4
Добавлен:
15.03.2025
Размер:
1.13 Mб
Скачать

11

В задачах математической статистике для количественной оценки распределения случайной величины применяются специальные показатели, например: математическое ожидание (первый начальный момент), дисперсию (второй начальный момент), моменты более высоких порядков, среднеквадратичное отклонение, медиана, мода и д.р. Эти значения вычисляются особым образом и называются числовыми характеристиками случайной величины.

Математическим ожиданием (первым начальным момен-

том) или средним значением μ называется сумма:

 

N

 

 

xi

N

μ

i 1

или μ xi pi ,

N

 

i 1

где xi – значение случайной величины, наблюденное на i-ом опыте, pi – вероятность случайной величины xi, N – количество значений. Математическое ожидание характеризует среднюю величину случайных данных. Для данных табл.1.1 математическое ожидание равно 8,55.

Дисперсией (второй центральный момент) D называется сумма

 

N

 

 

xi μ 2

N

D

i 1

или D xi μ 2 pi,

N

 

i 1

где, xi – значение случайной величины, наблюденное на i-ом опыте, pi – вероятность случайной величины xi, N – количество значений. Дисперсия характеризует разброс случайной величины относительно среднего значения. Для данных табл.1.1 дисперсия равна 0,38.

Центральным моментом s-го порядка называется сумма

 

N

 

 

xi μ s

N

μs

i 1

или μs xi μ s pi,

N

 

i 1

где xi – значение случайной величины, наблюденное на i-ом опыте, pi – вероятность случайной величины xi, N – количество зна-

12

чений, s – целочисленная величина порядка момента. Центральные моменты порядка s>2 в основном применяются для характеристики распределения случайной величины несимметричной относительно математического ожидания.

Среднеквадратичное отклонение равно положительному корню из дисперсии

σ D

Для данных табл.1.1 среднеквадратичное отклонение равно 0,62. Медиана m - значение, которое случайная величина превос-

ходит с вероятностью 0,5 (рис.1.1 и рис.1.2):

m G(1). 2

Мода – значение, в котором плотность вероятности (или функция вероятности) имеет локальный максимум, то есть значение величины xi, которое встречается чаще остальных. Для данных таблицы 1 мода равна 8,62 (рис.1.3).

Функция распределения или кумулятивная функция распределения F(x) есть вероятность того, что случайная величина принимает значение, меньшее или равное х:

F(x) Prob X x pi ,

xi x

pi 1

i

где суммирование распространено на все значения индекса i, для которых xi≤x.

Функцию распределения также называют интегральной функцией. Она полностью характеризует случайную величину и является одной из форм закона распределения. Она является самой универсальной характеристикой случайной величины. Функция распределения существует как для непрерывных, так и для дискретных случайных величин.

Таким образом, F(x) есть ступенчатая функция, равная постоянной на любом интервале, не содержащем точек xν, и имеющая в каждой точке xν скачок pν.

Для данных табл.1.1 функция распределения представлена на рис.1.1 и рис.1.2.

13

Рис.1.1 Функция распределения Рис.1.2 Функция распределения для данных табл.1.1 для данных табл.1.1., в виде

ступенчатой диаграммы

Другой метод получения функции распределения основан на применение обратной функции распределения. Обратная функция распределения (функция вероятности α) G(α) такое число, что случайная величина примет значение, не превосходящее α, с вероятностью G(α)

x G(α) G(F(x)), Prob X G(α) α,

где G(α) есть 100α-процентная точка.

Построение обратной функции распределения, для которой строится зависимость характеристики системы от ее номера в ранговом списке, позволяет оперировать с каждым значением исходного эмпирического ряда.

Например, для исходного ряда, представленного амплитудами ЭКГ здорового человека рис.1.3, обратная функция распределения имеет вид, представленный на рис.1.4.

Нормировка аргумента обратной функции распределения по наибольшему количеству элементов и инверсия системы координат приводят к эмпирической функции распределения, что позволяет сохранить исходную точность результатов измерения при построении теоретической функции распределения, соответствующей исходному эмпирическому ряду (рис.1.5).

 

 

14

 

 

1.6

 

 

 

 

1.2

 

 

 

 

0.8

 

 

 

 

0.4

 

 

 

 

0

 

 

 

 

0

2

4

6

8

-0.4

 

 

 

 

-0.8

 

 

 

 

Рис.1.3. Электрокардиограмма здорового человека

Рис.1.4 Обратная функция рас-

Рис.1.5 Функция распределения

пределения для данных рис.1.3

для данных рис.1.3

Плотность вероятности или плотность распределения f(x) (рис.1.6 и рис.1.7) – есть производная от функции распределения

f (x )

(F(xi i) F(xi i))

.

(1.1)

 

i

xi i

xi i

 

 

 

Функция вероятности для дискретной случайной величины f(x) есть вероятность того, что случайнаявеличина принимает значение х.

f (x) Prob X x (1.2)

Другой способ получения функции плотности распределения заключается в построении гистограммы. Для этого данные группируются, т.е. указывается число значений, попавших в интервалы не-

15

которого разбиения. Каждый интервал этого разбиения принимается за основание прямоугольника, высота которого соответствует числу значений, попавших в этот интервал. Полученная структура называется гистограммой.

Рис.1.6 Функция плотности ве-

Рис.1.7 Гистограмма для дан-

роятности для данных рис.1.5

ных рис.1.5

Функция плотности распределения (рис.1.6), получена из формулы (1.1) по разным значениям опорных точек данных рис.1.5. На рис.1.7 представлена гистограмма для данных рис.1.5. Функция плотности распределения (рис.1.8), получена из формулы (1.2) для данных табл.1.1.

Рис.1.8 Функция плотности ве-

Рис.1.9 Функция выживания для

роятности для данных табл.1.1

данных табл.1.1

16

Функция выживания S(x) (рис.1.9) - это вероятность того, что случайная величина примет значение больше, чем x.

S(x) Prob X x 1 F(xi)

Обратная функция выживания Z(α) - это такое значение, которое случайная величина превосходит с вероятностью α.

Prob X Z(α) α x Z(α) Z(S(x)),

где S(x) – функция выживания.

Z(α) G(1 α), где G(x) – обратная функция распределения

Рис.1.10 Функция риска для

Рис.1.11 Функция риска для

данных табл.1.1

данных табл.1.1

Функция риска (интенсивность смертности) h(x) - отношению плотности вероятности к функции выживания в точке x (рис.1.10).

h(x

)

f (xi)

 

f (xi)

 

 

f (xi 1)

 

 

)

 

i

 

S(x

) 1 F(x

1 F(x )

 

 

i

 

 

i

 

 

i

Функция становится более информативной для анализа, если построить её в полулогарифмическом масштабе

(рис.1.11).

Отношение Миллса m(x) равно (рис.1.12):

m(x) 1 F(xi) 1 f (xi ) h(xi)

17

Рис.1.12 Функция Милса для

Рис.1.13 Функция Милса для

данных табл.1.1

данных табл.1.1

Функция становится более информативной для анализа, если построить её в полулогарифмическом масштабе (рис.1.13).

Кумулятивная функция риска H(x) является интегралом функ-

ции риска (рис.1.14).

H(xi) ln(1 F(xi))

Рис.1.14 Кумулятивная функ-

Рис.1.15 Функция риска для

ция риска для данных табл.1

данных табл.1

Функция становится более информативной для анализа, если построить её в полулогарифмическом масштабе (рис.1.15).

18

2. МЕТОДЫ ИДЕНТИФИКАЦИИ ЗАКОНОВ РАСПРЕДЕЛЕНИЯ И ИХ ПАРАМЕТРОВ. АНАМОРФОЗЫ

Математическое ожидание и дисперсия вычисляются в предположении, что вся выборка принадлежит одной генеральной совокупности. В действительности построение анаморфоз для различных распределений показывает, что существуют «хвосты», которые значимо отличаются от основной части выборки. В связи с этим, построение анаморфоз позволяет уточнить характеристики математического ожидания и дисперсии, как соответствующих минимальным отклонениям от линеаризующей зависимости в анаморфозе.

Ниже представлены основные функции плотности распределения, используемые в математической статистике и теории надежности [4,5], и анаморфозы к ним.

В случаях, когда использовались значения f (xi), то они вычислялись следующим образом:

f (xi) ( f (xi i) f (xi i)).

xi i xi i

Устойчивость полученных результатов для распределений проверяется построением анаморфоз для различных значений сдвижки Δi.

2.1. Система Пирсона

К.Пирсон ввел дифференциальное уравнение, которое для большинства непрерывных распределений определяет функции плотности f(x) [6]:

f (x)

 

 

x a

 

f (x),

(2.1)

b

b

x b

x2

0

1

2

 

 

 

где а и bi постоянные (табл.2.1).

Анаморфоза для уравнения Пирсона была введена С.Д. Давыдо-

вым [7].

Уравнение Пирсона может быть сведено к сумме гиперболы и линейной зависимости.

аблица 2.1.

Связь уравнения Пирсона с основными функциями плотности распределения

a

b0

b1

b2

Вид уравнения

Плотность вероят-

Распре-

 

 

 

ности

деление

 

 

 

 

 

 

 

 

 

 

 

 

 

0

0

 

0

 

 

Экспо-

 

 

 

ненци-

 

 

 

 

 

 

альное

 

 

 

 

 

 

 

 

 

0

0

 

 

Нормаль-

 

 

 

ное

 

 

 

 

 

 

 

 

 

 

 

 

19

 

 

 

 

 

 

 

 

-x0

 

x0

 

 

 

Коши

 

 

 

 

 

 

 

 

0

0

 

 

 

 

Ципфа

 

 

 

 

 

 

 

 

 

0

0

 

 

Гамма

 

 

 

 

 

 

 

 

20

Пусть y(x) f (x) f (x)

 

b b x b x

2

 

 

 

 

 

b a (b ab )

y(x)

0

1

2

 

b

x (b

ab )

0

1

2

(2.2)

 

 

 

 

 

 

 

 

 

 

x a

2

1

2

 

 

a bx

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

или

 

 

 

 

 

 

 

 

 

 

y(x) b x C

L

 

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

a bx

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где C (b1

a b2) и L b0 a (b1 a b2).

 

 

 

 

Задаем на оси х точку t0 и вычисляем значения функции в обе стороны от нее:

y(t

0

t) b t

0

b t C

 

L

 

 

 

 

2

2

t0

t a

 

 

 

 

 

 

 

 

 

 

 

(2.3)

y(t

0

t) b t

0

b t C

 

L

 

 

 

 

2

2

t0

t a

 

 

 

 

 

Полусумма и полуразность, разделенная на t, уравнений (2.3) дает:

 

y(t0 t) y(t0 t)

(b t

0

C)

(t0 a) L

 

 

 

 

 

2

 

 

2

2

 

 

 

(t0 a)

2

t

 

 

 

 

 

 

 

 

(2.4)

 

t) y(t0 t)

 

 

 

 

 

 

 

 

 

 

y(t0

b2

 

 

L

 

 

 

 

 

 

 

 

 

 

2 t

(t0 a)

2

t

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Умножив нижнее уравнение (2.4) на (t0+a) и, сложив, получим:

 

 

y(t0 t) y(t0 t)

(t

0

a)

y(t0 t) y(t0 t)

b

(2 t

0

a) C (2.5)

 

 

 

 

 

2

 

 

 

 

 

 

2 t

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Преобразовав уравнение (2.5) и подставив С, получим:

 

 

y(t0 t) y(t0 t)

(2 b

t

0

b ) (t

0

a)

y(t0

t) y(t0 t)

(2.6)

 

 

 

 

 

2

 

 

 

2

 

 

1

 

 

 

2 t

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Спрямление уравнение (2.6) достигается в координатах: