Скачиваний:
63
Добавлен:
01.05.2014
Размер:
278.63 Кб
Скачать

ГЛАВА 1.1. ОСНОВНЫЕ СТАТИСТИЧЕСКИЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ВЕЛИЧИН

Детерминированной называется такая величина, значение которой постоянно и не изменяется в течение времени наблюдения за ее поведением. Значение случайной величины невозможно предсказать при единичном наблюдении. Количественные характеристики случайного параметра не могут быть раз и навсегда определены, так как они меняются во времени. Строго говоря, любая физическая величина случайна, а детерминированная трактовка оправдана лишь точностью выполнения расчетов.

Из вышесказанного следует, что большинство параметров, характеризующих работу любой механической системы, случайны. Тогда, используя аппарат теории вероятностей, а в более сложных случаях и аппарат теории случайных функций, можно предсказать и количественно описать случайные закономерности, возникающие в процессе работы машин и механизмов.

Основные числовые характеристики случайных величин. Числовые характеристики случайной величины определяются из анализа единичных реализаций, происходящих в период наблюдения за этой величиной. Наука, которая занимается методами обработки опытных данных, полученных в результате такого наблюдения, называется математической статистикой. Поэтому методы обработки случайных величин называются статистическими методами.

Статистика подробно анализирует поведение случайных величин. В данной главе сформулированы основные понятия теории вероятностей и математической статистики, которые необходимы для понимания физической сути проблем, связанных с проектированием машин, механизмов и конструкций.

Рис. 1.1.1

В простейшем случае случайное событие имеет два возможных исхода - да или нет. Если при большом числе испытаний количество благоприятных исходов равно числу неблагоприятных, то говорят, что случайные события взаимно независимы. Под вероятностью благоприятного исхода понимают отношение фактического числа таких исходов к полному числу испытаний. Очевидно, что вероятность появления одного из двух независимых случайных события равна 1/2. Выполненные наблюдения за случайными событиями показали, что вероятность двух последовательных благоприятных исходов оказывается равной 1/4. Это означает, что вероятность сложного события, составленного из любого числа простых взаимно независимых, равна произведению вероятностей этих простых событий. В теории вероятностей такой вывод формулируется как теорема умножения вероятностей.

Соотношение, устанавливающее тем или иным способом связь между возможными значениями случайной величины и их вероятностями, называется законом распределения случайной величины. Закон распределения дискретной случайной величины обычно задается с помощью гистограммы. Каждому значению случайной

величины Xi отвечает определенная вероятность Pi . В качестве примера на рис. 1.1.1 приведена гистограмма

рассеяния (разброса) погрешности одного из линейных размеров X деталей в партии, полученной в результате механической обработки. По горизонтальной оси откладываются различные возможные значения данной

случайной величины, а именно погрешности линейного размера, а по вертикали - количество деталей, имеющих такую погрешность. В общем случае, если в интервал x попало ni значений случайной величины из общего количества N , то вероятность Pi появления такого значения равна

P = ni

 

i

N .

(1.1.1)

 

Рассчитав вероятности каждого из текущих событий, можно получить совокупность вероятностей и также

изобразить ее в виде гистограммы, составленной из отрезков прямых. При x 0 кусочно-линейная функция

может быть заменена непрерывной функцией f (x) , называемой функцией плотности вероятности. График

функции

f (x)

называется кривой распределения (рис. 1.1.2). Геометрически вероятность

P(x0 < X < x)

попадания случайной величины X в диапазон

(x0

, x )

равна площади заштрихованной криволинейной трапеции:

 

 

Рис. 1.1.2

x

P(x0 < X < x) = ∫ f (x)dx

x0

.

(1.1.2)

Назовем математическим ожиданием (средним значением) M(X ) случайной величины следующее отношение:

 

 

 

 

 

 

 

 

k

 

 

 

 

P x

1

+ P x

2

+...+P x

k

 

Pi xi

 

M ( X ) =

1

2

k

=

i=1

 

 

 

 

P1 + P2

+...+Pk

 

k

 

 

 

 

 

 

 

Pi

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i=1

,

(1.1.3)

 

 

 

 

 

 

 

 

 

k

 

где k - число участков разбиений интервала изменения случайной величины. Очевидно, что

Pi

= 1

i=1

,

следовательно, из (1.1.3) и (1.1.2) получаем

k

M ( X ) = Pi xi = xf (x)dx

i=1

−∞

Важной характеристикой статистического распределения является дисперсия случайной величины от ее математического ожидания:

k

2

D( X ) = (xi M ( X )) Pi

i=1

.

(1.1.4)

D( X ) - мера отклонения

.

(1.1.5)

В интегральной форме выражение (1.1.5) имеет вид

D( X ) = (x M ( X ))2 f (x)dx

−∞

.

(1.1.6)

При практическом применении удобно вместо дисперсии использовать квадратный корень из этой

 

величины, который получил название среднего квадратичного отклонения σ$(x) :

 

σ$( X ) =

D( X ) = σ$ .

(1.1.7)

Для оценки рассеяния используется также коэффициент вариации γ ,

 

γ = σ$ /

M(X ) .

(1.1.8)

Изменение площади под кривой распределения описывается функцией распределения F (x) . Функция распределения случайной величины X задает вероятность того, что эта величина примет значение меньшее, чем заданное x :

F(x) P(X < x)= xf (x)dx

−∞ . (1.1.9)

Рис. 1.1.3

Рис. 1.1.4

Из определения (1.1.9) ясно, что F(x) является неубывающей функцией своего аргумента, т. е.

F(x2 )F(x1 ) при x2 > x1 ; в пределах изменения случайной величины X она изменяется от 0 до 1:

F(− ∞) = 0 , F() = 1 .

Случайная величина может представлять собой совокупность более простых. Рассмотрим в качестве

примера случайный размер A , полученный в результате сложения взаимно независимых случайных размеров A1

и A2 вследствие контакта двух плоских деталей (рис. 1.1.3). Рассеяние линейных размеров

A1 и A2 вызвано

ошибками изготовления и может быть описано функциями плотности вероятности f1(x1) и

f2 (x2 )

соответственно (рис. 1.1.4). Полученный после контакта размер A также оказывается рассеянным и характеризуется функцией плотности f (x) , аргумент которой равен x1 + x2 . Результат сложения можно

определить прямым подсчетом. Для этого под кривой плотности f1(x1) выделяем элементарный участок dx1 .

Число деталей из первой партии, имеющих размер x1 , равно Nf1 (x1 )dx1 . Аналогично для деталей из второй

Nf2

(x2 )dx2

из них имеют размер

x

2 . Вероятность того, что размеры

x

 

и

x

2

будут реализованы

партии -

 

 

1

 

 

одновременно, по теореме об умножении вероятностей равна произведению

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f (x)= f1 (x1 )f2 (x2 )dx1dx2

.

 

 

(1.1.10)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Определим математическое ожидание M ( X ) и дисперсию D( X ) функции f (x) . На основании (1.1.4) с

учетом (1.1.10) получаем

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

M (X )

 

 

 

 

+ x2 )f1 (x1 )f2 (x2 )dx1dx2 =

 

 

=

xf (x)dx =

(x1

 

 

 

 

 

−∞

 

 

 

−∞−∞

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(x1 )f2 (x2 )dx1dx2 =

 

 

=

x1 f1 (x1 )f2 (x2 )dx1dx2 +

x2 f1

 

 

 

−∞−∞

 

 

 

 

 

−∞−∞

 

 

 

 

 

 

 

 

 

 

 

 

(x2 )dx2 +

 

 

 

 

(x1 )dx1.

 

 

=

x1

f1

(x1 )dx1 f2

x2 f2 (x2 )dx2

 

 

f1

 

 

 

−∞

 

 

 

−∞

 

 

−∞

 

 

−∞

(1.1.11)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Так как по определению

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f1 (x1 )dx1 =1,

f2 (x2 )dx2 =1,

 

 

 

 

 

 

 

−∞

 

 

 

 

−∞

 

 

 

 

 

 

 

 

 

 

 

x1 f1 (x1 )dx1 = M (x1 ),

x2 f2 (x2 )dx2 = M (x2 ),

 

 

 

 

 

−∞

 

 

 

 

 

−∞

 

 

 

 

 

(1.1.12)

то из (1.1.11) следует

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

M(X ) = M(X1 )+ M(X2 )

.

 

(1.1.13)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Очевидно, что для случая разности двух случайных величин, X = X1 X2 , математическое ожидание результата по аналогии с (1.1.13) равно

M(X ) = M(X1 )M(X2 ).

В общем случае справедлив следующий вывод: при сложении n независимых случайных величин

математическое ожидание результирующего распределения равно алгебраической сумме математических ожиданий составляющих величин,

n

M ( X ) = M ( Xi )

i=1

.

(1.1.14)

Полученный результат (1.1.14) не зависит от вида функций плотности вероятности величин. Определим далее дисперсию распределения (1.1.10). Согласно (1.1.6) имеем:

D(X )= (x M (X ))2 f (x)dx =

 

−∞

 

 

 

 

 

=

[(x1 + x2 )(M (X1 )+ M (X 2 ))]2 f1 (x1 )f2 (x2 )dx1dx2 =

−∞−∞

 

 

 

 

 

=

(x1 M (X1 ))2 f1 (x1 )f2 (x2 )dx1dx2 +

(x2 M (X 2 ))2 f1 (x1 )f2 (x2 )dx1dx2

−∞−∞

 

−∞−∞

 

+ 2 (x1 M (X1 ))f1 (x1 )dx1

(x2 M (X 2 ))f2 (x2 )dx2 ,

 

−∞

 

−∞

 

 

 

 

откуда с учетом очевидных равенств (1.1.12) следует

 

 

 

 

 

D = D + D ,

σ$2 = σ$2

+σ$

2

 

1

2

 

1

2 .

Аналогичный результат получается в случае вычитания двух или нескольких случайных чисел из серии

случайных распределений с плотностями f1 (x1 ) ,

f2 (x2 ) ,

f3 (x3 ) и т. д. В общем случае имеем

 

k

 

 

k

 

 

 

D = Di ,

σ$2 = σ$i2

 

 

i=1

 

 

i=1

.

(1.1.15)

Различные виды функций плотности вероятности. Функция плотности вероятности случайной величины в общем случае может иметь совершенно произвольный вид. Однако есть ряд аналитических функций, которые используются в математической статистике в качестве функций плотности наиболее часто. Остановимся на них подробно.

Показательное (экспоненциальное) распределение. Случайная величина имеет показательное

распределение, если функция плотности ее вероятности представима в виде

 

1

 

 

 

 

 

exp(x /θ),

x 0

 

 

 

f (x) = θ

0, x < 0

 

 

 

 

 

 

 

 

 

,

(1.1.16)

где положительная величина θ - параметр распределения (рис. 1.1.5).

Рис. 1.1.5

Равномерное распределение. Говорят, что случайная величина распределена равномерно на участке от a до b , если ее плотность вероятности f (x) на этом участке постоянна (рис. 1.1.6),

 

1

 

 

 

 

 

 

 

,

x (a, b)

 

 

 

 

 

 

f (x) =

 

 

 

 

ba

 

x (a, b)

 

 

 

 

0,

 

 

.

(1.1.17)

 

 

 

 

 

Распределение (1.1.17) называют еще равновероятным.

Рис. 1.1.6

Треугольное распределение. Если случайная величина на участке (a,b) представляет собой сумму двух других случайных равномерно распределенных величин, то можно показать, что ее функция плотности вероятности подчиняется так называемому треугольному распределению (рис. 1.1.7):

 

4

 

 

x ,

 

 

 

 

 

 

 

 

(ba)

2

 

 

 

 

 

 

 

 

 

 

f (x) =

4

 

 

 

 

x

 

 

 

 

 

 

 

 

 

1

 

,

 

 

 

 

 

(ba)2

 

 

(ba)

 

 

 

 

 

 

 

 

x (a,(a +b) / 2)

x((a +b) / 2, b)

. (1.1.18)

Рис. 1.1.7

Нормальное распределение. Можно показать, что алгебраическая сумма шести и более равномерно распределенных случайных величин дает случайную величину, распределенную по нормальному закону (закону Гаусса). Нормальный закон распределения играет важнейшую роль в теории вероятностей вообще и в ее инженерных приложениях в частности. Среди других законов распределения он занимает особое место. Нормальным распределением можно описать любое сложное событие, составленное из совокупности простых взаимно независимых случайных явлений. Вот почему фактический разброс, например, линейных размеров деталей после механической обработки подчиняется именно закону нормального распределения. Функция плотности вероятности в этом случае имеет вид

f (x) =

 

1

 

1

(x x

)2

 

)

exp

2

)2m

 

 

 

σ

2π

 

σ

,

(1.1.19)

где x m и σ$ - параметры нормального распределения, а именно математическое ожидание и среднее квадратичное отклонение соответственно. Кривая нормального распределения имеет симметричный,

колоколообразный вид (рис. 1.1.8).

Рис. 1.1.8

Вероятность попадания нормально распределенной случайной величины X в диапазон (a, b) с учетом

(1.1.19) и (1.1.2) равна

 

P(a

< X < b) = )

1

b

 

 

1 (x x

)2

 

 

 

 

2π

exp

2

 

)

2m

dx

 

 

 

σ

a

 

 

 

σ

 

 

.

(1.1.20)

 

 

 

 

 

 

 

 

 

 

 

 

 

t =

x x

 

 

t1

 

a x

 

t2 =

b x

m

 

 

) m

 

 

=

)

m

 

)

 

 

 

 

 

 

 

 

Сделав замену переменной

σ

и введя обозначения

 

 

σ

,

 

 

 

σ

 

, перепишем

 

(1.1.20) как

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P(a < X < b) =

1

 

t2

 

 

 

2

 

 

 

 

 

 

 

 

t

exp t

 

dt

 

 

 

 

 

 

 

 

2π

 

2

 

.

 

 

 

(1.1.21)

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Отношение t = x σ)xm называется квантилью нормального распределения и обычно обозначается как uP . Квантиль имеет следующий смысл: она равна значению случайной величины, соответствующему заданной

вероятности P .

Интеграл (1.1.21) не выражается через элементарные функции, и его расчет проводится с помощью специальной функцииФ(x) ,

 

1

x

 

 

Ф(x) =

exp(t 2 / 2)dt

 

 

2π

0

,

(1.1.22)

 

 

которая называется функцией Лапласа (или интегралом вероятностей). Для вычисления функции Лапласа

имеются таблицы (например, табл. 1.1.1). Функция Лапласа Ф(x)

обладает следующими свойствами: 1)

Ф(0)

= 0 ; 2) Ф(x) = −Ф(x) (нечетная функция); 3) Ф(+∞) = 0,5 и, значит, Ф(−∞)

= −0,5 .

 

С учетом (1.1.22) вероятность (1.1.21) попадания случайной величины в промежуток от a до b

принимает вид

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P(a < X < b) =Ф(

b x

m

) Ф(

a x

m

)

 

 

 

 

 

)

 

 

)

 

 

 

 

 

 

σ

 

 

 

σ

.

(1.1.23)

 

Из (1.1.23) следует, что нахождение вероятности попадания нормально распределенной случайной

величины в некоторый интервал (a, b) сводится к выборке значений из таблицы функции Ф(x) .

 

Таблица 1.1.1: Значения функции Лапласа Ф(x)

 

 

 

 

 

 

 

 

 

 

 

х

Ф(x)

x

Ф(x)

x

 

 

 

Ф(x)

 

 

 

 

 

 

0,0

0,00000

1,1

0,36433

2,2

 

 

0,48610

 

 

 

 

 

0,1

0,03983

1,2

0,38493

2,3

 

 

0,48928

 

 

 

 

 

0,2

0,07926

1,3

0,40320

2,4

 

 

0,49180

 

 

 

 

 

0,3

0,11791

1,4

0,41924

2,5

 

 

0,49379

 

 

 

 

 

0,4

0,15542

1,5

0,43319

2,6

 

 

0,49534

 

 

 

 

 

0,5

0,19146

1,6

0,44520

2,7

 

 

0,49653

 

 

 

 

 

0,6

0,22575

1,7

0,45543

2,8

 

 

0,49744

 

 

 

 

 

0,7

0,25804

1,8

0,46407

2,9

 

 

0,49813

 

 

 

 

 

0,8

0,28814

1,9

0,47128

3,0

 

 

0,49865

 

 

 

 

 

0,9

0,31594

2,0

0,47725

3,5

 

 

0,49977

 

 

 

 

 

1,0

0,34134

2,1

0,48214

4,0

 

 

0,499968

 

 

 

 

 

 

 

 

5,0

 

 

0,499999

 

 

 

 

 

Если участок (a, b) симметричен относительно математического ожидания, то, используя понятие

квантили нормального распределения, координаты xmin

и xmax границ участка с заданной вероятностью

попадания в него случайной величины можно определить по формулам

x = x +u σ)

x = x +u σ)

 

(1.1.24)

min

m

P

,

max

m

1P .

На практике важно знать, какова величина границ (1.1.24). Расчеты вероятности

P(xmin < X < xmax )

попадания случайной величины X в различные интервалы из промежутка

(xmin , xmax ), выполненные по

 

формуле (1.1.23), приведены в таблице 1.1.2. Как следует из таблицы, случайная величина, описываемая законом

нормального распределения, с большой долей вероятности не выходит за пределы xm ± 3σ$ (правило трех сигма),

Соседние файлы в папке Основы проектирования машин