Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
shpory_po_vyshke.doc
Скачиваний:
0
Добавлен:
01.03.2025
Размер:
669.7 Кб
Скачать

14. Случайная величина(св).

СВ(x)-ф-ция x,отображающая пространство элементарных исходов во множество действительных чисел R.Сущ. 2 типа СВ: дискретные и непрерывные.СВ дискретная-если она принимает конечное либо счетное число значений.Закон распределения СВ-совокупность пар чисел вида ( , ),где -возможные значения СВ x.

-вероятности,с которыми СВ принимает эти значения. . .Простейшей формой задания дискретной СВ является таблица,в которой перечислены возмодные значения этой величины и соответствующей вероятности.Такая таблица называется рядом распределения дискретной СВ.Ряд распределения можно изобразить графически.В этом случае по оси ОХ откладывают значения ,а на OY- .Полученные точки с координатами ( , )соединяют отрезками и получают ломанную,наз. многоугольником распределения(полигон).

15. Функция распределения св и ее св-а

Ф-ция распределения-ф-ция F(x)действительной переменной x,определяющая вероятность того,что СВ x примет в результате эксперемента значения меньше х т.е.F(x)=P(X<x)=p(x) Если рассматривать х как случайную точку на оси Ох,то ф-ция распределения F(x)-это вероятность того,что СВ Х в результате эксперемента попадает левее х. F(x)= .Свойства Ф-ций распределения F(x):1.Все значения ф-ции находятся в отрезке [0,1]:0 F(x) 1 .2.F(x)-неубывающая ф-ция т.е. для любых и .Для любых : .4.Вероятность того,что СВ будет равна 1-F(x), P 1-F(x).

16. Дискретно распределенная св

СВ дискретная-если она принимает конечное либо счетное число значений.

17.Непрерывно распределенная св

Непрерывная СВ – это СВ, кот. может принимать все значения из некоторого промежутка. Для характеристики НСВ исп. функция распределения вероятностей, кот. представляет собой вероятность события Х<х: F(x) = P(X<x). Если вероятность события х будет больше, чем х1 (Х<х1), ровна F(x1), а вероятность события X<x2 ровна F(x2), то вероятность того, что Х заключена между значениями х1 и х2 ровна разности соответствующих значений фун-ции распределения, т. е. P(x1<X<x2) = F(x2) – F(x1). Плотностью распределения вероятностей НСВ наз. производноеот её фун-ции распределения (f(x)): f(x) = F’(x)

F(x) =

Свойства: 1) 2) (основное св-во); 3) 4)

Аналитическое выражение для фун-ций распределения вероятностей или плотности распределения носят название закона распределения. График плотности распределения наз. кривой распределения.Математ. ожиданием НСВ Х наз. значение интеграла:

Дисперсией НСВ называют значение

Ср. квадратическое отклонение

Мода Мо(х) – это такое значение, кот соответствует макс. значение её плотности вероятности. Медианой Ме(х) – такое её значение кот. соответствует ср. значение её плотности вероятности. Начальные и центральные моменты определяются по формулам:

18.Биномин. Закон распределения св

Законом распределения СВ наз. соотношение между значениями случайной величины и их вероятностями. Задача:Пусть проводится n-испытаний, в каждом из которых А имеет одну и ту же вероятность Р(А)=р. Если вероятность события А ровна р, то вер-ть противоположному ровно Р(А)=1-p=q. В условиях схемы Бернулли необходимо определить вероятность того, что при проведении n-независимых испытаний, что в m испытаний наступит событие А. Для этого используем формулу Бернулли:

Теорема: Матеем. ожидание числа появления события А в n-независимых испытаниях ровно произведению числа испытаний на вероятность появления события А в каждом из них: M(X)=np.

Теорема: дисперсия числа появления события А в n-независимых испытаниях ровна произведению числа испытаний на вероятности появлений события А: Д(Х)=npq.

Среднееквадратическоеотклонение:

Биноминальный закон распределения приходится применять, когда число независимых испытаний достаточно велико. Вычисление вероятности по схеме Бернулли значительно усложняется, поэтому имеет место ассимтотическое приближение. Возможны два случая:1) когда при увеличении число испытаний матем/ ожидание также неограниченно растёт, при этом биноминальное распределение сводится к нормальному; 2) когда при увеличении числа независимых испытаний матем/ ожидание остаётся постоянным; биноминальное распределение в этом случае сводится к распределению Пуассона.

19.Распределение Пуассона CB

СВ наз. распределённой по закону Пуассона с параметром , если эта случайная величина может принимать значение 0,1,2,..,n и их соответствующая вероятность определяется по формуле Пуассона.

Числовые характеристики данной случайной величины определяется по формуле М(Х)= Д(Х)=

20.Нормальный закон распределение СВ (распределение Гаусса)

Нормальным называют такую величину Х, плотность и вероятность, кот. описывается

фун-цей Гаусса:

где δ - среднее квадратическое отклонение, М(Х) – матем. ожидание. Эти две величины являются параметрами нормального распределения. Вероятность попадания случайной величины в отрезок [ ] вычисляется по формуле:

21. Мат. ожидание СВ и его св-а.

Мат.ожидание дискретной случайной вылечены- это сумма парных произведений всех возможных её значений на соответствующие вероятности:

М(Х)=

Где =1

Свойства мат.ожидания:

  1. Мат.ожидание постоянной величины С равно этой величине.

М(С)=С*1=С

  1. М(СХ)=С*М(Х)

  2. М(Х+У)=М(Х)+М(У)

  3. М(Х-У)=М(Х)-М(У)

  4. М(Х*У)=М(Х)*М(У)

22.Дисперсия СВ

Дисперсия случайных величины Х- называют чистло

Д(Х)=М((Х-М(х))^2)=М(х^2)-(М(х)^2

Свойства Д(х):

  1. Д(х)≥0

  2. Д(С)=0, где С- const

  3. Д(СХ)=С^2Д(х)

  4. Д(Х+У)=Д(Х)+Д(У)

23. Вероятность попадания нормально распределенной СВ в заданный интервал.

Во многих практических задачах требуется опередить вероятность попадания случайной величины в заданный интервал. Эта вероятность может быть выражена в виде разности функций распределения вероятности в граничных точках этого интервала:

В случае нормального распределения:

Следовательно, искомая вероятность может быть выражена через веденный ранее стандартный интеграл Лапласа:P(x1<X<x2)=Ф(t2)-Ф(t1)

Функция Лапласа не выражается через элементарные функции

, для её вычисления используют специальные таблицы или методы приближённого вычисления.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]