Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
шшпора.doc
Скачиваний:
3
Добавлен:
15.04.2019
Размер:
654.34 Кб
Скачать

29.Неравенство Чебышева.

Неравенство Чебышева, используемое для доказательства дальнейших теорем, справед-ливо как для непрерывных, так и для дискретных случайных величин. Докажем его для дискретных случайных величин.

неравенство Чебышева.

p( | XM(X)| < ε ) ≥ D(X) / ε². (13.1)

Доказательство. Пусть Х задается рядом распределения

Х

х1

х2

хп

р

р1

р2

рп

Так как события |XM(X)| < ε и |XM(X)| ≥ ε противоположны, то р ( |XM(X)| < ε ) + + р ( |XM(X)| ≥ ε ) = 1, следовательно, р ( |XM(X)| < ε ) = 1 - р ( |XM(X)| ≥ ε ). Найдем р ( |XM(X)| ≥ ε ).

D(X) = (x1M(X))²p1 + (x2M(X))²p2 + … + (xnM(X))²pn . Исключим из этой суммы те слагаемые, для которых |XM(X)| < ε. При этом сумма может только уменьшиться, так как все входящие в нее слагаемые неотрицательны. Для определенности будем считать, что отброшены первые k слагаемых. Тогда

D(X) ≥ (xk+1M(X))²pk+1 + (xk+2M(X))²pk+2 + … + (xnM(X))²pn ≥ ε² (pk+1 + pk+2 + … + pn).

Отметим, что pk+1 + pk+2 + … + pn есть вероятность того, что |XM(X)| ≥ ε, так как это сумма вероятностей всех возможных значений Х, для которых это неравенство справедливо. Следовательно, D(X) ≥ ε² р(|XM(X)| ≥ ε), или р (|XM(X)| ≥ ε) ≤ D(X) / ε². Тогда вероятность противоположного события p( | XM(X)| < ε ) ≥ D(X) / ε², что и требо-валось доказать.

18.Математическое ожидание функции одного случайного аргумента.

Пусть Y = φ(X) – функция случайного аргумента Х, и требуется найти ее математическое ожидание, зная закон распределения Х.

1)Если Х – дискретная случайная величина, то

(10.2)

2)Если Х – непрерывная случайная величина, то M(Y) можно искать по-разному. Если известна плотность распределения g(y), то

Если же g(y) найти сложно, то можно использовать известную плотность распределения f(x):

В частности, если все значения Х принадлежат промежутку (а, b), то

26.Корреляционным моментом системы двух случайных величин называется второй смешанный центральный момент: Kxy = μ1,1 = M((XM(X))(YM(Y))). Для дискретных случайных величин

для непрерывных случайных величин Безразмерной характеристикой коррелированности двух случайных величин является коэффи-циент корреляции . Корреляционный момент описывает связь между составляющими двумерной случайной вели-чины. Действительно, убедимся, что для независимых Х и Y Kxy = 0. В этом случае f(x,y) = =f1(x)f2(y), тогда Итак, две независимые случайные величины являются и некоррелированными. Однако понятия коррелированности и зависимости не эквивалентны, а именно, величины могут быть зависимы-ми, но при этом некоррелированными. Дело в том, что коэффициент корреляции характеризует не всякую зависимость, а только линейную. В частности, если Y = aX + b, то rxy = ±1. Найдем возможные значения коэффициента корреляции. Теорема 9.1. Доказательство. Докажем сначала, что Действительно, если рассмотреть случай-ную величину и найти ее дисперсию, то получим: . Так как дисперсия всегда неотрицательна, то откуда Отсюда что и требовалось доказать.

3.

4.

13. Теорема Пуассона

Если число испытаний n в схеме независимых испытаний Бернулли стремится к бесконечности и так, что , , то при любых

Это означает, что при больших n и малых p вместо громоздких вычислений по точной формуле можно воспользоваться приближенной формулой

, т.е. использовать формулу Пуассона для  = np.

2.Пространство элементарных исходов — множество исходов случайного эксперимента; обычно обозначается Ω, а его элементы — исходы случайного эксперимента — называются элементарными событиями; одно из основных понятий теории вероятностей. Для случайных экспериментов «бросание монеты» или «игральной кости» пространства элементарных событий имеют вид Ω1 = {ω12}, где ω1 — «выпадение герба», ω2 — «выпадение решётки»; Ω2 = {ω123456}где ωn — «выпадение n очков»

1. Теория вероятностей-раздел математики, изучающий в абстрактной форме реально существующие закономерностей случайных явлений. Возникла в 17 веке, в связи со след. прикладными задачами:

  • расчет вероятности в азартных играх,

  • задача теория стрельбы (сколько раз нужно выстрелить по цели, чтобы она была поражена с заданной вер-тью)

  • задача страхового дела (расчет страх. платежей, составление таблиц смертности)

  • задача демографии(во всех странах, рождаемость мальчиков 0,514)

  • задача теории ошибок наблюдения

Основоположники Ферма, Паскаль. Теория вероятностей развивалась в работах Лапласа, Вернули и др.(рус.-Чебышев, Марков, Ляпунов, Космогоров, Романовский и др.)Из теории вероятностей развилась мат статистика, теория игр, защиты инф-ии, массового обслуживания. Длительные наблюдения показали, что если в одинаковых условиях производят опыты, в каждом из которых число испытаний достаточно велико, то относительная частота обнаруживает свойство устойчивости. Это свойство состоит в том, что в различных опытах, относительная частота изменяется мало (тем меньше, чем больше произведено испытаний), колеблясь около некоторого постоянного числа. Оказалось, что это постоянное число есть вероятность появления события.Таким образом, если опытным путем установлена относительная частота, то полученное число можно принять за приближенное значение вероятности.

21. Случайные векторы

Пусть на одном и том же вероятностном пространстве ( F, P) задано n случайных величин , , …, . Совокупность случайных величин  называется многомерной (n-мерной) случайной величиной, или (n-мерным) случайным вектором.

Пример 2.2.1. Широта X и долгота Y падения метеорита на Землю представляют собой двумерный случайный вектор . В эту модель можно ввести также третью координату Z – время от начала наблюдений до момента падения первого метеорита на Землю. Тогда получится трехмерный случайный вектор .

Пример 2.2.2. Успеваемость студента, окончившего курс обучения в вузе, характеризуется системой n случайных величин  – оценками, проставленными в его дипломе.

22.

Если () — дискретный случайный вектор, то совместным распределением случайных величин  и  чаще всего называют таблицу вида

 

y1

y2

...

ym

x1

p11

p12

...

p1m

x2

p21

p22

...

p2m

...

...

...

pij

...

xn

pn1

pn2

...

pnm

где и .

По этой таблице можно найти распределение каждой из случайных величин  и  по формулам:

Случайные величины называются независимыми, если для любых справедливо .

Для того, чтобы  рij  были распределением

вероятностей дискретного случайного вектора

,

 необходимо и достаточно выполнение условий :

Д о к а з а т е л ь с т в о

  Докажем только необходимость. Для того, чтобы доказать достаточность нужно описать эксперимент, похожий на (15.2.2) .

  Условие 1) очевидно необходимо.

  Покажем, что события

Hij = {X1 = x1i}{X2 = x2j}     (20.1.1)

образуют полную систему событий.

События Ai = {X1 = x1i} , i = 1…n , образуют полную систему и события

Bi = {X2 = x2j} , j = 1…m образуют полную систему. Имеем Hij = AiBj

Покажем, что они несовместны.

Пусть , т.е. хотя бы 1 из индексов не совпадает, например,

Покажем, что их сумма - достоверное событие :

Отсюда следует, что

Что и требовалось доказать.

19. Если случайная величина постоянна, то есть, для некоторой константы  имеет место , то

  1. для любого .

  2. Если существуют, то

  1. Если и существуют и для всех , то

В частности, если    , то математическое ожидание неотрицательно при условии, что оно существует.

Доказательство.

Свойства 1) и 2) очевидны. Докажем 3).

 

 

 

 

 

Докажем 4). Так как при каждом имеет место , то

что влечет .

14 Если поток событий стационарен, ординарен и без последействий, то такой поток называется простейшим (пуассоновским) потоком.

Это название связано с тем, что в этом случае число событий, попадающих на любой фиксированный интервал времени, распределено по распределению Пуассона .

В соответствии с этим законом распределения математическое ожидание числа точек, попавших попадающих на участок времени t, имеет вид:

l - плотность потока – среднее число событий в единицу времени.

Вероятность того, что за время t произойдет ровно т событий, равна

Вероятность того, что в течение данного времени не произойдет ни одного события, равна:

Пусть Т – промежуток времени между двумя произвольными соседними событиями в простейшем потоке. Найдем функцию распределения

В соответствии с законом распределения Пуассона, получаем:

Математическое ожидание, дисперсия и среднее квадратическое отклонение этой величины соответственно равны:

Таким образом, для величины Т получили показательный закон распределения

24.Пусть - случайный вектор. Тогда по определению

,

то есть математическое ожидание вектора определяется покомпонентно.

Ковариацио́нная ма́трица (или ма́трица ковариа́ций) в теории вероятностей — это матрица, составленная из попарных ковариаций элементов двух случайных векторов.

Пусть  — два случайных вектора размерности n и m соответственно. Пусть также случайные величины имеют конечный второй момент, то есть . Тогда матрицей ковариации векторов называется

то есть

Σ = (σij),где

.

  • Если , то Σ называется матрицей ковариации вектора и обозначается . Такая матрица ковариации является обобщением дисперсии для многомерной случайной величины, а ее след — скалярным выражением дисперсии многомерной случайной величины. Собственные векторы и собственные числа этой матрицы позволяют оценить размеры и форму облака распределения такой случайной величины, аппроксимировав его эллипсоидом (или эллипсом в двумерном случае).

23. Если случайный вектор является непрерывным, то его характеристическая функция (63.1) определяется через его плотность :

. (63.2)

Это соотношение является - мерным преобразованием Фурье от функции . Поэтому плотность можно выразить через характеристическую функцию в виде обратного преобразования Фурье по отношению к (63.2):

. (63.3)

 

63.2 Несложно доказать следующие свойства характеристической функции.

1. .

2. .

25.Ковариа́ция — это мера линейной зависимости случайных величин.Св-ва: Ковариация симметрична:

.

В силу линейности математического ожидания, ковариация может быть записана как

.

Пусть случайные величины, а их две произвольные линейные комбинации. Тогда

.

В частности ковариация (в отличие от коэффициента корреляции) не инварианта относительно смены масштаба, что не всегда удобно в приложениях.

Ковариация случайной величины с собой равна дисперсии:

.

Если независимые случайные величины, то

.

Обратное, вообще говоря, неверно.

Неравенство Коши — Буняковского:

27. Определение 5. Пусть дано семейство случайных величин , так что . Тогда эти случайные величины попарно независимы, если попарно независимы порождённые ими сигма-алгебры . Случайные величины независимы в совокупности, если таковы порождённые ими сигма-алгебры.

Определение, данное выше, эквивалентно любому другому из нижеперечисленных. Две случайные величины независимы тогда и только тогда, когда:

Для любых :

Для любых борелевских функций случайные величины независимы.

Для любых ограниченных борелевских функций :

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]