Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
шпора ТВМС.doc
Скачиваний:
2
Добавлен:
23.04.2019
Размер:
958.98 Кб
Скачать

I.Элементы комбинаторики: схема выбора без возвращения, примеры

Выборки упорядочены.

В урне М различных пронумерованных шаров.

Условие: из урны один за другим извлекаются без возвращения в урну n шаров. В этом случае (n M).

Выборка w = (а1, а2,…, аn), где любое ai — номер шара, вынутого на i-м шаге.

Причем если одни и те же шары появляются в другом порядке, то выборки считаем различными.

n = 2

(1,2)

(2,1)

Это две разные выборки.

Число таких исходов: АnM = M!/(Mn)! = N(Ω)

Выборки не упорядочены.

Если одни и те же шары появляются в другом порядке, то выборки считаются одинаковыми.

n = 3; (1,2,3) и (2,1,3) одинаковы

Число таких исходов: CnM = АnM/n!

Пример1.

На карточках написаны числа от 1 до 100. Вынем без возвращения 2 карточки. Сколько существует способов сделать так, чтобы на обеих карточках было < 10?

Решение.

Сколько существует способов выбрать из карточек с номером от 1 до 9 две карты? Схемы выбора без возвращения (выборка не упорядочена)

С29 = 36.

Пример2.

Сколько существует способов поставить n человек в ряд так, чтобы м/ду А и В стояло r человек? (расстановки упорядочены)

Решение.

n = n - 2

упорядочим А и В: 2!=2

упорядочим остальные (n - 2) человек: (n - 2)!

Посчитаем число, где А впереди В:

А - 1, В - r + 2

А - 2, В - r + 3 => (n - r -1) способ

А - n - r -1, Вn

Ответ: 2(n - 2)!( n - r -1) способов.

Пример3.

Сколько наборов из к цифр

  • не содержат нулей?

  • не содержат 1?

  • не сод. ни 0, ни 1?

  • не сод. хотя бы одну из цифр1 или 0?

Решение.

Используем схему упорядоченных выборок без возвращения.

  • 9к

  • 9

  • к

  • 8к

  • 9к + 9к - 8к = 2*9к - 8к

II.Элементы комбинаторики: схема выбора c возвращением, примеры.

Выборки упорядочены.

Извлекаем n шаров с возвращением, т.е. извлекаем один шар, записываем его номер и кладем в урну. Так повторяем m раз подряд. w = (а1, а2,…, аm), где любое ai — номер шара, вынутого на i-м шаге. Если одни и те же шары появляются в другом порядке, то выборки считаются разными.

n = 3; (1,2,3) и (2,1,3) различны.

Число таких исходов: Mn.

Выборки не упорядочены.

То же самое, но только n = 3; (1,2,3) и (2,1,3) равные.

Число таких исходов: CnM+n -1.

Задача

По М занумерованным ячейкам распределим n дробинок. В любую ячейку может попасть любое количество дробинок от 0 до n.

Будем считать, что разм. совпадает тогда и только тогда, когда в ячейке с одинаковыми номерами находится одинаковое число дробинок.

Сколько существует разл. Способов размещения дробинок по ячейкам?

Решение

Обозначим хiчисло дробинок в j-й ячейке. Тогда искомое число способов = числу решения ур-я х1+ х2 + …+ хm = n. Найдем число решений путем: * — дробинка; || — ячейки.

| * * * | * | | | | * * * * |

M = 6 ячеек.

n = 8 — дробинки

(3,1,0,0,0,4)

Схема выбора без возвращения (выборки не упорядочены)

M + n + 1 – 2 = M + n -1

Выберем n позиций для дробинок:

СnM + n – 1

(доказательство: Извлечем шар. Пусть его № = к. Это событие означает, что дробинка попала в к-ю ячейку. Число дробинок = n это объем выборки. Число ячеек — М. Число элементарных исходов = СnM + n – 1 = N(Ω), т.е. число элементарных исходов = числу сочетаний.)

III. Классическая вероятность: элементарный исход, события, конечная схема, определения, примеры. Вероятность и частота.

Определение вероятности

Пусть некоторый эксперимент имеет N элементарных исходов. Будем считать, что исходы не совместны, т.е. в результате конкретного эксперимента происходит только 1 элемент. исход. Элемент. исходы равновозможны. Тогда припишем каждому элементарному исходу число 1/N. Любое подмножество множества Ω = {w1,…wN}. Всякое элементарное событие содержится в некотором событии А назовем благоприятным событию А.

Определение

Пусть m — число элементарных исходов, благоприятных событию А. Тогда классич. вероятность события А = m/N. Обозначается как Р(А) = m/N.

Пример1

Игральная кость. Найти вероятность того, что выпадет 5 или 6.

Событие А = {5 или 6}

N = 6

Р(А) = 1/3 (2 из 6-ти возможных).

Относительная частота события А определяется равенством W(A) = m/n, где m — число испытаний, в которых событие А наступило, а n — общее число произведенных испытаний.

Задача1

Чему равна вероятность того, что 2 бросания 3-х игральных костей дадут один и тот же результат (кости различимы: одна белая, др. красная, 3-я синяя)

Решение

Под результатом будем понимать набор из 3-з чисел w = (i, j, k). iочки Б; jочки К; kочки С. Если одни и те же числа выпали на разных костях, считаем эти результаты разными. (схема III)

N(Ω) = 63.

Ω = { i, j, k| 1 ≤ i, j, k6}

Событие А — результаты подбрасывания совпали. Вероятность повторения результата = вер-ти его получения => Р(А) = 1/63=1/216.

Задача2

Чему = вер-ть того, что при бросании получится 1 и тот же результат, если кости не различимы.

Решение

Элементарный исход: w = (х1, х2, …, х6), где хj — нат. Число, показ. сколько раз выпала цифра 6. Сумма всех частей = количеству бросаемых костей, т.е. = 3.

х1+ х2 + …+ х6 = 3. Пространство элементарных событий: Ω = { w = (х1, х2, …, х6)}.

Вероятность и частота.

Статистический подход.

Проводим эксперимент n раз и фиксируем, произошло или нет в рез-те событие А. Пусть оно произошло k раз, тогда k/n – частота события А (для больших n близко к постоянной величине). Если отклонение k/n от этой постоянной величины с ростом n уменьшается,- устойчивость частот. Впервые это заметили, изучая демографические вопросы: % смертности в опред. возрасте для опред-х групп населения. Были попытки построить теорию, принимая за вероятность частоту события, но возникли сложности.

4. Геометрическая вероятность.

Постановка задачи: пусть G – огранич. плоская область с конечной площадью. В эт. области содержится обл. g облад-щая те-ми же св-ми. В обл. G наугад бросается точка, она может попасть в любое место обл-ти G (рис.1). Вер-ть точки попасть в g пропорциональна отношению площадей G и g и не зависит от ее формы и расположения. Т.о. вер-ть попадан. в обл. g точки, брош. в обл. G наудачу, =, по опред.: Р=S(g)/S(G), S(g) и S(G) – площ. g и G в общем виде S(g) и S(G) – меры множеств g и G.

Задача о встрече: Два лица А и В условились встретиться м/у 12 и часом дня. Пришедший первым ждёт 20 минут и уходит. Какова вероятность встречи, если приход каждого в течен. часа мож. произойти наудачу и моменты прихода А и В независимы. Решение: обозначим момент прихода А через х, а Ву. Изобразим х и у как декарт. коорд-ты, единиц. масшт. – 1 мин. (рис.2). Всевозможн. исходы можн. изобразить ввиде пар (х, у) – т. квадрата со стороной 60. Встр. состоится, если x – y ≤20 (заштрих. обл.). Область G =60 2, g = 60 2 - 2*0,5*(40*40) = 602- 402, p = (602- 402) / 602= 5 / 9.

Парадокс Жозефа Бертрана: Наудачу берём хорду в круге. Чему равна вероятность того, что её длина больше длины стороны правильного треугольника, вписанного в окружность? Решение 1: По соображен. симметрии зададим направление всем хордам, проведём диаметр, эт. направлен. Впишем в круг 2 прав-ых треуг-ка: OD =OC = R / 2 (радиус) (рис.3). Те хор-ды, кот. ∩ диаметр АВ в т-ах отр-ка CD, имеют длину > сторон прав-го ∆. Поэт. вер-ть события, кот. мы ищем: Р=CD/ AB=1/2.

Решение 2: (рис.4) Условию задачи благоприятствуют лишь те хорды, концы которых попадают на дугу AB: Р=(дл. дуги AB)/ (дл. окр-ти) =1/3. Решение 3: Чтобы определить положение хорды, достаточно задать её середину. Бросаем т. (А) на пл-ть окр-ти, соединяя ее с центром круга и провод. хорду ч/з эт. точку, получен-му отр-ку (рис.5). Хорда длиннее стороны прав-го ∆, если т. A попадёт в круг радиусом R / 2: Р =(площ. круга R / 2) / (площ. круга R) =1/2. Причина парадокса: понятие «хорда выбир-ся наудачу в некот-ом круге» опред-ся неоднозначно. За реш. задачи принимается реш. 3-ех разн. задач.

Задача Бюффона (использ-ся для эксперим-го вычислен. числа ): Пл-ть разграничена ║-ми линиями, отстоящими др. от друга на расстоян. 2a. На пл-ть науд. брос-ся игла длиной 2l (l<a) (рис.6). Найти вер-ть того, что игла пересечёт какую - л. прямую. Решение: Пусть xрасстоян. от центра иглы до ближайшей параллели, а угол м/у иглой и параллелью. Наудачу, значит: 1) Центр иглы попадает на отр-ок длинной 2a и параллелям. 2) Угол φ попадает на отрезок [φ1, φ1φ], с вер-ью пропорц-ой Δφ и назавис. от φ1. 3) x и φ не зависят др. от др. Можно смоделир-ть бросан. иглы на пл-ть: игл. брос. в прямоуг-к (S) шир-ой  и выс-ой а (рис.7). Для того, чтоб. игла ∩ прямую необх. и достат., чтоб. т-ка попала в обл. хl sinφ (s). P(игла∩прям.) = (площадь s)/(площадь S) = 2l / aπ. (Пл. s = 0π l sinφ dφ; пл. S = aπ)

5 Аксиоматика Колмогорова

Множество исходов некоторых экспериментов (исход эксперимента — событие элементарное) — обозначается ω

Множество всех исходных экспериментов — пространство элементарных событий — Ω

Подмножества — события

События:

  1. Достоверное – событие происходит всегда при воспроизведении условий эксперимента.

  2. Невозможное – событие никогда не происходит.

  3. Случайные – события могут произойти или нет.

События: А=В - равносильные; А и Ā – противоположные.

События: Совместные и Несовместные (если их произведение – пустое множество АВ=Ø)

Если А=В12+…+Вn, и события Вk не совместные. Т.е. ВiВj=Ø (i≠j), тогда событие А подразделяется на частные случаи В1, В2, … Вn или А можно разложить в сумму несовместных событий.

События В1, В2, … Вn образуют полную группу, если хотя бы одно из них должно произойти при каждом осуществлении комплекса условий эксперимента В12+…+Вn=Ω

Система событий А называется полем событий, если

  1. Ω, Ø Є А

  2. А Є А, В Є А (А+В Є А, АВ Є А, А/В Є А)

Опр1. Назовём систему событий А множеств пространства Ω алгеброй множеств, если

  1. Ω, Ø Є А

  2. А, Ā Є А

  3. А Є А, В Є А (А+В Є А, АВ Є А)

Опр2. Алгебра множеств А называется σ-алгеброй, если Аn Є А, n=1,2,… ΣАn Є А, ΠАn Є А

Опр2. Тройку символов (Ω,А,Р), где: Ω—пространство элементарных событий, А— σ-алгебра множеств, Р—вероятность А, удовлетворяющая аксиомам:

А1. для любого А Є А Р(А)≥0 (аксиома неотрицательности)

А2. Р(Ω)=1 (аксиома нормированности)

А3. АВ= Ø => Р(А+В)=Р(А)+Р(В) (аксиома аддитивности)

А4. А1 כ А2 כ… , ∩Аn = Ø => Р(∩Аn)=0 (аксиома непрерывности)

Тогда тройка этих символов называется вероятностным пространством.

Здесь нужно дописать

6 Основные теоремы о вероятностях

Опр. Пусть Р(В)>0. Условной вер-ью события А при условии, что соб. В произошло, наз-ся отношение, обознач-ое Р(А\В)=Р(АВ)/Р(В). Р(АВ) = Р(А\В)•Р(В) – простейш. вариант теоремы умножения вер-тей (верн. и для Р(В) = 0).

Теор. (умножения вер-ей) При n  2 верно следующее: Р(А1А2А n) = Р(А1)•Р(А 2\ А 1)•Р(А 3\ А 1 А 2) •…•Р(А n\А1А2А n-1). Док по индукции: теор. верна для n = 2 и 3, пусть верна и для n = N  3. Докажем, что теор. будет верна для n = N +1. По опред. Р(А1А2А n А n+1) = Р(А1А2А n)•Р(А n+1\ А1А2А n)= Р(А1)•Р(А21)… Р(А n\ А1А2А n-1)•Р(А n+1\ А1А2А n)

Теор. (сложения вер-ей) Для произвольных соб. А и В верно Р(А+В) = Р(А) + Р(В) – Р(АВ). Док: Заметим, что верны след. рав-ва: А + В = А + (В \ АВ) [или  U(+)] , А•(В \ АВ) = Ø [или  ∩(•)]. В силу аксиомы аддитивности вер-ти [ Р(А+В) = Р(А)+Р(В), если АВ = Ø ] верно Р(А+В) = Р(А+ (В\АВ)) = Р(А) + Р(В\АВ). Т.к.Р(В\АВ) = Р(В) – Р(АВ), то Р(А+В) = Р(А) + Р(В) – Р(АВ)

7 Формулы полной вероятности и Байеса, примеры. Понятие распределения вероятностей.

Т. Формула полной вероятности

Пусть событие А1, А2…Аn попарно несовместны и А1, А2…Аn = Ω

AiAj = Ǿ, если i ≠j

Тогда для любого события В, которое происходит с одним и только одним событием

Ai из { А1, А2…Аn } верна формула P(B) = к=1nР(Аk)* Р(В/Аk) (суммируем по к = 1..n)

Д-во:

По условию событие В=A*Ω = В(А12…+Аn) =к=1n P(ВАk)

BAi*Baj = Ǿ, i ≠j

P(B)= к=1n P(ВАk)= к=1n P(Ak)* P(В/Аk), по

простейшему варианту теоремы умножения (P(AB)=P(A)*P(B/A))

чтд.

Пример.

В урне М белых шаров и (N-M) — черных по схеме выбора без возвращения последовательно извлекаются 2 шара,

Найти вероятность того, что 2-й шар будет белым:

Решение:

Опред. события А1, А2, В

А1 ={1-й шар — белый}

А2 ={1-й шар — черный}

В={2-й шар — белый}

Тогда по формуле полной вероятности:

P(B) = P(A1)*P(B/A1)+P(A2)*P(B/A2)=M/N * M-1/N-1 + N-M/N * M/N-1 = M/N

Формула Байеса.

Пусть события А1, А2…Аn попарно несовместны,

А1 + А2…+Аn=Ω, Р(В)>0

Тогда:

P(Ak│B)=(P(Ak)P(B│Ak))/P(B)=(P(Ak)P(B│Ak))/( к=1n P(Ak) P(B│Ak)), (k=1,…n)

Д-во:

По теореме умножения вероятностей:

P(B Ak) = P(B) P(Ak│B) = P(Ak) P(B│Ak).

Поэтому P(Ak│B)= (P(Ak) P(B│Ak))/P(B).

Но по формуле полной вероятности:

P(B)= к=1n P(Ak) P(B│Ak).

чтд.

Формулу Байеса можно интерпретировать следующим образом. Назовем события Аk гипотезами. Пусть событие В — результат некоторого эксперимента. Вероятности Р(Аk)— это априорные вероятности гипотез, вычисляемые до постановки опыта, а условные вероятности P(Ak│В) — это апостериорные вероятности гипотез, вычисляемые после того, как стал известен результат опыта В.

Пример.

Имеем 2 урны по N шаров в каждой. В 1-й — M1 белых шаров, а во второй М2 — белых шаров. Эксперимент состоит: сначала, с вероятностью ½ выбирается 1-я или 2-я урна, а затем из неё случайно извлекается (с возвращением) n шаров. Пусть событие В состоит в том, что вынутые шары — белые

Имеем 2 гипотезы:

  1. А1={выбрана 1-я урна}

  2. А2={выбрана 2-я урна}

По условию априорного распределения вероятностей:

P(A1)=P(A2)= 1/2

Далее, легко находим вероятности Р(В│Аk) = (Mk/N)n/

Формула Байеса дает апостериорные вероятности:

Р(Аk│В) = (1/2 (Mk/N)n)/(1/2 (M1/N)n + ½ (M2/N)n)=Mkn/(M1n+ M2n), k=1,2.

Если М1<M2, то при n→ P(A2│B)=1/(1+(M1/M2)n)→1, т.к. М1/M2<1

Понятие распределения вероятностей. —?

8 Понятие независимых событий. Схема независимых испытаний Бернулли, формула Бернулли, доказательство её корректности, примеры.

Опр. События А и В называются независимыми, если Р(АВ) = Р(А) Р(В). Если Р(АВ) ≠ Р(А) Р(В), события А и В называются зависимыми.

Если Р(В)=0, то событие В является независимым по отношению к любому событию А.

Пример.

Из колоды в 52 карты (13 карт каждой масти) случайно вынимается карта. Рассмотрим события А= вынут туз, В= вынута карта бубновой масти. Тогда событие АВ означает, что вынут бубновый туз.

Т.к. справедливо равенство Р(АВ)= Р(А)Р(В), события А и В независимы.

Опр. События А1, А2…Аn независимы в совокупности, если для любого набора 1≤i1<i2<…<im, 2≤m≤n справедливо равенство

Р(Ai1,Аi2…Аim)=P(Ai1) P(Ai2)…P(Aim).

Схема Бернулли.

Повторные независимые испытания называются испытаниями Бернулли, если каждое испытание имеет только 2 возможных исхода, и вероятности исходов остаются неизменными для всех испытаний. Пусть один исход испытания называется успех (У), а другой — неудача (Н), вероятность успеха равна p, а вероятность неудачи равна q, q=1-p. Пусть испытание проводится n раз. Тогда вероятностное пространство имеет вид

Ω={ω=(x1,…xn), xk=У,Н, k=1,…n}.

Независимость испытаний означает, что Р(x1,…xn)=Р(x1)…Р(xn), где Р(xk)=p, если xk=У, Р(xk)=q, если xk=Н.

Часто нас интересует не порядок появления успехов вn независимых испытаниях Бернулли, а их общее число. Число успехов может быть равно 0,1,2,…n и задача состоит в том, чтобы найти вероятность события, состоящего в том, что в серии из nнезависимых испытаний Бернулли произошло k успехов.

Пусть Sn — число успехов из серии независимых испытаний Бернулли.

Т. При любом k = 0,1,…n справедливо равенство

P(Sn=k)=Cnkpkqn-k

Д-во:

В вероятностное пространство входят элементарные события вида:

ω=(Н…НУН…НУН…НУН…Н).

Сколько таких элементарных событий? Столько, сколькими способами можно выбрать из n номеров k номеров (без учета порядков), т.е. Cnk. Вероятность каждого такого события равна pkqn-k, т.к. испытания — независимы.

чтд.

Замечание:

Теорема показывает, что вероятность в схеме Бернулли распределена корректно.

В самом деле, справедливо равенство:

k=0n Cnk pk qn-k =(p+q)n=1

Пример:

Пусть рождение мальчика и рождение девочки равновероятны. Какую долю семей с шестью детьми будут составлять семьи с 3 мальчиками и 3 девочками.

Решение:

Решаем задачу по схеме Бернулли. Пусть рождение девочки — успех, тогда p=q=1/2

Проводится 6 независимых испытаний. Тогда

P(S6=3)=C632-6=5/16

9 Случайные величины: определение, функция распределения случайной величины и её свойства, независимые случайные величины, определение основных числовых характеристик случайной величины (дискретный и непрерывный случаи), примеры.

Введем центральное в теории вероятности понятие случайной величины.

Опр. Пусть (Ω, А, Р) — вероятностное пространство. Случайной величиной X называется числовая функция, определенная на Ω и такая, что определена вероятность F(x)=P{X<x}=P{ω│P(ω)<x}. F(x) называется функцией распределения случайной величины X.

Замечание:

Если вероятностное пространство Ω конечно, то любая числовая функция, заданная на Ω, является случайной величиной.

Свойства функции распределения:

  1. При x1<x2 P{x1≤X<x2}=F(x2)-F(x1)

  2. F(x)(не обязательно строго).

  3. limx→-∞F(x)=0, limx→∞F(x)=1

  4. F(x) непрерывна слева(т.е. limxx0 - 0F(x)=F(x0)).

Свойство 1 простое следствие из аксиом вероятностного пространства. Свойство 2 сразу следует из 1. Свойство 3 следует из аксиомы счетной аддитивности.

Опр. Случайные величины X и Y называются независимыми, если P{X<x, Y<y}= P{X<x}P{Y<y} (другими словами, события {X<x} и {Y<y} независимы)

Пространство элементарных событий дискретно, когда оно либо конечно, либо счетно.

Закон распределения дискретной случайной величины задается в виде таблицы ряда распределений

Пример:

Рассмотрим схему n независимых испытаний Бернулли. Определим случайные величины

Xi =1, если в i-м испытании успех, 0, если неудача.

Пусть Sn = X1+X2+…+Xn. Тогда случайная величина Sn — число успехов в серии n независимых испытаний Бернулли.

Опр. Математическим ожиданием дискретной случайной величины X называется сумма

MX=∑xi P{X=xi}, где суммирование ведется по всем значениям xi случайной величины X.

Опр. Дисперсия (рассеяние) случайной величины X — DX=M(X-MX)2, где X-MX отклонение случайной величины от мат. ожидания.

Опр. Cov(X,Y)=M((X-MX)(M-MY)) — ковариация случайных величин X и Y, заданных на одном и том же пространстве элементарных событий.

Опр. Пусть на одном и том же вероятностном пространстве заданы случайные величины X и Y. Коэффициентом корреляции X и Y называется число ρ(X,Y)=(Cov(X,Y))/√DX DY

Непрерывные случайные величины

Опр. Пусть существует неотрицательная функция p(x),удовлетворяющая при любых х равенству

F(x)=P{X<x}-∞x p(t) dt

Случайные величины, обладающие этим свойством, называются непрерывными. Функция p(x) называется плотностью распределения вероятностей случайной величины X, а F(x) — её

функция распределения

Опр. Мат. ожид. случ. непрер. величины X называется интеграл -∞ xp(x) dx, где p(x) – плотность распределения вероятности сл. велич. X.

Опр. Дисперсией непр. сл. велич. X называется интеграл -∞ (x-MX)2 p(x) dx, где p(x) – плотность распределения вероятности сл. велич. X.

Опр. Плотностью совместного распределения 2-х случайных величин X и Y, заданных на одном и том же пр-ве элементарных соб., называется такая неотрицательная функция 2-х переменных p(u,v), что для любых x и y справедливо равенство:

P{X<x,Y<y}-∞x-∞y p(u,v) du dv.

Опр. Ковариацией 2-х непрерывных случайных величин X и Y называется мат. ожидание случайной величины (X-MX) (Y-MY), которое выражается в виде интеграла:

Соv (X,Y)=-∞ -∞ (x-MX)(y-MY)p(x,y) dxdy

Опр. Коэффиц. корреляции 2-х непрерывн. сл. велич. X и Y называется число

ρ(X,Y)=(Cov(X,Y))/√DX DY

10. Свойства мат. ожидания и дисперсии сл. вел-ны, плотность вероятности и ее св-ва.

МХ: 1о. М(Х+Y)=МХ+MY(аддитивность). Док: = , = . Построим Σ мат-их ожиданий MX+MY= =М(Х+Y) 2о. М(Х1+Х2+…+Хn)=МХ1+ МХ2+…+ МХn.(док. из 1о). 3о. Если с = const, то Мс=с. 4о. Если случ-ые вел-ны Х и Y независимы, то М(ХY)=MX+MY. Док: Т.к. Х и Y незав-мы, то P(xi, yj)= P(xi) P(yj). Тогда М(ХY)= = =MХ·MY 5о. |М(ХY)| (нерав-во Коши-Буняковского). Док:  а справ-во нер-во 0  М (аХ+Y)2=a2·MX2+ 2a·MX·MY+MY2 – квадратичн. трехчлен). Дискрим. долж. быть  0. D/4=(M(XY))2 - MX2·MY2  0  |М(ХY)| Св-ва MX и DX непрер-ых сл. вел-н и дискретн. сл. вел. соответ-но совпадают.

DX: 1о. DX  0. Док: P(X)  0, MX2  0  DX  0. 2о. Dс = 0, с = const. Док: Мс = с, Р(с) =1 Dс=M(CMс)2 =M(0)=0·1=0 3о. Пост-ый множитель можно выносить за знак дисперс., при этом возводя его в квадр. D(сX) =с2DX. Док: По опред D(сX) =M(сXM(сX))2= M(сXс·MX)2=M [с2·(XMX)2]=с2·M(XMX)2 =с2·DX 4о. DX =M(X2)–(MX)2. Дисп. случ. вел-ны Х= разности мат. ожид-ия квадрата сл. вел-ны Х и квадрата мат. ожид-ия сл. вел-ны Х. Док: DX =M(XMX)2= M(X2–2X·MX+(MX)2)=M(X2)–2M(XMX)+(MX)2=M(X2)–2MXMX+(MX)2=M(X)2–(MX)2

Опр. Пусть  неотриц-ая ф-ия р(Х) удовлетв-щая при люб. х рав-ву F(X)=P{X<x}= Сл. вел-ны, облад-щие этими св-ми наз-ся непреравн. Ф-ия р(Х) – плотность распр-ия вероят-ей сл. вел-ны Х, ф-ия F(X) – ф-ия распр. Случай, когд. F(X) диффер-ма: Св-ва плотн-ти: 1о. р(Х)  0. 2о. При х1<х2, то Р{ х1<X<х2}= 3о. =1(нормировочное св-во). График ф-ии плот-ти р(Х) наз-ют кривой распр. Площадь под крив. распр. =1.

Опр. Плот-тью совместного распр. двух непрер. сл. вел-н Х и Y, заданных на одном и томже вероят-ном простр-ве элемент-ых событий, наз-ся такая неотриц-ая ф-ия от двух переменных р(u, v), что  u, v верно рав-во Р{X<х, Y<y}=

11. Ковариация двух сл. Вел-н, ее св-ва, коэффициент корреляции двух сл. Вел-н и его св-ва.

Опр. Ковариацией двух сл. вел-н. Х и Y, заданных на одном и томже вероятн-ом простр-ве, наз-ся мат. ожидание произведения отклонений сл-ых вел-н Х и Y от их мат. ожиданий. Сov(X,Y)=M[(XMX)(YMY)]. Она показ-ет зависят ли вел-ны Х и Y друг от др. или нет.

Теор. Если Х и Y независ-ые сл. вел-ны, то Сov(X,Y)=0. Док: По опред. Сov(X,Y)=M[(XMX)(YMY)]. Раскроем скобки, тогда Сov(X,Y)=M [(X·Y (MY=const)–Y·(MX=const)+ (MX·MY=const))=M(XY)–MY·MX–MX·MY+MX·MY=MX·MY–MY·MX=0, т.к. MC=C и если Х и Y независимы, то M(XY)=MX·MY и M(XY)–MX·MY=0

Теор. Если сл. вел-ны Х1 и Х2 попарно независимы, то D(Х1+Х2)=D(Х1)+D(Х2) и D(Х1Х2)=D(Х1)+D(Х2). Док: D(Х1+Х2)= M[(Х1+Х2M(Х1+Х2))2] = M[ ((Х1 MХ1)+(Х2MХ2))2]= M[ (Х1 MХ1)2+2(Х1 MХ1)·(Х2MХ2)+(Х2MХ2)2]= M[ (Х1 MХ1)2]+2M[(Х1 MХ1)·(Х2MХ2)]+M[(Х2MХ2)2]= DX1+ (2 Сov(X1, X2)=0)+ DX2= DX1+ DX2 В ходе док-ва получили следующ. св-во D(Х1Х2)= D(Х1)+ D(Х2)  2 Сov(X1, X2) для всех сл. вел-н Х1 и Х2.

Опр. Пусть на одном и томже вероят-ом простр-ве заданы сл. вел-ны X и Y. Коэффиц-ом корреляц. X и Y наз-ся число – отношение ковариации к произведен. среднеквадрат-ых отклонений этих вел-н (X,Y)=Cov(X,Y)/

Замеч.1. Коэф-т коррел-ии по модулю всегда <1, т.е. |(X,Y)| 1. Док: 2(X,Y)+ 2–2(X,Y) = 2(1– (X,Y))  0, 1– (X,Y)  0, (X,Y) 1 Замеч.2. Если сл. вел-ны Х и Y независимы, то коэф-т коррел. (X,Y)=0. Док: Сov(X,Y)=0 (если сл. вел-ны Х и Y независ.) (X,Y)=0 Замеч.3. Если коэф-т коррел. вел-н Х и Y (X,Y)=  1, то  числа а и b такие, что сл-ая вел-на y = ax + b. Док: 1) Если DX=0 или DY=0, то Х или Y– const, y = ax + b выполняется: х =с1, y =c2: y =(c2/с1)·с1+ 0 =(c2/с1)·с1. 2) DX0, DY0. Воспользуемся тем, что M(X 2) 0. Рассмотрим сл. вел-ны Х ’= , Y ’= ; DХ ’= DX / DX=1, DY ’=1. Пусть (X,Y)=1, D(Х’–Y’)=DХ’+DY ’–2 Cov(X’,Y)=1+1–2 Cov(X’,Y’), где X’ и Y’ независ-ые сл. вел-ны = 2 – =2– = 2– 2 – 2[r(X,Y)=1]=0. Значит D(Х ’–Y ’)=0, Х ’=Y ’=const. = const Þ y = ax + b. Замеч.4. Из рав-ва (X,Y)=0 не следует, что вел-ны Х и Y независимы. Замеч.5. Если Сov(X,Y)=0, то из этого не след., что Х и Y независ. Опр. Ковариацией двух непрерывн. сл. вел-н Х и Y назыв-ся мат. ожид. сл-ой вел-ны (XMX)(YMY), где (XMX) – отклонение сл. вел-ны Х от соего мат. ожид. (центрирование сл-ой вел-ны.), которое выражается в интег-рале Сov(X,Y)= Опр. Коэффиц-ом корреляц. двух непрерывн. сл. вел-н X и Y наз-ся число (X,Y)= Cov(X,Y)/

12. Биноминальное распределен., вычисление мат. Ожид. И дисперсии бином-ой сл. Вел-ны.

Опр. Пусть вероятность Р{Х=k} = , где 0 р 1, q =1–p, k= 0, 1, 2,…, n. Тогда говор., что сл. вел-на X имеет биноминальн. распр. Бином. распр. имеет сл. вел. Sn – числ. успех. в серии из n назавис. испыт. Бернулли. , .

Вычисл. МХ: Sn = X1+X2+…+Xn, MSn = MX1+MX2+…+MXn. Вычислим MXk , 1  kn: MXk =1p+0q=p Þ MSn = np.

Вычисл. DХ: Sn = X1+X2+…+Xn, по услов. испытания Берн. Независимы, поэтому DSn = DX1+DX2+…+DXn. Вычислим DXk при k =1,2… n: DXk = M(Xk)2 – (MXk)2 = MXk – (MXk)2 = рр2 = pq. Поэтому DSn = npq.