- •11. Ковариация двух сл. Вел-н, ее св-ва, коэффициент корреляции двух сл. Вел-н и его св-ва.
- •12. Биноминальное распределен., вычисление мат. Ожид. И дисперсии бином-ой сл. Вел-ны.
- •13. Пуассоновское распределение
- •14. Непрерывные случайные величины
- •19. Постановка и решение задачи линейной регрессии. Метод наименьших квадратов.
- •20. Основные понятия математической статистики.
- •21. Методы получения оценок: метод моментов и метод наибольшего правдоподобия, функция правдоподобия( дискретный и непрерывный случаи), примеры.
- •24. Статистические гипотезы, постановка задачи построения критерия проверки статистической гипотезы. Уровень значимости и мощность критерия. Параметрический критерий. Теорема Неймана-Пирсона.
- •Вопрос 25
- •Вопрос 26
I.Элементы комбинаторики: схема выбора без возвращения, примеры
Выборки упорядочены.
В урне М различных пронумерованных шаров.
Условие: из урны один за другим извлекаются без возвращения в урну n шаров. В этом случае (n ≤ M).
Выборка w = (а1, а2,…, аn), где любое ai — номер шара, вынутого на i-м шаге.
Причем если одни и те же шары появляются в другом порядке, то выборки считаем различными.
n = 2
(1,2)
(2,1)
Это две разные выборки.
Число таких исходов: АnM = M!/(M – n)! = N(Ω)
Выборки не упорядочены.
Если одни и те же шары появляются в другом порядке, то выборки считаются одинаковыми.
n = 3; (1,2,3) и (2,1,3) одинаковы
Число таких исходов: CnM = АnM/n!
Пример1.
На карточках написаны числа от 1 до 100. Вынем без возвращения 2 карточки. Сколько существует способов сделать так, чтобы на обеих карточках было < 10?
Решение.
Сколько существует способов выбрать из карточек с номером от 1 до 9 две карты? Схемы выбора без возвращения (выборка не упорядочена)
С29 = 36.
Пример2.
Сколько существует способов поставить n человек в ряд так, чтобы м/ду А и В стояло r человек? (расстановки упорядочены)
Решение.
n = n - 2
упорядочим А и В: 2!=2
упорядочим остальные (n - 2) человек: (n - 2)!
Посчитаем число, где А впереди В:
А - 1, В - r + 2
А - 2, В - r + 3 => (n - r -1) способ
А - n - r -1, В – n
Ответ: 2(n - 2)!( n - r -1) способов.
Пример3.
Сколько наборов из к цифр
не содержат нулей?
не содержат 1?
не сод. ни 0, ни 1?
не сод. хотя бы одну из цифр1 или 0?
Решение.
Используем схему упорядоченных выборок без возвращения.
9к
9
к
8к
9к + 9к - 8к = 2*9к - 8к
II.Элементы комбинаторики: схема выбора c возвращением, примеры.
Выборки упорядочены.
Извлекаем n шаров с возвращением, т.е. извлекаем один шар, записываем его номер и кладем в урну. Так повторяем m раз подряд. w = (а1, а2,…, аm), где любое ai — номер шара, вынутого на i-м шаге. Если одни и те же шары появляются в другом порядке, то выборки считаются разными.
n = 3; (1,2,3) и (2,1,3) различны.
Число таких исходов: Mn.
Выборки не упорядочены.
То же самое, но только n = 3; (1,2,3) и (2,1,3) равные.
Число таких исходов: CnM+n -1.
Задача
По М занумерованным ячейкам распределим n дробинок. В любую ячейку может попасть любое количество дробинок от 0 до n.
Будем считать, что разм. совпадает тогда и только тогда, когда в ячейке с одинаковыми номерами находится одинаковое число дробинок.
Сколько существует разл. Способов размещения дробинок по ячейкам?
Решение
Обозначим хi — число дробинок в j-й ячейке. Тогда искомое число способов = числу решения ур-я х1+ х2 + …+ хm = n. Найдем число решений путем: * — дробинка; || — ячейки.
| * * * | * | | | | * * * * |
M = 6 ячеек.
n = 8 — дробинки
(3,1,0,0,0,4)
Схема выбора без возвращения (выборки не упорядочены)
M + n + 1 – 2 = M + n -1
Выберем n позиций для дробинок:
СnM + n – 1
(доказательство: Извлечем шар. Пусть его № = к. Это событие означает, что дробинка попала в к-ю ячейку. Число дробинок = n это объем выборки. Число ячеек — М. Число элементарных исходов = СnM + n – 1 = N(Ω), т.е. число элементарных исходов = числу сочетаний.)
III. Классическая вероятность: элементарный исход, события, конечная схема, определения, примеры. Вероятность и частота.
Определение вероятности
Пусть некоторый эксперимент имеет N элементарных исходов. Будем считать, что исходы не совместны, т.е. в результате конкретного эксперимента происходит только 1 элемент. исход. Элемент. исходы равновозможны. Тогда припишем каждому элементарному исходу число 1/N. Любое подмножество множества Ω = {w1,…wN}. Всякое элементарное событие содержится в некотором событии А назовем благоприятным событию А.
Определение
Пусть m — число элементарных исходов, благоприятных событию А. Тогда классич. вероятность события А = m/N. Обозначается как Р(А) = m/N.
Пример1
Игральная кость. Найти вероятность того, что выпадет 5 или 6.
Событие А = {5 или 6}
N = 6
Р(А) = 1/3 (2 из 6-ти возможных).
Относительная частота события А определяется равенством W(A) = m/n, где m — число испытаний, в которых событие А наступило, а n — общее число произведенных испытаний.
Задача1
Чему равна вероятность того, что 2 бросания 3-х игральных костей дадут один и тот же результат (кости различимы: одна белая, др. красная, 3-я синяя)
Решение
Под результатом будем понимать набор из 3-з чисел w = (i, j, k). i — очки Б; j — очки К; k — очки С. Если одни и те же числа выпали на разных костях, считаем эти результаты разными. (схема III)
N(Ω) = 63.
Ω = { i, j, k| 1 ≤ i, j, k ≤ 6}
Событие А — результаты подбрасывания совпали. Вероятность повторения результата = вер-ти его получения => Р(А) = 1/63=1/216.
Задача2
Чему = вер-ть того, что при бросании получится 1 и тот же результат, если кости не различимы.
Решение
Элементарный исход: w = (х1, х2, …, х6), где хj — нат. Число, показ. сколько раз выпала цифра 6. Сумма всех частей = количеству бросаемых костей, т.е. = 3.
х1+ х2 + …+ х6 = 3. Пространство элементарных событий: Ω = { w = (х1, х2, …, х6)}.
Вероятность и частота.
Статистический подход.
Проводим эксперимент n раз и фиксируем, произошло или нет в рез-те событие А. Пусть оно произошло k раз, тогда k/n – частота события А (для больших n близко к постоянной величине). Если отклонение k/n от этой постоянной величины с ростом n уменьшается,- устойчивость частот. Впервые это заметили, изучая демографические вопросы: % смертности в опред. возрасте для опред-х групп населения. Были попытки построить теорию, принимая за вероятность частоту события, но возникли сложности.
4. Геометрическая вероятность.
Постановка задачи: пусть G – огранич. плоская область с конечной площадью. В эт. области содержится обл. g облад-щая те-ми же св-ми. В обл. G наугад бросается точка, она может попасть в любое место обл-ти G (рис.1). Вер-ть точки попасть в g пропорциональна отношению площадей G и g и не зависит от ее формы и расположения. Т.о. вер-ть попадан. в обл. g точки, брош. в обл. G наудачу, =, по опред.: Р=S(g)/S(G), S(g) и S(G) – площ. g и G в общем виде S(g) и S(G) – меры множеств g и G.
Задача о встрече: Два лица А и В условились встретиться м/у 12 и часом дня. Пришедший первым ждёт 20 минут и уходит. Какова вероятность встречи, если приход каждого в течен. часа мож. произойти наудачу и моменты прихода А и В независимы. Решение: обозначим момент прихода А через х, а В – у. Изобразим х и у как декарт. коорд-ты, единиц. масшт. – 1 мин. (рис.2). Всевозможн. исходы можн. изобразить ввиде пар (х, у) – т. квадрата со стороной 60. Встр. состоится, если x – y ≤20 (заштрих. обл.). Область G =60 2, g = 60 2 - 2*0,5*(40*40) = 602- 402, p = (602- 402) / 602= 5 / 9.
Парадокс Жозефа Бертрана: Наудачу берём хорду в круге. Чему равна вероятность того, что её длина больше длины стороны правильного треугольника, вписанного в окружность? Решение 1: По соображен. симметрии зададим направление всем хордам, проведём диаметр, ┴ эт. направлен. Впишем в круг 2 прав-ых треуг-ка: OD =OC = R / 2 (радиус) (рис.3). Те хор-ды, кот. ∩ диаметр АВ в т-ах отр-ка CD, имеют длину > сторон прав-го ∆. Поэт. вер-ть события, кот. мы ищем: Р=CD/ AB=1/2.
Решение 2: (рис.4) Условию задачи благоприятствуют лишь те хорды, концы которых попадают на дугу AB: Р=(дл. дуги AB)/ (дл. окр-ти) =1/3. Решение 3: Чтобы определить положение хорды, достаточно задать её середину. Бросаем т. (А) на пл-ть окр-ти, соединяя ее с центром круга и провод. хорду ч/з эт. точку, ┴ получен-му отр-ку (рис.5). Хорда длиннее стороны прав-го ∆, если т. A попадёт в круг радиусом R / 2: Р =(площ. круга R / 2) / (площ. круга R) =1/2. Причина парадокса: понятие «хорда выбир-ся наудачу в некот-ом круге» опред-ся неоднозначно. За реш. задачи принимается реш. 3-ех разн. задач.
Задача Бюффона (использ-ся для эксперим-го вычислен. числа ): Пл-ть разграничена ║-ми линиями, отстоящими др. от друга на расстоян. 2a. На пл-ть науд. брос-ся игла длиной 2l (l<a) (рис.6). Найти вер-ть того, что игла пересечёт какую - л. прямую. Решение: Пусть x – расстоян. от центра иглы до ближайшей параллели, а –угол м/у иглой и параллелью. Наудачу, значит: 1) Центр иглы попадает на отр-ок длинной 2a и ┴ параллелям. 2) Угол φ попадает на отрезок [φ1, φ1+Δφ], с вер-ью пропорц-ой Δφ и назавис. от φ1. 3) x и φ не зависят др. от др. Можно смоделир-ть бросан. иглы на пл-ть: игл. брос. в прямоуг-к (S) шир-ой и выс-ой а (рис.7). Для того, чтоб. игла ∩ прямую необх. и достат., чтоб. т-ка попала в обл. х ≤ l sinφ (s). P(игла∩прям.) = (площадь s)/(площадь S) = 2l / aπ. (Пл. s = 0 π l sinφ dφ; пл. S = aπ)
№5 Аксиоматика Колмогорова
Множество исходов некоторых экспериментов (исход эксперимента — событие элементарное) — обозначается ω
Множество всех исходных экспериментов — пространство элементарных событий — Ω
Подмножества — события
События:
Достоверное – событие происходит всегда при воспроизведении условий эксперимента.
Невозможное – событие никогда не происходит.
Случайные – события могут произойти или нет.
События: А=В - равносильные; А и Ā – противоположные.
События: Совместные и Несовместные (если их произведение – пустое множество АВ=Ø)
Если А=В1+В2+…+Вn, и события Вk не совместные. Т.е. ВiВj=Ø (i≠j), тогда событие А подразделяется на частные случаи В1, В2, … Вn или А можно разложить в сумму несовместных событий.
События В1, В2, … Вn образуют полную группу, если хотя бы одно из них должно произойти при каждом осуществлении комплекса условий эксперимента В1+В2+…+Вn=Ω
Система событий А называется полем событий, если
Ω, Ø Є А
А Є А, В Є А (А+В Є А, АВ Є А, А/В Є А)
Опр1. Назовём систему событий А множеств пространства Ω алгеброй множеств, если
Ω, Ø Є А
А, Ā Є А
А Є А, В Є А (А+В Є А, АВ Є А)
Опр2. Алгебра множеств А называется σ-алгеброй, если Аn Є А, n=1,2,… ΣАn Є А, ΠАn Є А
Опр2. Тройку символов (Ω,А,Р), где: Ω—пространство элементарных событий, А— σ-алгебра множеств, Р—вероятность А, удовлетворяющая аксиомам:
А1. для любого А Є А Р(А)≥0 (аксиома неотрицательности)
А2. Р(Ω)=1 (аксиома нормированности)
А3. АВ= Ø => Р(А+В)=Р(А)+Р(В) (аксиома аддитивности)
А4. А1 כ А2 כ… , ∩Аn = Ø => Р(∩Аn)=0 (аксиома непрерывности)
Тогда тройка этих символов называется вероятностным пространством.
Здесь нужно дописать
№6 Основные теоремы о вероятностях
Опр. Пусть Р(В)>0. Условной вер-ью события А при условии, что соб. В произошло, наз-ся отношение, обознач-ое Р(А\В)=Р(АВ)/Р(В). Р(АВ) = Р(А\В)•Р(В) – простейш. вариант теоремы умножения вер-тей (верн. и для Р(В) = 0).
Теор. (умножения вер-ей) При n 2 верно следующее: Р(А1А2…А n) = Р(А1)•Р(А 2\ А 1)•Р(А 3\ А 1 А 2) •…•Р(А n\А1А2…А n-1). Док по индукции: теор. верна для n = 2 и 3, пусть верна и для n = N 3. Докажем, что теор. будет верна для n = N +1. По опред. Р(А1А2…А n А n+1) = Р(А1А2…А n)•Р(А n+1\ А1А2…А n)= Р(А1)•Р(А2\А1)… Р(А n\ А1А2…А n-1)•Р(А n+1\ А1А2…А n)■
Теор. (сложения вер-ей) Для произвольных соб. А и В верно Р(А+В) = Р(А) + Р(В) – Р(АВ). Док: Заметим, что верны след. рав-ва: А + В = А + (В \ АВ) [или U(+)] , А•(В \ АВ) = Ø [или ∩(•)]. В силу аксиомы аддитивности вер-ти [ Р(А+В) = Р(А)+Р(В), если АВ = Ø ] верно Р(А+В) = Р(А+ (В\АВ)) = Р(А) + Р(В\АВ). Т.к.Р(В\АВ) = Р(В) – Р(АВ), то Р(А+В) = Р(А) + Р(В) – Р(АВ) ■
№7 Формулы полной вероятности и Байеса, примеры. Понятие распределения вероятностей.
Т. Формула полной вероятности
Пусть событие А1, А2…Аn попарно несовместны и А1, А2…Аn = Ω
AiAj = Ǿ, если i ≠j
Тогда для любого события В, которое происходит с одним и только одним событием
Ai из { А1, А2…Аn } верна формула P(B) = к=1∑nР(Аk)* Р(В/Аk) (суммируем по к = 1..n)
Д-во:
По условию событие В=A*Ω = В(А1+А2…+Аn) =к=1∑n P(ВАk)
BAi*Baj = Ǿ, i ≠j
P(B)= к=1∑n P(ВАk)= к=1∑n P(Ak)* P(В/Аk), по
простейшему варианту теоремы умножения (P(AB)=P(A)*P(B/A))
чтд.
Пример.
В урне М белых шаров и (N-M) — черных по схеме выбора без возвращения последовательно извлекаются 2 шара,
Найти вероятность того, что 2-й шар будет белым:
Решение:
Опред. события А1, А2, В
А1 ={1-й шар — белый}
А2 ={1-й шар — черный}
В={2-й шар — белый}
Тогда по формуле полной вероятности:
P(B) = P(A1)*P(B/A1)+P(A2)*P(B/A2)=M/N * M-1/N-1 + N-M/N * M/N-1 = M/N
Формула Байеса.
Пусть события А1, А2…Аn попарно несовместны,
А1 + А2…+Аn=Ω, Р(В)>0
Тогда:
P(Ak│B)=(P(Ak)P(B│Ak))/P(B)=(P(Ak)P(B│Ak))/( к=1∑n P(Ak) P(B│Ak)), (k=1,…n)
Д-во:
По теореме умножения вероятностей:
P(B Ak) = P(B) P(Ak│B) = P(Ak) P(B│Ak).
Поэтому P(Ak│B)= (P(Ak) P(B│Ak))/P(B).
Но по формуле полной вероятности:
P(B)= к=1∑n P(Ak) P(B│Ak).
чтд.
Формулу Байеса можно интерпретировать следующим образом. Назовем события Аk гипотезами. Пусть событие В — результат некоторого эксперимента. Вероятности Р(Аk)— это априорные вероятности гипотез, вычисляемые до постановки опыта, а условные вероятности P(Ak│В) — это апостериорные вероятности гипотез, вычисляемые после того, как стал известен результат опыта В.
Пример.
Имеем 2 урны по N шаров в каждой. В 1-й — M1 белых шаров, а во второй М2 — белых шаров. Эксперимент состоит: сначала, с вероятностью ½ выбирается 1-я или 2-я урна, а затем из неё случайно извлекается (с возвращением) n шаров. Пусть событие В состоит в том, что вынутые шары — белые
Имеем 2 гипотезы:
А1={выбрана 1-я урна}
А2={выбрана 2-я урна}
По условию априорного распределения вероятностей:
P(A1)=P(A2)= 1/2
Далее, легко находим вероятности Р(В│Аk) = (Mk/N)n/
Формула Байеса дает апостериорные вероятности:
Р(Аk│В) = (1/2 (Mk/N)n)/(1/2 (M1/N)n + ½ (M2/N)n)=Mkn/(M1n+ M2n), k=1,2.
Если М1<M2, то при n→ P(A2│B)=1/(1+(M1/M2)n)→1, т.к. М1/M2<1
Понятие распределения вероятностей. —?
№8 Понятие независимых событий. Схема независимых испытаний Бернулли, формула Бернулли, доказательство её корректности, примеры.
Опр. События А и В называются независимыми, если Р(АВ) = Р(А) Р(В). Если Р(АВ) ≠ Р(А) Р(В), события А и В называются зависимыми.
Если Р(В)=0, то событие В является независимым по отношению к любому событию А.
Пример.
Из колоды в 52 карты (13 карт каждой масти) случайно вынимается карта. Рассмотрим события А= вынут туз, В= вынута карта бубновой масти. Тогда событие АВ означает, что вынут бубновый туз.
Т.к. справедливо равенство Р(АВ)= Р(А)Р(В), события А и В независимы.
Опр. События А1, А2…Аn независимы в совокупности, если для любого набора 1≤i1<i2<…<im, 2≤m≤n справедливо равенство
Р(Ai1,Аi2…Аim)=P(Ai1) P(Ai2)…P(Aim).
Схема Бернулли.
Повторные независимые испытания называются испытаниями Бернулли, если каждое испытание имеет только 2 возможных исхода, и вероятности исходов остаются неизменными для всех испытаний. Пусть один исход испытания называется успех (У), а другой — неудача (Н), вероятность успеха равна p, а вероятность неудачи равна q, q=1-p. Пусть испытание проводится n раз. Тогда вероятностное пространство имеет вид
Ω={ω=(x1,…xn), xk=У,Н, k=1,…n}.
Независимость испытаний означает, что Р(x1,…xn)=Р(x1)…Р(xn), где Р(xk)=p, если xk=У, Р(xk)=q, если xk=Н.
Часто нас интересует не порядок появления успехов вn независимых испытаниях Бернулли, а их общее число. Число успехов может быть равно 0,1,2,…n и задача состоит в том, чтобы найти вероятность события, состоящего в том, что в серии из nнезависимых испытаний Бернулли произошло k успехов.
Пусть Sn — число успехов из серии независимых испытаний Бернулли.
Т. При любом k = 0,1,…n справедливо равенство
P(Sn=k)=Cnkpkqn-k
Д-во:
В вероятностное пространство входят элементарные события вида:
ω=(Н…НУН…НУН…НУН…Н).
Сколько таких элементарных событий? Столько, сколькими способами можно выбрать из n номеров k номеров (без учета порядков), т.е. Cnk. Вероятность каждого такого события равна pkqn-k, т.к. испытания — независимы.
чтд.
Замечание:
Теорема показывает, что вероятность в схеме Бернулли распределена корректно.
В самом деле, справедливо равенство:
k=0∑n Cnk pk qn-k =(p+q)n=1
Пример:
Пусть рождение мальчика и рождение девочки равновероятны. Какую долю семей с шестью детьми будут составлять семьи с 3 мальчиками и 3 девочками.
Решение:
Решаем задачу по схеме Бернулли. Пусть рождение девочки — успех, тогда p=q=1/2
Проводится 6 независимых испытаний. Тогда
P(S6=3)=C632-6=5/16
№9 Случайные величины: определение, функция распределения случайной величины и её свойства, независимые случайные величины, определение основных числовых характеристик случайной величины (дискретный и непрерывный случаи), примеры.
Введем центральное в теории вероятности понятие случайной величины.
Опр. Пусть (Ω, А, Р) — вероятностное пространство. Случайной величиной X называется числовая функция, определенная на Ω и такая, что определена вероятность F(x)=P{X<x}=P{ω│P(ω)<x}. F(x) называется функцией распределения случайной величины X.
Замечание:
Если вероятностное пространство Ω конечно, то любая числовая функция, заданная на Ω, является случайной величиной.
Свойства функции распределения:
При x1<x2 P{x1≤X<x2}=F(x2)-F(x1)
F(x)(не обязательно строго).
limx→-∞F(x)=0, limx→∞F(x)=1
F(x) непрерывна слева(т.е. limx→x0 - 0F(x)=F(x0)).
Свойство 1 простое следствие из аксиом вероятностного пространства. Свойство 2 сразу следует из 1. Свойство 3 следует из аксиомы счетной аддитивности.
Опр. Случайные величины X и Y называются независимыми, если P{X<x, Y<y}= P{X<x}P{Y<y} (другими словами, события {X<x} и {Y<y} независимы)
Пространство элементарных событий дискретно, когда оно либо конечно, либо счетно.
Закон распределения дискретной случайной величины задается в виде таблицы ряда распределений
Пример:
Рассмотрим схему n независимых испытаний Бернулли. Определим случайные величины
Xi =1, если в i-м испытании успех, 0, если неудача.
Пусть Sn = X1+X2+…+Xn. Тогда случайная величина Sn — число успехов в серии n независимых испытаний Бернулли.
Опр. Математическим ожиданием дискретной случайной величины X называется сумма
MX=∑xi P{X=xi}, где суммирование ведется по всем значениям xi случайной величины X.
Опр. Дисперсия (рассеяние) случайной величины X — DX=M(X-MX)2, где X-MX отклонение случайной величины от мат. ожидания.
Опр. Cov(X,Y)=M((X-MX)(M-MY)) — ковариация случайных величин X и Y, заданных на одном и том же пространстве элементарных событий.
Опр. Пусть на одном и том же вероятностном пространстве заданы случайные величины X и Y. Коэффициентом корреляции X и Y называется число ρ(X,Y)=(Cov(X,Y))/√DX DY
Непрерывные случайные величины
Опр. Пусть существует неотрицательная функция p(x),удовлетворяющая при любых х равенству
F(x)=P{X<x}-∞∫x p(t) dt
Случайные величины, обладающие этим свойством, называются непрерывными. Функция p(x) называется плотностью распределения вероятностей случайной величины X, а F(x) — её
функция распределения
Опр. Мат. ожид. случ. непрер. величины X называется интеграл -∞∫∞ xp(x) dx, где p(x) – плотность распределения вероятности сл. велич. X.
Опр. Дисперсией непр. сл. велич. X называется интеграл -∞∫∞ (x-MX)2 p(x) dx, где p(x) – плотность распределения вероятности сл. велич. X.
Опр. Плотностью совместного распределения 2-х случайных величин X и Y, заданных на одном и том же пр-ве элементарных соб., называется такая неотрицательная функция 2-х переменных p(u,v), что для любых x и y справедливо равенство:
P{X<x,Y<y}-∞∫x-∞∫y p(u,v) du dv.
Опр. Ковариацией 2-х непрерывных случайных величин X и Y называется мат. ожидание случайной величины (X-MX) (Y-MY), которое выражается в виде интеграла:
Соv (X,Y)=-∞∫∞ -∞∫∞ (x-MX)(y-MY)p(x,y) dxdy
Опр. Коэффиц. корреляции 2-х непрерывн. сл. велич. X и Y называется число
ρ(X,Y)=(Cov(X,Y))/√DX DY
10. Свойства мат. ожидания и дисперсии сл. вел-ны, плотность вероятности и ее св-ва.
МХ: 1о. М(Х+Y)=МХ+MY(аддитивность). Док: = , = . Построим Σ мат-их ожиданий MX+MY= =М(Х+Y)■ 2о. М(Х1+Х2+…+Хn)=МХ1+ МХ2+…+ МХn.(док. из 1о). 3о. Если с = const, то Мс=с. 4о. Если случ-ые вел-ны Х и Y независимы, то М(ХY)=MX+MY. Док: Т.к. Х и Y незав-мы, то P(xi, yj)= P(xi) P(yj). Тогда М(ХY)= = =MХ·MY■ 5о. |М(ХY)| (нерав-во Коши-Буняковского). Док: а справ-во нер-во 0 М (аХ+Y)2=a2·MX2+ 2a·MX·MY+MY2 – квадратичн. трехчлен). Дискрим. долж. быть 0. D/4=(M(XY))2 - MX2·MY2 0 |М(ХY)| ■ Св-ва MX и DX непрер-ых сл. вел-н и дискретн. сл. вел. соответ-но совпадают.
DX: 1о. DX 0. Док: P(X) 0, MX2 0 DX 0. 2о. Dс = 0, с = const. Док: Мс = с, Р(с) =1 Dс=M(C –Mс)2 =M(0)=0·1=0■ 3о. Пост-ый множитель можно выносить за знак дисперс., при этом возводя его в квадр. D(сX) =с2DX. Док: По опред D(сX) =M(сX–M(сX))2= M(сX–с·MX)2=M [с2·(X–MX)2]=с2·M(X–MX)2 =с2·DX■ 4о. DX =M(X2)–(MX)2. Дисп. случ. вел-ны Х= разности мат. ожид-ия квадрата сл. вел-ны Х и квадрата мат. ожид-ия сл. вел-ны Х. Док: DX =M(X–MX)2= M(X2–2X·MX+(MX)2)=M(X2)–2M(X–MX)+(MX)2=M(X2)–2MX–MX+(MX)2=M(X)2–(MX)2■
Опр. Пусть неотриц-ая ф-ия р(Х) удовлетв-щая при люб. х рав-ву F(X)=P{X<x}= Сл. вел-ны, облад-щие этими св-ми наз-ся непреравн. Ф-ия р(Х) – плотность распр-ия вероят-ей сл. вел-ны Х, ф-ия F(X) – ф-ия распр. Случай, когд. F(X) диффер-ма: Св-ва плотн-ти: 1о. р(Х) 0. 2о. При х1<х2, то Р{ х1<X<х2}= 3о. =1(нормировочное св-во). График ф-ии плот-ти р(Х) наз-ют кривой распр. Площадь под крив. распр. =1.
Опр. Плот-тью совместного распр. двух непрер. сл. вел-н Х и Y, заданных на одном и томже вероят-ном простр-ве элемент-ых событий, наз-ся такая неотриц-ая ф-ия от двух переменных р(u, v), что u, v верно рав-во Р{X<х, Y<y}=
11. Ковариация двух сл. Вел-н, ее св-ва, коэффициент корреляции двух сл. Вел-н и его св-ва.
Опр. Ковариацией двух сл. вел-н. Х и Y, заданных на одном и томже вероятн-ом простр-ве, наз-ся мат. ожидание произведения отклонений сл-ых вел-н Х и Y от их мат. ожиданий. Сov(X,Y)=M[(X–MX)(Y–MY)]. Она показ-ет зависят ли вел-ны Х и Y друг от др. или нет.
Теор. Если Х и Y независ-ые сл. вел-ны, то Сov(X,Y)=0. Док: По опред. Сov(X,Y)=M[(X–MX)(Y–MY)]. Раскроем скобки, тогда Сov(X,Y)=M [(X·Y –X·(MY=const)–Y·(MX=const)+ (MX·MY=const))=M(XY)–MY·MX–MX·MY+MX·MY=MX·MY–MY·MX=0, т.к. MC=C и если Х и Y независимы, то M(XY)=MX·MY и M(XY)–MX·MY=0 ■
Теор. Если сл. вел-ны Х1 и Х2 попарно независимы, то D(Х1+Х2)=D(Х1)+D(Х2) и D(Х1–Х2)=D(Х1)+D(Х2). Док: D(Х1+Х2)= M[(Х1+Х2–M(Х1+Х2))2] = M[ ((Х1– MХ1)+(Х2–MХ2))2]= M[ (Х1– MХ1)2+2(Х1– MХ1)·(Х2–MХ2)+(Х2–MХ2)2]= M[ (Х1– MХ1)2]+2M[(Х1– MХ1)·(Х2–MХ2)]+M[(Х2–MХ2)2]= DX1+ (2 Сov(X1, X2)=0)+ DX2= DX1+ DX2■ В ходе док-ва получили следующ. св-во D(Х1Х2)= D(Х1)+ D(Х2) 2 Сov(X1, X2) для всех сл. вел-н Х1 и Х2.
Опр. Пусть на одном и томже вероят-ом простр-ве заданы сл. вел-ны X и Y. Коэффиц-ом корреляц. X и Y наз-ся число – отношение ковариации к произведен. среднеквадрат-ых отклонений этих вел-н (X,Y)=Cov(X,Y)/
Замеч.1. Коэф-т коррел-ии по модулю всегда <1, т.е. |(X,Y)| 1. Док: 2(X,Y)+ 2–2(X,Y) = 2(1– (X,Y)) 0, 1– (X,Y) 0, (X,Y) 1■ Замеч.2. Если сл. вел-ны Х и Y независимы, то коэф-т коррел. (X,Y)=0. Док: Сov(X,Y)=0 (если сл. вел-ны Х и Y независ.) (X,Y)=0■ Замеч.3. Если коэф-т коррел. вел-н Х и Y (X,Y)= 1, то числа а и b такие, что сл-ая вел-на y = ax + b. Док: 1) Если DX=0 или DY=0, то Х или Y– const, y = ax + b выполняется: х =с1, y =c2: y =(c2/с1)·с1+ 0 =(c2/с1)·с1. 2) DX0, DY0. Воспользуемся тем, что M(X 2) 0. Рассмотрим сл. вел-ны Х ’= , Y ’= ; DХ ’= DX / DX=1, DY ’=1. Пусть (X,Y)=1, D(Х’–Y’)=DХ’+DY ’–2 Cov(X’,Y’)=1+1–2 Cov(X’,Y’), где X’ и Y’ независ-ые сл. вел-ны = 2 – =2– = 2– 2 – 2[r(X,Y)=1]=0. Значит D(Х ’–Y ’)=0, Х ’=Y ’=const. = const Þ y = ax + b. Замеч.4. Из рав-ва (X,Y)=0 не следует, что вел-ны Х и Y независимы. Замеч.5. Если Сov(X,Y)=0, то из этого не след., что Х и Y независ. Опр. Ковариацией двух непрерывн. сл. вел-н Х и Y назыв-ся мат. ожид. сл-ой вел-ны (X–MX)(Y–MY), где (X–MX) – отклонение сл. вел-ны Х от соего мат. ожид. (центрирование сл-ой вел-ны.), которое выражается в интег-рале Сov(X,Y)= Опр. Коэффиц-ом корреляц. двух непрерывн. сл. вел-н X и Y наз-ся число (X,Y)= Cov(X,Y)/
12. Биноминальное распределен., вычисление мат. Ожид. И дисперсии бином-ой сл. Вел-ны.
Опр. Пусть вероятность Р{Х=k} = , где 0 р 1, q =1–p, k= 0, 1, 2,…, n. Тогда говор., что сл. вел-на X имеет биноминальн. распр. Бином. распр. имеет сл. вел. Sn – числ. успех. в серии из n назавис. испыт. Бернулли. , .
Вычисл. МХ: Sn = X1+X2+…+Xn, MSn = MX1+MX2+…+MXn. Вычислим MXk , 1 k n: MXk =1p+0q=p Þ MSn = np.
Вычисл. DХ: Sn = X1+X2+…+Xn, по услов. испытания Берн. Независимы, поэтому DSn = DX1+DX2+…+DXn. Вычислим DXk при k =1,2… n: DXk = M(Xk)2 – (MXk)2 = MXk – (MXk)2 = р – р2 = pq. Поэтому DSn = npq.