- •1.Предмет теории вероятности
- •2 Важных правила комбинаторики:
- •2. События и их классификация
- •3 Соотнешения между событ-ми.
- •6. Теоремы сложения и умножения вер-тей
- •18.Нормальн.З-н распред.Непрер.Св.Вероятн.Попад.Знач.Норм.Случ.Величины в зад.Полуинтервал.
- •20.Функция одной случайной величины.Матем.Ожид.Функц.Одной св
- •21.Функция двух случайны аргументов
- •22. Понятие системы св. Закон распределения двумерной св, условный закон распред-ия двумерной св.
- •23. Числ. Хар-ки системы дискрет. Св (мат. Ожид, дисперсия, ковариация, коэффициент лин-ой корреляции и его св-ва).
- •24. Закон больших чисел. Неравенства Маркова и Чебышева.
- •27. Статистические оценки параметров распределения
- •28 Выбороч хар-ки статистич распред.
- •29. Точечные и интервальные оценки параметров распределения. Доверительная вероятность (надежность) и доверительные интервалы.
- •30.Доверительный интервал для математического ожидания нормального распределения при известной дисперсии
- •31. Статистическая проверка гипотез
- •38.Двухфакторный дисперсионный анализ.
- •1. В каждом наблюдении ei имеет нормальное распределение с нулевым мо и конечной дисперсией.
- •2. Для любого I дисперсия ei является величиной постоянной.
23. Числ. Хар-ки системы дискрет. Св (мат. Ожид, дисперсия, ковариация, коэффициент лин-ой корреляции и его св-ва).
М.
о. системы СВ (Х,У) будем назыв вел-ну
М(Х); М(У)=(
,
),
где
и
мат-ое ожид состав СВ Х и У.
Для
дискрет. СВ Х и У заданных табл 1 запишем
что
=
;
=
Мат-ое ожид усл-ых распред. сост Х и У опред форм.:
,
Дисперсии СВ Х и У системы опред по форм.:
Д(Х)=М[
;
Д(У)=М[
Ковариацией или корреляц-ым моментом СВ (Х,У) назовём величину
=cor
(X,Y)=M[(
)]
(1)
Формулу
(1) можно преобразовать в виде:
=М(X,Y)
(2)
Для
системы дискретных СВ Х и У ковариация
=
(3)
Св-ва
ковариации: 1)
=
;
2)
=Д(Х)=
;
;
3)Если Х и У независим. СВ, то
=0
Число
=
(4), где
,
,
назыв коэф-ет лин-ой корреляции СВ Х и
У.
Св-ва коэф-та лин-ой корреляции:
1)
=
=1;2)
;
3)
=0
если Х и У независимы; 4)
=
т.е.
тогда когда У=аХ+b,
где а и b
некоторые постоян. числа (это значит
что коэф-т корреляции хар-ет тесноту
лин-ой связи между СВ Х и У), причём если
=0,
то СВ Х и У назыв не коррелируемые.
24. Закон больших чисел. Неравенства Маркова и Чебышева.
Под законом больших чисел не следует понимать какой-то один общий закон, связан. с большими числ. Закон больших чисел - это обобщенное название нескольких теорем, из кот. следует, что при неограниченном увел. числа испыт. ср. вел-ы стремятся к некоторым постоян.
К ним относ. теоремы Чебышева и Бернулли. Т. Чебышева явл. наиб общим законом больших чисел, Т. Бернулли - простейшим.
В основе доказат. теорем, объединенных термином "закон больших чисел", лежит неравенство Чебышева, по кот. устанав. вероят. отклонения Х от ее мат-го ожид.
Формулировка неравенства Маркова
Если
среди знач. случ. вел-ны Х нет отриц., то
вероят. того, что она примет какое-нибудь
знач., превосходящее положит. число А,
не больше дроби
,
т.е.P(x>a)
,
а вероят. того, что она примет какое-нибудь
знач., не превосходящее положит. числа А,
не меньше
,
т.е.P(x
. Первая
форма неравенства Чебышева
Вероят.
того, что отклонение случ. вел-ны Х от
ее мат-го ожид., а произойдет по абсолютной
вел-не постоян. число Е>0, не больше
,
т.е. P(
>
)
.
Вторая форма неравенства Чебышева
Вероят.
того, что отклонение случ. вел-ны Х от
ее мат-го ожид., а не произойдет по
абсолютной вел-не постоян. числа Е>0,
не меньше 1-
,
т.е. P(
)
25 Теорема чебышева и ее сущность. Т-ма Чебышева. Если Х1, Х2,…, Хп — попарно независимые СВ, дисперсии кот. равномерно ограничены ( D(Xi) ≤ C), то для сколь угодно малого числа ε вероят. неравенства будет сколь угодно близка к 1, если число СВ достаточно велико. Если Х1, Х2, …, Хп — попарно независ. СВ с равномерно ограничен-ными дисперсиями, имеющие одинаковое мат-ое ожид., равное а, то для любого сколь угодно малого ε > 0 вер-ть неравенства будет как угодно близка к 1, если число случ. вел-н достаточно велико. Вывод: ср-ее арифмет. достаточно большого числа случ. вел-н прини-мает знач., близкие к сумме их мат-их ожид., то есть утрачивает хар-р случ. вел-ны. Н-р, если проводится серия измерений какой-либо физ. величины, причем: а) рез-т каждого измерения не зависит от рез-ов остальных, т. е. все рез-ты представляют собой попарно независ. СВ; б) измерения производятся без систематических ошибок (их мат-ие ожид. равны между собой и равны истинному знач. а измеряемой вел-ны); в) обеспечена опред. точность измерений, следоват., дисперсии рассматр-ых СВ равномерно ограничены; то при достаточно большом числе измерений их среднее арифметическое окажется сколь угодно близким к истинному знач. измеряемой вел-ны. Теорема Бернулли. Если в каждом из п независимых опытов вер-ть р появления события А постоянна, то при достаточно большом числе испыт. вероят-ть того, что модуль отклонения относит. частоты появлений А в п опытах от р будет сколь угодно малым, как угодно близка к 1 Доказательство. Введем СВ Х1, Х2, …, Хп, где Xi — число появлений А в i-м опыте. При этом Xi могут принимать только два значения: 1(с вероятностью р) и 0 (с вероятностью q = 1 — p). Кроме того, рассматриваемые СВ попарно независ. и их дисперсии равномерно ограничены (так как D(Xi) = pq, p + q = 1, откуда pq ≤ ¼ ). Следоват., к ним можно прим. теорему Чебышева при Mi = p.Но , так как Xi принимает знач., равное 1, при появлении А в данном опыте, и знач., равное 0, если А не произошло.
26.
Предмет математич. статистики. Ген. и
выборочная совок-ти. Статистич. ряд
распредел-я выборки. Полигон и гистограмма.
Эмпирич. ф-ция распредел-я. МС-
раздел матем-ки, посвященный математич.
методам систематизации, обработки и
исп-я стат. данных для научных и практич.
выводов. Всю исследуемую совок-ть одного
из объектов назыв. ген. совок-тью. А
множ-во объектов, случ-но отобранных
из ген. совок-ти, назыв. выборочной
совок-тью, или просто выборкой. Объемом
(ген. или выб.) совок-ти назыв. число всех
ее объектов. При составл-и выборки
польз-ся 2 осн. способами: повторным
(исследуемый объект обследуется и
возвращ-ся в ген. совок-ть) и бесповторным
(обследуемый объект не возвращ-ся в
ген. совок-ть). Сумма
= n
– объем выборки. Наблюдаемые знач-я
назыв. вариантами, а последоват-ть
вариант записыв. в возрастающем или
убыв. порядке- вариацион. рядом. Числа
назыв. частотами или весами, а их отнош-е
к объему выборки m,
т.е.
=
, относит. частотами, при этом сумма
=
1.
– Статистич. распредел-е выборки, или
статистич. дискретный ряд распредел-я.
Полигон частот- ломаная линия, состоящая
из отрезков, соед. Точки (xi,
mi);
(xi,
ɷi).
Интервальный стат. ряд графически
изобр. в виде гистограммы (ступенчатой
диагр.), состоящей из прямоугольников.
Площадь гитогр. частот равна объему
выборки, а площадь гистогр. относит.
частот (статистич. аналог плотности
распредел-я вер-тей ген. совок-ти) равна
1.
Эмпирич. ф-ция распредел-я – ф-ция
(x)=
, где n-
объем выборки,
-
число знач-й признакаменьше
<
x.
(x)
определяет относит. частоту события.
