- •8.Условные вероятности; теорема умножения
- •16.Моменты n-го порядка. Дисперсия. Среднее квадратическое отклонение.
- •21. Простейший Пуассоновский поток
- •28.Оценка отклонения теоретического распределения от нормального; асимметрия и эксцесс.
- •30.Дискретные двумерные случайные величины
- •36. Коэффициент корреляции. Связь между…
- •54. Доверительный интервал для оценки мо при нЕизвестной дисперсии
- •56. Проверка статистических гипотез
- •14. Непрерывная св. Плотность распределения.
- •17.Мода, медиана и квантили
- •22.Локальная предельная теорема Муавра-Лапласа.
- •18.Целочисленные св и их производящие функции
- •23 Интегральная предельная теорема Муавра-Лапласа
- •24.Геометрическое распределение
- •25. Равномерное распределение
- •29. Совместная функция распределения
- •41.Распределение 2. (“хи-квадрат”).
- •52. Интервальные оценки. Доверительный интервал. Доверительная вероятность.
- •53. Доверительный интервал для оценки мо при известной дисперсии
- •57. Критерий и его применение.
- •15. Математическое ожидание
- •19.Биномиальное распределение
- •20.Распределение Пуассона.
- •26. Показательное (экспоненциальное) распределение.
- •31.Непрерывные двумерные св
- •32.Зависимые и независимые св,
- •35.Числовые характеристики системы двух св: Моменты начальные и центральные, ковариация.
- •39. Закон распределения функции одного случайного аргумента.
- •45. Теореме Чебышева. Теорема Бернулли. Цпт.
- •55.Доверительный интервал для оценки дисперсии при неизвестном мо.
- •58. Марковская зависимость испытаний.
- •59. Переходные вероятности.
54. Доверительный интервал для оценки мо при нЕизвестной дисперсии
2)Доверительный
интервал для оценки МО при неизвестной
дисперсии нормально распределенной
генеральной совокупности. Пусть
– выборочный вектор n–наблюдений
СВ
.
В качестве оценки для m
возьмем
.
Если дисперсия генеральной совокупности
неизвестна, то по выборке определяем
статистику
.
Доверительный интервал для m
в этом случае находится с помощью
статистики
.
В
литературе по статистике показано, что
Y
имеет распределение Стьюдента с n–1
степенью свободы
.
По
заданной доверительной вероятности
,
используя таблицы распределения
Стьюдента с n–1
степенью свободы, находим
.
.
.
.
56. Проверка статистических гипотез
Пусть Х – наблюдаемая СВ. Она может быть дискретной, а может и непрерывной.
Опр. Статистической гипотезой Н называется предположение относительно параметров или вида распределения СВ Х. Гипотеза Н называется простой, если она однозначно определяет распределение СВ Х, иначе Н называется сложной.
Если распределение СВ Х известно и по выборке наблюдений необходимо проверить предположение о значении параметров этого распределения, то такие гипотезы называются параметрическими. А гипотезы о виде распределения – непараметрические.
Проверяемая гипотеза называется нулевой гипотезой и обозначается Н0. Обязательно на ряду с Н0 рассматривают одну из альтернативных гипотез Н1.
При этом имеются различные ситуации для Н1.
;
;
;
.
Выбор альтернативной гипотезы Н1 определяется конкретной формулировкой задачи.
Опр.Правило,
по которому принимается решение принять
или отклонить гипотезу Н0,
называется критерием К.
Так как решение принимается на основе
выборки наблюдений СВ Х,
то необходимо выбрать подходящую
статистику, которую мы будем называть
статистикой Z
критерия К.Замечание.
При проверке
простой параметрической гипотезы Н0:
=0
в качестве статистики критерия выбирают
ту же статистику, что и для оценки
параметра ,
т.е.
.Основной
принцип при проверке статистической
гипотезы:
Маловероятные события считаются
невозможными, а события, имеющие большую
вероятность, считаются достоверными.
Реализация этого принципа на практике.
Перед анализом выборки фиксируется
некоторая малая вероятность ,
называемая уровнем значимости. Пусть
V
множества значений статистики Z,
VK
– подмножество множества значений
статистики Z
(VK
V).
Это такое подмножество, что при условии
истинности гипотезы Н0,
имеем вероятность того, что P{ZVkH0}=.
Обозначим через zв
– выборочное значение статистики Z,
которое вычитается по конкретной
выборке. Критерии К
формулируется следующим образом.
Отклонить гипотезу Н0, если zвVk. Отклонить гипотезу Н0, если zвV \ Vk. Уровень значимости определяет размер критической области, а ее положение зависит от альтернативной гипотезы Н1.
Z1––квантиль распределения Z при условии, что верна гипотеза Н0.
Z– квантиль распределения Z при условии, что верна гипотеза Н0.
Проверку параметрической гипотезы при помощи критерия значимости можно разбить на следующие этапы:1)сформулировать Н0 и Н1;2)назначить ;3)выбрать статистику Z для проверки Н0;4)определить выборочное распределение Z при условии, что верна Н0;5)определить VK (она зависит от Н1);6)получить выборку и вычислить zb ;7)принять статистическое решение: zвVk – отклонить Н0;
zвV \Vk – принять Н0. Статистическое решение может быть ошибочным. При этом различают ошибки I-го и II-го родов.Опр. Ошибкой первого рода называется ошибка, состоящая в том, что гипотеза Н0 отклоняется, когда Н0 – верна. Вероятность P{ZVkH0}=..ОпрОшибкой второго рода называется ошибка, состоящая в том, что принимается гипотеза Н0, но в действительности верна альтернативная гипотеза Н1. Вероятность ошибки второго рода при условии, что гипотеза Н1 – простая, P{ZV\VkH1}=.Проверка статистических гипотез и доверительных интервалов.Проверка гипотез с использованием критерия значимости может быть проведена на основе доверительных интервалов. При этом одностороннему критерию значимости будет соответствовать односторонний доверительный интервал, а двустороннему критерию значимости будет соответствовать, двусторонний доверительный интервал. Гипотеза Н0 – принимается, если значение 0 накрывается доверительным интервалом, иначе отклоняется.
2.Вероятностное
пространство.Вероятность,ее свойства.Теорема
сложения.Тройка (,
A, P),
где – это пространство
элементарных событий;A –
-алгебра подмножеств
, называемых
событиями;P –
числовая функция, определенная на
событиях и называемая вероятностью.P
называется вероятностным пространством,
если выполнены следующие аксиомы:1)P(A)
0,AA.2)P()
= 1 (нормированность P).3)P(A+B)=P(A)
+ P(B),
если AB=
(аддитивность).4)Для любой убывающей
последовательности A1
A2 …
An…событий
из A такой, что
,
Имеет место равенство
(непрерывность
P).Замечания:
Аксиомы 3, 4 можно заменить одной
аксиомой -адди-тивности:
3*. Если события An
в последовательности A1,
A2,
… попарно несовместны, то
Из этих аксиом вытекают Свойства вероятностей:
1)Если A B, то вероятность P(B–A) = P(B) – P(A).
Доказательство:
Разобьем событие B в сумму несовместных событий
B=A+(B-A), A(B-A)=,
P(B) = P(A+(B-A))=P(A)+P(B-A) (по аксиоме 3)
P(B-A)=P(B) - P(A) .
2)Если A B, то P(A) P(B)Доказательство:
Доказательство следует из 1 свойства и аксиомы 1.
P(A) + P(B-A) = P(B)
P(B-A) 0, следовательно P(A) P(B) .
3)A A 0 P(A) 1 Доказательство:
A P(A) P(), P() = 1(по аксиоме 2)
P(A) 0, A A(по аксиоме 1) .
4)P(Ā) = 1 - P(A) Доказательство: A+ Ā = , A Ā =
Тогда по аксиоме 3 и аксиоме 2 получаем
P(A+ Ā) = P(), P(A) + P(Ā) = P(), P(A) +P(Ā) = 1 P(Ā) = 1 - P(A) .
5) P() = 0Доказательство: + = Тогда по аксиоме 3 и 2 получаем, P() + P() = P()
P() + 1 = 1, P() = 0 .
6)Теорема сложения A, B A : P(A+B) = P(A) + P(B) – P(AB)
Доказательство:
A + B = A + (B - AB), A(B - AB) =
P(A+B) = P(A) + P(B - AB), но AB B следовательно по первому свойству (вероятность от разности равна разности вероятностей).
P(A+B) = P(A) + P(B) – P(AB) .
4.Основные правила комбиноторики:«правило суммы» и «правило произведения» Комбинаторика – это наука о том, сколько различных комбинаций удовлетворяющих условиям можно составить на элементах конечного множества. Комбинаторные схемы: Правило суммы: X – конечное множество
X=n – количество элементов.
Объект x из X может быть выбран n-способами. Пусть X1,…,Xk попарно непересекающиеся множества, то есть XiXj=, ij тогда очевидно выполняется равенство.
– правило
суммы
Правило
произведения:Если
объект x
может быть выбран m-способами
и после каждого из таких выборов объект
y
может быть выбран n-способами.
Тогда выбор упорядоченной пары (x,y)
может быть осуществлен – mn
способами. Доказательство: Воспользуемся
правилом суммы. {a1,…,am}–
множество элементов, из которых выбирается
объект x.i=1,..,m,рассмотрим
множество Xi={(ai
,y)},
тогда первая компонента совпадает с
ai.
Множества Xi
попарно не пересекаются. Xi=n.
Множество
пар Xi-это
объед.
В общем случае правило произведения формируется следующим образом: Если объект x1 может быть выбран n1 – способами, после чего объект x2 может быть выбран n2 способами и i, где i=1,..,m-1
(2 i m-1) после выбора объектов x1,…,xi объект xi+1 может быть выбран ni+1-способами, то выбор упорядоченной последовательности x1,…,xm может быть осуществлен n1,…,nm способами. Доказательство проводится методом математической индукции.
10.Формулы
Байеса Теорема.Если
A1,…,An
– разбиение и
все
,
тогда имеет место следующая формула:
Доказательство: По теореме умножения:
Формулы
Байеса можно интерпретировать следующим
образом: назовём Ai
– гипотезой, а B –
результат некоторого эксперимента, a
P(Ai)
– априорные вероятности, а условные
вероятности
–апостериорные
вероятности (послеопытные вероятности).Формулы
Байеса позволяют по априорным и условным
вероятностям вычислить апостериорные
вероятности гипотез. Пример:Детали,
изготовленные цехом завода, попадают
к одному из двух контролёров для проверки
на стандартность. Вероятность того, что
деталь попадёт к первому контролёру –
0,6; ко второму контролёру, соответственно,
– 0,4. Вероятность того, что годная деталь
будет признана стандартной, для первого
контролёра – 0,9; для второго – 0,98. Годная
деталь была признана стандартной. Найти
вероятность того, что её проверил первый
контролёр.
Решение. A1={деталь проверил первый} A2={деталь проверил второй}
A1A2=,
A1+A2=
B={годная деталь
признана стандартной}
11.
Независимость событий Если события
A и B
таковы, что P(B)>0
P(AB)
Определение.
Событие A не
зависит от события B,
если P(AB)
= P(A) Если потребовать условия P(A)>0,
то
Понятие того, что одно событие зависит от другого, симметрично. Замечание Из теоремы умножения: P(AB)=P(B) P(AB) P(AB)=P(B) P(A) Это приводит к определению. ОпределениеСобытия A и B называются независимыми, если вероятность произведения событий равна произведению вероятностей событий (P(AB)=P(A)P(B)). Если событие A не зависит от события B, то они являются просто независимыми. Если P(AB)=P(A)P(B) не выполняется, то события являются зависимыми. P(AB)=P(A)P(B)–теоретико-вероятностная (статистическая) независимость; её следует отличать от причинной независимости реальных явлений. Причинная независимость реальных явлений не устанавливается с помощью этого равенства, а постулируется на основе других внешних соображений. Определение (Независимость событий в совокупности) События A1,…,An называются независимыми, если индексов 1i1< i2<…< imn, где 2mn, то выполняется:
В
противном случае — события зависимы.
Замечание.Из
определения независимости событий в
совокупности следует, что события любого
подмножества
множества A1,…,An
будут независимы в совокупности. Пример.
Имеются 4 числа: 2, 3, 5, 30. Наудачу выбирается
одно число. Вероятность этого события
– 0,25. Ak={выбранное
число делится на k}.
Решение.P(A2)=1/2; P(A3)=1/2 ; P(A5)=1/2; P(A30)=1/2
P(A2A3)=1/4;P(A2A5)=1/4;P(A3A5)=1/4;P(A2A3A5)=1/4
P(A2A3)=P(A2)P(A3)
P(A2A5)=P(A2)P(A5) - попарно независимы
P(A3A5)=P(A3)P(A5)
P(A2)P(A3) P(A5)=0.5*0.5*0.5=1/8
P(A2A3 A5)=1/4 (в совокупности зависимы).
Совокупная независимость более сильное свойство, нежели попарная независимость.
Теорема.Если
события A1,…,An
являются независимыми, индексы
i1,…,in
, j1,…,jk
– все различны, вероятность
,
тогда:
