- •1. Общие правила комбинаторики.
- •2. Выборки без повторений (размещения, перестановки и сочетания)
- •3. Случайные события и действия над ними.
- •4. Вероятность события. Статистическое определение вероятности.
- •5. Классическое определение вероятности.
- •6. Свойства вероятностей.
- •7. Теорема сложения вероятностей (для совместимых и несовместимых событий) и следствия из нее.
- •8. Условная вероятность. Теорема умножения вероятностей.
- •9. Независимые события. Теорема умножения вероятностей независимых событий.
- •10. Формула полной вероятности.
- •11.Формула Байеса.
- •12. Независимые повторные испытания, формула Бернулли.
- •13. Локальная теорема Лапласа.
- •14.Теорема Пуассона.
- •15. Интегральная теорема Лапласа.
- •16. Функция Лапласа, ее свойства и график.
- •17. Применение интегральной теоремы Лапласа и функции Лапласа к вычислению вероятностей
- •18. Геометрическое определение вероятности. (без рисунка).
- •19. Случайные величины. Закон распределения дискретной случайной величины.
- •20. Биноминальное распределен.
- •21. Математическое ожидание дискретной случайной величины и его свойства.
- •22. Дисперсия дискретной случайной величины и ее свойства.
- •23. Среднее квадратическое отклонение (ско) и его свойства.
- •24. Математическое ожидание и дисперсия биноминального рас.
- •26. Плотность вер-ти и ее свойства. Связь с ф-ией распределения.
- •27. Нормальное распределение. Нормальная кривая. Вероятность попадания нормально распределенной случайной величины в интервалы и . Правило трех сигм.
- •28. Числовые хар-ки непрерывной случайной величины.
- •29. Математическое ожидание и дисперсия нормального распределения.
- •30. Неравенство Чебышева.
- •31. Теорема Чебышева и ее практическое применение.
- •32. Теорема Бернулли. Сходимость по вероятности.
- •33. Статистическое распределение выборки. Полигон и гистограмма.
- •34. Статистические оценки параметров распределения.
- •35. Выборочное среднее.
- •36. Выборочная дисперсия как оценка теоретической дисперсии, ско, «направленное» ско.
- •37. Доверительная вероятность и доверительный интервал.
- •38. Доверительный интервал для мо нормального распределения при известном и неизвестном .
- •39. Доверительный интервал для математического ожидания нормального распределения.
- •40. Статистическая проверка статистических гипотез. Эмпирические и теоретические частоты. Критерий согласия Пирсона.
- •41. Функциональная, статистическая и корреляционная зависимости.
- •42. Линейная корреляция. Уравнение прямой регрессии.
- •43. Выборочный коэффициент корреляции и его свойства.
39. Доверительный интервал для математического ожидания нормального распределения.
Пусть известно, что случайная величина Х распределена нормально и известено «исправленное» СКО s, являющегося оценкой неизвестного СКО . Произведено n независ. испытаний в результате которых найдено выборочное среднее , оно является оценкой математического ожидания. Найти доверительный интервал покрывающий с надежностью . (рисунок).
Рассмотрим вспомогательную величину (хи).
.
Плотность распределения этой величины известна, обозначается f()=R(,n). Данное распределение зависит от n и не зависит от неизвестных параметров. Найдем доверительный интервал из условия
,
,
,
,
.
Рассмотрим 2 случая:
1)
(1)
из этого равенства можно найти q. Созданы спец. таблицы, в которых по данным n и находят q
,
тогда доверительный интервал
.
2)
т.к. >0, то из (1) следует
производя аналогичные преобразования получим, что можно найти с помощью несобственного интервала. На практике q находят из той же таблицы. Доверительный интервал:
(0;S(1+q)).
40. Статистическая проверка статистических гипотез. Эмпирические и теоретические частоты. Критерий согласия Пирсона.
Часто необходимо знать закон распределения случайной величины. Тогда по результатам выборки выдвигают гипотезу H0, сост. в том, что случ. величина подчинена некоторому опред. закону распределения, например, нормальному. Выдвинутая гипотеза м.б. верна, а м.б. и неверна, возникает задача проверки гипотезы, которую наз. статистической гипотезой. Проверку проводят по рез-там выборки, в рез-те ее либо принимают, либо отвергают. Возможны 2 ошиб. 1) ошиб. 1 рода–б. отвергнута правильная гипот. Вер-ть этой ошибки наз. уровнем значимости обозн. . Обычно =0,01; 0,05. 2) ошиб. 2 рода – будет принята неверн. гипот. Вер-ть этой ошибки–.
Пусть в рез-те испытаний случ. вел. Х попала n1 раз в первый промежуток [x1;x2), n2 раза – в [x2;x3) и т.д. nk раз в [xk;xk+1) Т.к. частоты ni получены в рез-те испытания, то их наз . эмпирическими. Проверка гипотезы в виде распределения случ. велич. основ. на сравнен. эмпирич. частот ni c теор. частотами ni. О: Теор. частотой наз. то число раз, которое случ. величина должна была попасть в соот. промежуток, если она действит. распределена по предлагаемому закону. Если предполагаемое распределение – нормальное, то для нах. теор частот исп. формулы:
тогда
Для вычисления вероятности используют формулу: .
Т.к. плотность вероятности нормального распределения имеет вид:
обозначим
;
,j=1,k. Т. к.
,
,
Критерий согласия.
Пусть по экспериментальным данным выдвинута гипотеза о том, что случайная величина распределена нормально, для ее проверки служит случайная величина Х2 (хи квадрат) или критерий Пирсона: (1)
,
где ni- выборочные частоты, полученные в результате эксперимента, ni штрих - теоретические частоты, вычисленные в предположении, что случайная величина распределена нормально. Чем < х2 тем < различаются друг от друга ni и ni штрих.
Известно распределение величины х2. Х2 критическое находят по таблицам по двум величинам: - это достаточно малая вероятность, называемая уровнем значимости, k=n-3 - число степеней свободы (n - число разрядов после группировки, если ni<5 то разряды объединяют в один). Х2наблюдаемое<=Х2критического - гипотезу принимают, Х2наблюдаемое>Х2критического - гипотезу отвергают.Возможны ошибки(2)-ош 1 рода, ее вер-ь=, (1)- набл данные соглас-ся с теор предполож о норм распр Замеч: число набл д б велико,