
- •1. Правила комбинаторики.
- •2. Основные комбинаторные соединения: перестановки, размещения, сочетания.
- •3. Испытание. Событие. Классификация событий.
- •4. Понятие вероятности события. Классическое определение вероятности и его свойства.
- •5. Относительная частота события. Статистическое определение вероятности.
- •6. Геометрическое определение вероятности.
- •7. Алгебра событий.
- •8. Условная вероятность.
- •9. Теоремы умножения вероятностей.
- •10. Теоремы сложения вероятностей.
- •11. Вероятность появления хотя бы одного события.
- •12. Формула полной вероятности.
- •13. Вероятности гипотез. Формула Бейеса.
- •14. Схема независимых испытаний Бернулли.
- •15. Формула Бернулли.
- •16. Локальная теорема Муавра-Лапласа.
- •17. Формула Пуассона.
- •18. Интегральная теорема Лапласа.
- •19. Наивероятнейшее число появления события.
- •20. Вероятность отклонения относительной частоты от постоянной вероятности.
- •21. Понятие и виды случайных величин.
- •22. Ряд распределения. Многоугольник распределения.
- •23. Функция распределения.
- •24. Вероятность попадания случайной величины на заданный участок.
- •25. Плотность распределения.
- •26. Числовые характеристики случайных величин.
- •27. Математическое ожидание, мода, медиана.
- •28. Дисперсия. Среднее квадратическое отклонение.
- •29. Моменты. Асимметрия и эксцесс.
- •30. Биномиальное распределение.
- •31. Пуассоновское распределение.
- •32. Геометрическое распределение.
- •33. Гипергеометрическое распределение.
- •34. Равномерное распределение.
- •35. Нормальное распределение.
- •36. Показательное распределение.
- •37. Распределение Пирсона.
- •38. Распределение Стьюдента.
- •39. Распределение Фишера.
- •40. Понятие системы двух случайных величин.
- •41. Функция и плотность распределения системы.
- •42. Законы распределения отдельных величин, входящих в систему.
- •43. Условные законы распределения.
- •44. Числовые характеристики системы двух случайных величин.
- •45. Корреляционный момент. Коэффициент корреляции.
- •46. Закон больших чисел и центральная предельная теорема (цпт).
- •47. Неравенство Чебышева. Теорема Чебышева.
- •48. Теоремы Бернулли и Пуассона.
- •49. Массовые случайные явления и цпт.
- •50. Характеристические функции. Цпт для одинаково распределенных слагаемых.
- •1. Задачи математической статистики.
- •2. Генеральная совокупность. Типы выборок и способы отбора.
- •3. Вариационные ряды.
- •4. Эмпирическая функция распределения.
- •5. Полигон и гистограмма.
- •6. Точечные оценки.
- •7. Генеральная и выборочная средние.
- •8. Генеральная и выборочная дисперсии.
- •9. Метод моментов.
- •10. Метод наибольшего правдоподобия.
- •11. Интервальные оценки.
- •12. Доверительные интервалы для параметров нормального распределения.
- •13. Доверительные интервалы для вероятности биномиального распределения.
- •14. Доверительные интервалы для параметра распределения Пуассона.
- •15. Метод произведений для вычисления выборочной средней и выборочной дисперсии.
- •16. Метод сумм для вычисления выборочной средней и выборочной дисперсии.
- •17. Функциональная, статистическая и корреляционная зависимости.
- •18. Линейная корреляция.
- •19. Криволинейная корреляция.
- •20. Выборочный коэффициент ранговой корреляции Спирмена.
- •21. Выборочный коэффициент ранговой корреляции Кендалла.
- •22. Виды статистических гипотез.
- •23. Ошибки I и II рода.
- •24. Уровень значимости и мощность критерия.
- •25. Проверка гипотез о равенстве средних двух нормально распределенных генеральных совокупностей.
- •26. Проверка гипотез о равенстве дисперссий двух нормально распределенных генеральных совокупностей.
- •27. Проверка гипотезы о нормальном распределении генеральной совокупности по критерию Пирсона.
- •28. Проверка гипотезы о значимости выборочного коэффициента корреляции.
- •29. Проверка гипотезы о значимости выборочного коэффициента ранговой корреляции Спирмена.
- •30. Проверка о значимости выборочного коэффициента ранговой корреляции Кендалла.
- •31. Проверка гипотезы о показательном распределении генеральной совокупности.
- •32. Проверка гипотезы о распределении генеральной совокупности по биномиальному закону.
- •33. Проверка гипотезы о равномерном распределении генеральной совокупности.
- •34. Проверка гипотезы о распределении генеральной совокупности по закону Пуассона.
10. Теоремы сложения вероятностей.
Пусть даны два события A и B требуется определить вероятность появления хотя бы одного из этих событий.
Теорема Если события A и B несовместные, то вероятность появления одного из этих событий (сумма) равна сумме вероятностей данных событий, т.е. P(A+B)=P(A)+P(B)
Следствия:
Вероятность суммы нескольких несовместных событий A1,A2,…Ak равна сумме вероятностей этих событий, т. е. P(A1+A2+…+Ak)=P(A1)+P(A2)+P(A3)+….+P(Ak)
Если события A1,A2,…Ak образуют полную группу событий, то сумма их вероятностей равна единице.
Сумма вероятностей двух противоположных событий равна единице.
Теорема Если события A и B совместные, то вероятн появления хотя бы одного из этих событий (сумма) равна сумме вероятностей этих событий без вероятности их совместного появления, т. е. P(A+B)=P(A)+P(B)-P(AB)
11. Вероятность появления хотя бы одного события.
В некоторых случаях вероятность события удобнее подсчитывать как вероятность противоположного другому событию.
Пусть
события A1,A2,…An
попарно независимы и их вероятности
известны и равны соответственно
,
тогда вероятности противоположных им
событий
будут равны
.
Теорема
Вероятность появления хотя бы одного
из попарно независимых событий
равна
разности между единицей и произведением
вероятностей противоположных событий
,
т.е.
.
12. Формула полной вероятности.
Пусть имеется группа событий H1, H2,..., Hn, обладающая следующими свойствами:
1)
все события попарно несовместны: Hi
Hj
=;
i,
j=1,2,...,n;
ij;
2) их объединение образует пространство элементарных исходов :
=
В этом случае будем говорить, что H1, H2,...,Hn образуют полную группу событий. Такие события иногда называют гипотезами.
П
усть
А –
некоторое событие: А
(диаграмма Венна представлена на рисунке
8). Тогда имеет место формула
полной вероятности:
P(A) = P(A/ H1)P(H1) + P(A/ H2)P(H2) + ...+ P(A/ Hn)P(Hn)
Доказательство.
Очевидно: A
=
,
причем все события
(i
= 1,2,...,n)
попарно несовместны. Отсюда по теореме
сложения вероятностей получаем
P(A)
= P(
)
+ P(
)
+...+ P(
)
Если учесть, что по теореме умножения
P(
) =
P(A/Hi)P(Hi)
(i = 1,2,...,n),
то из последней формулы легко получить
приведенную выше формулу полной
вероятности.
13. Вероятности гипотез. Формула Бейеса.
Пусть
произведено испытание, в результате
которого появилось событие A.
Необходимо найти вероятности гипотез
,
после того как испытание произведено,
т. е. условные вероятности гипоте
.
Найдем сначала условную вероятность
.
По
теореме умножения
.
Отсюда
.
Аналогично
выводятся формулы остальных гипотез.
В общем случае условная вероятность
любой гипотезы
,
где
,
определяется как
Последняя формула называется формулой Байеса. Она позволяет переоценивать вероятности гипотез после того, как становится известным результат испытания, в итоге которого появилось событие A.
14. Схема независимых испытаний Бернулли.
При решении вероятностных задач часто приходится сталкиваться с ситуациями, в которых одно и тоже испытание повторяется многократно и исход каждого испытания независим от исходов других. Такой эксперимент еще называется схемой повторных независимых испытаний или схемой Бернулли.
Примеры повторных испытаний:
1) многократное извлечение из урны одного шара при условии, что вынутый шар после регистрации его цвета кладется обратно в урну;
2) повторение одним стрелком выстрелов по одной и той же мишени при условии, что вероятность удачного попадания при каждом выстреле принимается одинаковой (роль пристрелки не учитывается).
Итак,
пусть в результате испытания возможны два
исхода: либо появится событие А, либо
противоположное ему событие. Проведем
n испытаний Бернулли. Это означает, что
все n испытаний независимы; вероятность
появления события А в каждом
отдельно взятом или единичном испытании
постоянна и от испытания к испытанию
не изменяется (т.е. испытания проводятся
в одинаковых условиях). Обозначим
вероятность появления события А в
единичном испытании буквой р, т.е.
,
а вероятность противоположного события
(событие А не наступило) - буквой
.
Тогда
вероятность того, что событие А появится
в этих n испытаниях ровно k раз,
выражается формулой Бернулли