
- •Тема 1.Элементы комбинаторики
- •1.1. Размещения
- •1.2. Понятие факториала
- •1.3. Размещения с повторениями
- •1.4. Сочетания
- •Сочетания с повторениями
- •1.6. Перестановки
- •1.7. Перестановки с повторениями
- •1.8. Правила комбинаторики
- •Тема 2.Элементы теории вероятностей
- •2.1. Определение вероятности и свойства, вытекающие из её определения. Классификация событий. Диаграммы Венна
- •Полную группу можно определить так: если
- •2.2. Правила сложения и умножения вероятностей. Зависимые и независимые события
- •Тема 3. Формулы полной вероятности и байеса
- •Необходимо определить вероятность события а и переоценить вероятности событий Hi с учетом полной информации о событии а.
- •Тема 4. Дискретные случайные величины.
- •4.1. Определение дискретной случайной величины.
- •4.2.Числовые характеристики.
- •4.3. Математические операции над случайными величинами.
- •4.4. Распределения Бернулли и Пуассона.
- •4.5. Гипергеометрическое распределение.
- •5. Непрерывные случайные величины.
- •5.1. Функция распределения и плотность распределения непрерывной случайной величины.
- •5.2. Нормальное распределение
- •6. Вариационные ряды и их характеристики
- •6.1.Понятие вариационного ряда. Виды вариационных рядов.
- •6.2. Числовые характеристики вариационного ряда
- •7. Выборочный метод и статистическое оценивание
- •7.1. Основные понятия и определения выборочного метода
- •7.2. Статистическое оценивание
- •7.3. Ошибки выборки
- •Формулы расчёта ошибки выборки для собственно-случайного отбора
- •7.4. Определение численности (объема) выборки
- •Формулы расчёта необходимой численности выборки для собственно-случайного отбора
- •7.5. Интервальное оценивание
- •Тема 8. Проверка статистических гипотез
- •Статистическая проверка гипотез
Полную группу можно определить так: если
для
любой пары (i
j),
тогда A1,
A2,
… , An
- полная группа событий.
Вероятностью появления события А называют отношение числа исходов, благоприятствующих наступлению этого события, к общему числу всех единственно возможных и несовместных элементарных исходов.
Обозначим число благоприятствующих событию А исходов через М, а число всех исходов - N.
-
(2.1)
где M - целое неотрицательное число,
0
M N
Другой тип объективной вероятности определяется исходя из относительной частоты (частости) появления события. Если, к примеру, некоторая фирма в течение времени провела опрос 1000 покупателей нового сорта напитка и 20 из них оценили его как вкусный, то мы можем оценить вероятность того, что потребителям понравится новый напиток как 20/1000=0,02. В этом примере 20 - это частота наступления события, а 20/1000=0,02 - это относительная частота.
Относительной частотой события называется отношение числа испытаний m, при которых событие появилось, к общему числу проведенных испытаний n.
-
(2.2)
где m - целое неотрицательное число,
0 m n
Статистической
вероятностью события А называется
относительная частота (частость) этого
события, вычисленная по результатам
большого числа испытаний.
Будем обозначать её Р*(А).
Следовательно,
.
При очень большом числе испытаний
статистическая вероятность приближенно
равна классической вероятности, т.е. Р*
(A)
Р(A)
Для определения вероятности выпадения 1 или 2 при подбрасывании кости нам необходимо только знать “модель игры “, в данном случае - кость с 6 гранями. Мы можем определить наши шансы теоретически, без подбрасывания кости, это - априорная (доопытная) вероятность. Во втором примере мы можем определить вероятность только по результатам опыта, это - апостериорная (послеопытная) вероятность. То есть классическая вероятность - априорная, а статистическая - апостериорная.
Какой бы вид вероятности не был выбран для их вычисления и анализа используется один и тот же набор математических правил.
Свойства вероятности, вытекающие из классического определения.
1. Вероятность достоверного события равна 1, то есть Р( ) = 1.
Действительно, если событие А = , то M = N, значит Р( ) = N/N = 1.
2.Если событие невозможное, то его вероятность равна 0, то есть Р()= 0.
Если А = , то оно не осуществится ни при одном испытании, то есть M = 0 и Р() = 0/N = 0.
3.Вероятность случайного события есть положительное число, заключенное между 0 и 1.
В самом деле, та к как 0 M N , то 0 M/ N 1, то есть 0 Р(А) 1.
4.
Сумма вероятностей противоположных
событий равна 1, то есть
.
В самом деле,
А отсюда:
-
(2.3)