- •Лекция № 1 Основные понятия теории вероятностей. Классическое определение вероятности. Элементы комбинаторики.
- •1. Основные понятия теории вероятностей.
- •2. Классическое определение вероятности.
- •3. Элементы комбинаторики.
- •Лекция № 2 Алгебра событий. Аксиомы тв. Основные теоремы теории вероятностей. Модели надежности технических систем
- •1. Алгебра событий.
- •3. Основные теоремы теории вероятностей
- •Определение 4.
- •4. Модели надежности технических систем
- •Лекция № 3 Формула полной вероятности. Формула Бейеса.
- •1. Формула полной вероятности.
- •2. Формула Байеса.
- •1. Повторение опытов (схема Бернулли).
- •2. Формула Бернулли
- •3. Локальная теорема Лапласа
- •4. Интегральная теорема Лапласа
- •5. Наивероятнейшее число наступления событий.
- •Лекция № 5 Случайные величины.
- •1. Дискретные случайные величины.
- •Формы задания закона распределения дискретной случайной величины
- •2.1. Ряд распределения.
- •2.2. Многоугольник распределения.
- •2.3. Интегральная функция распределения.
- •2. Многоугольник распределения
- •3. Интегральная функция распределения
- •3. Вероятность попадания случайной величины на заданный участок
- •Лекция № 6 Числовые характеристики случайных величин.
- •1. Характеристики положения случайной величины на числовой оси.
- •Математическое ожидание не случайное число, которое в зависимости от типа случайной величины определяется по формуле:
- •На рис.6.2 показана мода непрерывной унимодальной (с одной модой) случайной величины, заданной плотностью распределения.
- •2. Моменты случайных величин. Для характеристики различных свойств случайных величин используются начальные и центральные моменты.
- •3. Свойства моментов случайных величин. Особого внимания заслуживают свойства начальных и центральных моментов первого и второго порядков.
- •Первый центральный момент μ1 любой случайной величины равен нулю.
- •Математическое ожидание.
- •Дисперсия.
- •Среднее квадратичное отклонение.
- •1.2. Закон распределения Пуассона Закон распределения Пуассона связан с редкими событиями, составляющими простейший поток событий.
- •1. Математическое ожидание.
- •2. Дисперсия.
- •3. Среднее квадратичное отклонение.
- •4. Вероятность попадания пуассоновской случайной величины на заданный участок.
- •2. Законы распределения непрерывных случайных величин.
- •2.1. Равномерный закон распределения
- •Если участок [α,β] не входит в диапазон [a,b], то выражение (7.17) не является справедливым. В этом случае необходимо руководствоваться выражением если (7.18)
- •2.2. Показательный закон распределения
- •2.3. Нормальный закон распределения
- •1. Математическое ожидание.
- •2. Дисперсия.
- •3. Среднее квадратичное отклонение.
- •Поскольку 2-й центральный момент
- •4. Вероятность попадания случайной величины на заданный участок
- •Поскольку то (7.31) перепишется как
- •3. Правило трех сигм
- •Лекция № 8 Основные задачи математической статистики. Определение законов распределения случайных величин на основе экспериментальных данных.
- •Предмет и задачи математической статистики.
- •Основные понятия.
- •3. Простейшие приемы обработки результатов наблюдений.
- •3.1 Статистическое распределение выборки.
- •Гистограмма.
- •Эмпирическая функция распределения
- •Лекция №2. Выравнивание статистических рядов. Проверка статистических гипотез.
- •Лекция №3. Оценка параметров случайных величин.
3. Основные теоремы теории вероятностей
Основные теоремы теории вероятностей позволяют по известным вероятностям простых событий определять вероятности более сложных событий.
Теорема 1. Теорема сложения вероятностей.
Вероятность суммы двух событий А и В равна сумме их вероятностей за вычетом вероятности произведения этих же событий
Р(А + В) = Р(А) + Р(В) – Р(А·В). (2.1)
Доказательство. Пусть исходы опыта образуют полную группу n несовместных равновозможных событий (рис.2.1). При этом
m из них благоприятны событию А;
k из них благоприятны событию В;
l из них благоприятны произведению событий А ·В.
Рис.2.1
Тогда согласно классической формуле определения вероятности:
Согласно той же формуле вероятность появления события А или В
Преобразуем последнее равенство:
что и требовалось доказать.
Следствие теоремы 1. Вероятность суммы двух несовместных событий А и В равна сумме их вероятностей.
-
Р(А + В) = Р(А) + Р(В) .
(2.2)
Следствие очевидно, поскольку произведение несовместных событий представляет собой невозможное событие, а вероятность невозможного события равна нулю:
Следствие легко обобщается на случай нескольких событий.
Определение 4.
События А и В называются независимыми, если вероятность события А не зависит от того, произошло событие В или не произошло.
Пример 5.
Опыт – два раза подбрасывается монета.
Событие А - появление герба при первом бросании монеты.
Событие В - появление герба при втором бросании монеты.
События независимы.
Пример 6.
Опыт – выбор шара из урны с двумя белыми и одним черным шарами.
Событие А - появление белого шара при первом вынимании.
Событие В - появление белого шара при втором вынимании.
События зависимые.
Определение 5.
Для зависимых событий А и B вероятность события B, вычисленная при условии, что событие А произошло, называется условной вероятностью и обозначается Р(с) или РА(В).
Для примера 6.
Р(А)=
,
Р(B/А)
=
.
Теорема 2. Теорема умножения вероятностей.
Вероятность произведения двух событий А и В равна вероятности события А, умноженной на условную вероятность события В при условии, что событие А произошло, или равна вероятности события В, умноженной на условную вероятность события А при условии, что событие В произошло
Р(А∙В) = Р(А) ∙ Р (B/А ) = Р(В) ∙Р (А/ B) . (2.3)
Доказательство. Пусть исходы опыта образуют полную группу n несовместных равновозможных событий (рис.2.1). При этом
m из них благоприятны событию А;
k из них благоприятны событию В;
l из них благоприятны произведению событий А ·В.
Тогда согласно классической формуле определения вероятности:
Преобразуем равенство:
Таким образом, теорема доказана.
Следствие теоремы 2. Вероятность произведения двух независимых событий А и В равна произведению их вероятностей
-
Р(А·В) = Р(А) · Р (В) .
(2.4)
Следствие довольно просто объясняется, если принять во внимание, что для независимых событий условные вероятности совпадают с безусловными:
Р(А/B)= P(A); Р (B/А ) = P(В) .
Следствие легко обобщается на случай нескольких событий.
Пример 7.
Стрелок производит три выстрела по мишени. Вероятность попадания в мишень в каждом выстреле одинакова и равна 0,9. Найти вероятность того, что в мишени будет только две пробоины.
Решение.
Опыт – три выстрела по мишени.
Событие A – после трех выстрелов в мишени будет только две пробоины.
Введем обозначения:
A1 – попадание при первом выстреле, Р(A1)=0,9;
1– промах при первом выстреле; Р( 1) = 1– Р(A1)=1– 0,9=0,01;
A2 – попадание при втором выстреле, Р(A2)=0,9;
2 – промах при втором выстреле; Р( 2) = 1 – Р(A2)=1– 0,9=0,01;
A3 – попадание при третьем выстреле, Р(A3)=0,9;
3 – промах при третьем выстреле, Р( 3) = 1 – Р(A3)=1– 0,9=0,01.
Тогда событие A можно разложить на простые следующим образом:
А = A1A2 3 + A1 2A3 + 1A2A3 .
Поскольку слагаемые в приведенном разложении соответствуют несовместным событиям, то вероятность события A будет равна сумме вероятностей этих событий (следствие теоремы 2.1):
Р(А) = Р(A1A2 3 + A1 2A3 + 1A2A3)= Р(A1A2 3) + Р(A1 2A3) + Р( 1A2A3) .
А поскольку все выстрелы являются независимыми между собой, то каждое слагаемое в последнем выражении можно представить как произведение вероятностей простых событий (следствие теоремы 2.2)
Р(А) = Р(A1)Р( A2)Р( 3) + Р(A1)Р( 2)Р(А3) +Р( 1)Р( A2)Р(А3)=
= 0,9· 0,9· 0,1+0,9·0,1· 0,9+0,1· 0,9· 0,9=3· 0,9· 0,9· 0,1=0,243.
