- •Раздел III. Теория вероятностей и математическая статискика Лекция 17. Основные понятия теории вероятностей
- •17.1. Введение. Предмет теории вероятностей
- •17.2. Краткий исторический очерк
- •17.3. Случайное событие. Его частота
- •17. 4. Классическое определение вероятности. Непосредственный подсчет вероятностей.
- •Лекция 18. Алгебра событий. Основные теоремы теории вероятностей
- •18.1. Алгебра событий
- •18.2. Теорема сложения вероятностей
- •18.3. Полная группа событий. Противоположные события
- •18.4. Теорема умножения вероятностей Независимые и зависимые события.
- •18.5. Теорема умножения вероятностей независимых событий
- •18.6. Условная вероятность
- •18.7. Теорема умножения вероятностей зависимых событий
- •Лекция 19. Основные теоремы теории вероятностей (продолжение)
- •19.1. Теорема сложения вероятностей совместных событий
- •19. 2. Формула полной вероятности
- •19.3. Формулы Бейеса (формулы переоценки вероятностей гипотез)
- •19. 4. Повторение испытаний. Формула Бернулли
- •Лекция 20. Случайные величины и их законы распределения
- •20.1. Дискретные и непрерывные случайные величины
- •Понятие закона распределения вероятностей дискретной случайной величины
- •20. 3. Биноминальное распределение
- •20. 4. Распределение Пуассона
- •20. 5. Простейший пуассоновский поток событий
- •21.2. Математическое ожидание и его основные свойства
- •21.3. Дисперсия дискретной случайной величины
- •21.4. Среднее квадратическое отклонение
- •21.5. Свойства дисперсии
- •21. 6. Понятие о моментах распределения
- •21.7. Определение интегральной функции распределения
- •21.8. Свойство интегральной функции
- •21.9. График интегральной функции
- •22.2. Вероятность попадания непрерывной случайной
- •22.3. Нахождение интегральной функции распределения по известной дифференциальной
- •22.4. Свойства дифференциальной функции. Ее вероятностный смысл
- •22.5. Математическое ожидание. Дисперсия. Среднее квадратическое отклонение
- •22.6. Начальные и центральные моменты
- •22.7. Коэффициент асимметрии
- •22.8. Эксцесс
- •22.9. Мода. Медиана
- •Лекция 23. Законы распределения непрерывной случайной величины
- •Закон равномерного распределения или закон равномерной плотности
- •23.2. Нормальное распределение
- •23.3. Вероятность попадания случайной величины, подчиненной нормальному закону, на интервал [
- •23.4. Правило трех сигм
- •Лекция 24. Система случайных величин
- •24.1. Понятие о системе случайных величин
- •24.2. Закон распределения вероятностей дискретной двумерной случайной величины
- •24.3. Интегральная и дифференциальная функция распределения двумерной случайной величины и их свойства
- •24.4. Условные законы распределения составляющих системы дискретных случайных величин
- •24.5. Числовые характеристики системы двух случайных величин
- •24.6. Коррелированность и зависимость случайных величин
- •Лекция 25. Предельные теоремы
- •25.1. Закон больших чисел
- •25.2. Теорема Чебышева
- •25.3. Теорема Бернулли
- •25.4. Центральная предельная теорема
20. 5. Простейший пуассоновский поток событий
Потоком событий называют последовательность событий, которые наступают в случайные моменты времени.
Примеры. Число поступлений вызовов на АТС, на пункт скорой помощи.
Выделим следующие 3 свойства потоков:
1. Свойство стационарности характерно тем, что вероятность появления m событий на любом промежутке времени t зависит только от числа m и от длительности t промежутка и не зависит от начала его отсчета. При этом промежутки времени предполагаются непересекающимися.
Итак, если поток обладает свойством стационарности, то Р=Р (m, t).
2. Свойство «отсутствия последствия» характеризуется тем, что предыстория потока не сказывается на вероятности появления события в ближайшем будущем.
3. Свойство ординарности характеризуется тем, что появление двух и более событий за малый промежуток времени практически невозможно.
Поток событий, обладающий указанными тремя свойствами, называется пуассоновским потоком событий.
Интенсивностью потока называется среднее число событий, появляющееся в единицу времени. Можно показать, что, если постоянная интенсивность потока известна, то вероятность появления k событий простейшего потока за время t определяется формулой Пуассона Рt (k)=
Эта формула отражает все свойства простейшего потока.
Лекция 21. Числовые характеристики
дискретной случайной величины
21.1. Числовые характеристики случайной величины.
Их роль и назначение
Закон распределения полностью характеризует случайную величину. Однако часто закон распространения неизвестен и приходится ограничиваться меньшими сведениями. Во многих вопросах практики зачастую нет необходимости полностью характеризовать случайную величину, бывает достаточно указать только отдельные числовые параметры, например, какое-то среднее значение, вокруг которого группируются значения случайной величины или какое-либо число, характеризующее степень разбросанности этих значений относительно среднего, и т.д.
Определение. Характеристики, назначение которых - выразить в сжатой форме наиболее существенные особенности распределения, называются числовыми характеристиками случайной величины.
В теории вероятностей и математической статистике применяется большое количество различных числовых характеристик: математическое ожидание, мода, медиана - это те числовые характеристики, которые характеризуют некоторое среднее значение случайной величины; дисперсия, среднее квадратическое отклонение и др. - числовые характеристики, которые характеризуют разброс значений случайной величины около среднего значения; существуют и другие числовые характеристики случайной величины, каждая из которых описывает то или иное свойство распределения, в частности, моменты.
21.2. Математическое ожидание и его основные свойства
Определение. Математическим ожиданием дискретной случайной величины называют сумму произведений всех ее возможных значений на их вероятности.
-
Х
х1
х2
...
хn
Р
р1
р2
...
рn
М (Х)=х1р1+х2р2+...+хnрn
Из определения математического ожидания ясно, что М (Х) - не случайная (постоянная) величина. Но, каков вероятностный смысл математического ожидания?
Пусть произведено n испытаний, в которых случайная величина Х приняла m1 раз значение х1, m2 раз значение х2, mk раз значение хk, тогда сумма всех значений, принятых Х, равна х1 m1+х2 m2+...+хk mk. Найдем среднее арифметическоеХ всех значений, принятых случайной величиной.
Пусть n - общее число испытаний
= или = (21.1)
Заметим, что - относительная частота появления значения х1, - относительная частота появления значения х2, ... .
= х1 р + х1 р + ...+хk р (21.2.)
Допустим, что число испытаний n достаточно велико. Тогда относительная частота приблизительно равна вероятности появления события, т.е.
р р1, р р2, ..., р рk, т.е. = М (Х)
Итак, математическое ожидание приближено (тем точнее, чем больше число испытаний) равно среднему арифметическому наблюдаемых значений случайной величины - в этом вероятностный смысл математического ожидания.
Из определения математического ожидания ясно, что если на числовой оси отложить М (Х) и значения случайной величины, то эти значения расположатся и слева, и справа от М (Х). В этом смысле математическое ожидание характеризует расположение распределения и поэтому его часто называют центром распределения или центром рассеяния.
Замечание. Происхождение термина «математическое ожидание» возникло с начальным периодом возникновения теории вероятностей (XVI - XVII век), когда область применения ограничивалась азартными картами. Игрока интересовало среднее значение ожидаемого выигрыша или математическое ожидание выигрыша.
Пример. Стрелку выдается 3 патрона. Стрельба ведется до первого попадания или пока не израсходованы все патроны. Найти математическое ожидание числа израсходованных патронов, если вероятность попадания при каждом выстреле 0,8.
Решение. Х - число израсходованных патронов.
-
Х
1
2
3
Р
0,8
0,2 0,8
0,22
М (Х)=1 0,8+2 0,2 0,8+3 0,22=1,24
Следовательно, при заданных условиях стрельбы на 100 выстрелов в среднем будет израсходовано 124 патрона.
Свойства математического ожидания.
Свойство 1. Математическое ожидание постоянной величины равно самой постоянной М (С)=С.
Доказательство. Будем рассматривать постоянную С как дискретную случайную величину, которая принимает одно возможное значение С с вероятностью р=1. М (С)=С 1=С.
Определение. Определим произведение постоянной величины С на дискретную случайную величину Х как дискретную случайную величину СХ, возможные значения которой равны произведениям постоянной С на возможные значения величины Х, а вероятности возможных значений СХ равны вероятностям соответствующих возможных значений Х, если
Х |
х1 |
х2 |
... |
хn |
|
Р |
р1 |
р2 |
... |
рn |
то, |
СХ |
Сх1 |
Сх2 |
... |
Схn |
Р |
р1 |
р2 |
... |
рn |
Свойство 2. Постоянный множитель можно выносить за знак математического ожидания: М (СХ)=С М (Х).
Доказательство.
М(СХ)=Сх1 р1+Сх2 р2+...+Схn рn=С(х1р1+х2р2+...+хnpn)=СМ (Х).
Итак, М (СХ)=СМ (Х).
Определение. Две случайные величины называют независимыми, если закон распределения одной из них не зависит от того, какие возможные значения приняла другая величина:
Определение. Несколько случайных величин называют взаимно независимыми, если законы распределения любого числа из них не зависят от того, какие возможные значения приняли остальные величины.
Определим произведение независимых случайных величин Х и Y как случайную величину Х Y, возможные значения которой равны произведениям каждого возможного значения Х на каждое возможное значение Y; вероятности возможных значений сомножителей.
Например, если вероятность Х=х1 равна р1, а вероятность Х=y1 равна g1, то вероятность ХY=х1 у1 равна р1 g1.
Свойство 3. Математическое ожидание произведение двух независимых случайных величин равно произведению их математических ожиданий:
М (ХY)=М (Х) М (Y).
Доказательство.
-
Пусть:
Х
х1
х2
и
Y
у1
у2
Р
р1
р2
Р
g1
g2
-
тогда
ХY
х1 у1
х2 у1
х1 у2
х2 у2
Р
р1 g1
р2 g1
р1 g2
р2 g2
М(ХY)=х1у1р1g1+х2у1р2g1+х1у2р1g2+х2у2р2g2=у1g1(х1р1+х2р2)+у2g2(х1р1+х2р2)=
=(х1р1+х2р2)(у1g1+у2g2)=М(Х)М(Y).
Определение. Определим сумму случайных величин Х и Y как случайную величину Х+Y, возможные значения которой равны суммам каждого возможного значения Х с каждым из возможных значений Y, Вероятности возможных значений Х+Y для независимых величин Х и Y равны произведениям вероятностей слагаемых, а для зависимых величин - произведениям вероятности одного слагаемого на условную вероятность второго.
Следующее свойство справедливо как для зависимых так и для независимых величин.
Свойство 4. Математическое ожидание суммы двух случайных величин равно сумме математических ожиданий слагаемых: М (Х+Y)=М (Х)+М (Y).
Доказательство.
-
Пусть:
Х
х1
х2
и
Y
у1
у2
Р
р1
р2
Р
g1
g2
Найдем все возможные значения случайной величины Х+Y, так что к каждому возможному значению случайной величины Х принимает каждое из возможных значений Y: х1+у1, х1+у2, х2+у1, х2+у2, Обозначим вероятность этих значений соответственно: р11, р12, р21, р22, т.е.
-
Х+Y
х1+у1
х1+у2
х2+у1
х2+у2
Р
р11
р12
р21
р22
Тогда М (Х+Y)=(х1+у1) р11+(х1+у2) р12+(х2+у1) р21+(х2+у2) р22=
=х1 (р11+р12)+х2 (р21+р22)+у1 (р11+р21)+у2 (р12+р22) (21.3.)
Докажем, что р11+р12=р1
Событие, состоящее в том, что Х=х1 (его вероятность р1) влечет за собой событие, которое состоит в том, что Х+Y=х1+у1 или х1+у2 (вероятность такого события по теореме сложения равна р11+р12).
Обратно: если Х+Y=х1+у1 или х1+у2, то это влечет то, что Х=х1.
Отсюда и следует, что р11+р12=р1.
Аналогично р21+р22=р2, р11+р21=g1, р12+р22=g2.
Подставляя правые части этих равенств в (21.3.), получим
и (Х+Y)=(х1 р1+х2 р2)+(у1 g1+y2 g2), или М (Х+Y)= М (Х)+М (Y).
Следствие 1. М (Х+Y+Z)=M (X)+M (Y)+M (Z).
Следствие 2. М (Х–Y)=M (X)–M (Y).