- •Тема 1. Основные понятия теории случайных процессов 68
- •Понятие подмножества. Свойства подмножеств.
- •Операции над множествами.
- •Дистрибутивные законы.
- •Законы Моргана.
- •Конечные множества и их элементы.
- •Понятие алгебры множеств σ – алгебры.
- •Борелевские множества. Борелевскаяσ– алгебра.
- •Выбор с возвращением.
- •Выборка без возвращения.
- •Размещения с повторениями.
- •Теория вероятностей. События и их классификация.
- •Операции над событиями.
- •Понятие вероятности.
- •Вечерняя электричка.
- •Геометрический подход.
- •Задача Бюффона.
- •Аксиоматический подход к вероятности. Вероятностное пространство. Аксиомы вероятности Колмогорова.
- •Вероятности, вытекающие из аксиом.
- •Задача о совпадениях.
- •Условная вероятность. Правило умножения вероятностей.
- •Независимость событий.
- •Задача о наилучшем выборе.
- •Расчет работоспособности цепей
- •Формула полной вероятности.
- •Задача о разорении игрока.
- •Формула вероятностей гипотез. (Формула Байеса)
- •Случайные величины.
- •Дискретные случайные величины.
- •Свойства функции распределения.
- •Биноминальное распределение (Независимые испытания по схеме Бернулли).
- •Асимптотическое представление формулы Бернулли.
- •Теорема (формула) Пуассона.
- •Локальная теорема Муавра-Лапласа.
- •Интегральная теорема Муавра-Лапласа.
- •Независимые случайные величины
- •Операции над случайными величинами:
- •Математическое ожидание
- •Свойства математического ожидания
- •Функции случайного аргумента и их мат. Ожидание.
- •Дисперсия
- •Свойства дисперсии
- •Свойства условных вероятностей и плотностей вероятностей
- •Условное математическое ожидание
- •Корреляционный момент (корреляция) двух случайных величин
- •Свойства корреляционного момента
- •Коэффициент корреляции и его свойства
- •Свойства
- •Уравнения Регрессии
- •Характеристики
- •Неравенство Чебышева
- •Нормальное распределение с параметрами (а;σ)
- •Основные свойства кривой Гаусса
- •Расчет доверительных интервалов
- •Некоторые важнейшие распределения связанные с нормальным. - распределение.
- •Распределение Стьюдента (t– распределение)
- •Распределение Фишера-Снедекора (f– распределение).
- •Закон больших чисел.
- •Теорема Чебышева.
- •Теорема Бернулли.
- •1. Биноминальное распределение.
- •2. Распределение Пуассона.
- •3. Геометрическое распределение.
- •Введение в теорию случайных процессов тема 1. Основные понятия теории случайных процессов
- •1.1. Определение случайного процесса. Основные подходы к заданию случайных процессов. Понятие реализации и сечения. Элементарные случайные процессы.
- •1.2. Некоторые классы и виды случайных процессов
- •2.2. Математическое ожидание и дисперсия случайного процесса. Среднеквадратическое отклонение
- •2.3. Корреляционная функция случайного процесса и ее свойства. Нормированная корреляционная функция
- •2.4. Взаимная корреляционная функция и нормированная взаимная корреляционная функция двух случайных процессов
- •2.5 Вероятностные характеристики суммы двух случайных величин
- •Тема 3. Элементы случайного анализа
- •3.1. Сходимость и непрерывность
- •1. Классические виды сходимости
- •2. Сходимость по вероятности
- •3. Сходимость в среднем в степени p1
- •3.3. Интеграл от случайного процесса и его свойства
- •ТеМа 4. Канонические разложения случайных процессов
- •4.1. Понятие канонического разложения случайного процесса
- •4.2. Понятие обобщенной функции. Дельта-функция Дирака. Интегральное каноническое представление случайных процессов.
- •4.3. Линейные и нелинейные преобразования случайных процессов
- •Глава 5. Стационарные cлучайные процессы
- •5.1. Понятие стационарного случайного процесса. Стационарность в узком и широком смыслах
- •5.2 Свойства вероятностных характеристик стационарного случайного процесса
- •5.3. Стационарно связанные случайные процессы. Производная и интеграл от стационарного случайного процесса
- •5.4. Эргодические стационарные случайные процессы и их характеристики
- •Эргодическая теорема Биркгофа-Хинчина
- •Для ссп с непрерывным временем, для ссп с дискретным временем.
- •Достаточные условия эргодичности
Задача о совпадениях.
Идёт экзамен по теории вероятности. Все студенты складывают свои зачетки на стол. Преподаватель наугад берет зачетку и выставляет оценку и вручает студенту. Какова вероятность, что хотя бы один студент получит свою зачетку.
события попарно не совместны
i–й студент получил свою
зачетку.
-
?
=![]()
Р(
)
=
= Р(
)
=


![]()
3)
![]()
![]()
4)
![]()
![]()
При
![]()
![]()
![]()
Условная вероятность. Правило умножения вероятностей.
Опр. 1: Условной вероятностью события А при условии В называется вероятность события А в предположении, что событие В состоялось.
Р(А|В);
вероятность события А при условии В.
Опр. 2: Условной вероятностью события А при условии В называется отношение вероятности произведений этих событий к вероятности события В.
(если эта вероятность не равна 0)
![]()
![]()
Р(А∙В) = Р(А|B) ∙P(B) =P(B|A) ∙P(A) правило умножения вероятностей
Следствие:![]()
Замечание № 1:в рамках классического подхода условная вероятность выводится
Ω B
k l
n
P(B|A) =
Замечание № 2:Условное вероятность
определяет новое вероятностное
пространство (Ω,
А,
)
Все свойства вероятности сохраняются
1)![]()
2)
![]()
3)

Если
то
![]()
4)
![]()
![]()
Независимость событий.
Опр. 1: Два события называются независимыми если информация о том произошло или нет одно из них не влияет на вероятность другого.
Р(А)=
![]()
Р(В) =
![]()
Опр. 2: Несколько событий называются попарно независимыми, если каждые два из них независимы.
Опр.3:Несколько событий называются независимыми в совокупности, если они попарно независимы и каждое событие не зависит от всевозможных произведений остальных событий.
Пример:А,В,С – попарно независимы. Тогда независимы А и В, В и С,А и С. Если в совокупности, то А и В,В и С,А и С,А и ВС,В и АС,С и АВ.
Теорема 1:Если событие А и В независимы, то вероятность Р(АВ)=Р(А)∙Р(В)
Теорема 2:Если события
,
независимы в совокупности, то Р(
)
=![]()
Пример 1:Есть 4 числа: 2,3,5,30
- вытащенное число делится на 2,3,5
![]()
1)Р(
)=Р(
)=Р(
)=![]()
![]()
попарно независимы![]()
2)Р(
)=
=![]()
3)
в совокупности зависимы
Пример 2:
2 6 8 6 8 1
![]()
![]()
![]()
![]()
![]()
В В![]()
![]()
А А![]()
24 24
Р(А) =
Р(А) =![]()
Р(В)=
Р(В)=![]()
Р(АВ)=
Р(АВ)=![]()
Р(АВ)=Р(А)∙Р(В) Р(АВ)≠Р(А)∙Р(В)
Это означает, что А и В независимы Это означает, что А и В зависимы
P(A)=P(A|B) P(A)≠P(A|B)
Пример 3: 1)Имеется колода карт из 36 карт
А – вытянули пику
В – вытянули даму
Р
(А)
Р(АВ)
= Р(А)∙Р(В) события независимы
Р
(В)![]()
Р(АВ)![]()
2)В колоду добавили джокера
Р
(А)
Р(АВ)
≠ Р(А)∙Р(В) события зависимы
Р
(В)![]()
Р(АВ)![]()
Замечание:при установлении независимости А и В часто используют следующий принцип: события А и В, реальные прообразы которых причинно независимы считаются независимыми и в теоретико-вероятностном смысле.
Задача о наилучшем выборе.
Имеется nпредметов разного качества. Задача заключается в том чтобы выбрать предмет наилучшего качества. Случайным образом извлекают первый предмет. На этом опыт может закончится. Если эксперимент продолжается, то остановится можно лишь в тот момент, когда вытащенный предмет лучше всех предыдущих, предположим, что предмет, извлечённый на шаге к лучше всех предыдущих. Какова вероятность, что он при этом окажется абсолютно лучшим.
А – предмет, вытащенный на шаге к наилучший
В – предмет, вытащенный на шаге к- лучший среди вытащенных
P(A|B) - ?
P(A|B)
=
т.к А подмножество В
Р(А)=

Р(В)=

Р(А|B)=

