- •Лекция № 1 Место и роль дисциплины в общеобразовательной структуре
- •Алгебра случайных событий
- •Понятие вероятности случайного события.
- •Лекция №2 Статистическая устойчивость вероятности события.
- •Аксиоматическое определение вероятности (по Колмагорову).
- •Элементарные теоремы теории вероятности.
- •Теорема вероятности полной группы событий.
- •Теорема сложения вероятностей.
- •Лекция № 3. Теорема о полной вероятности
- •(Схема независимых последовательных испытаний длиной n)
- •Биноминальное распределение (1) случайной величины
- •Геометрическая вероятность случайного события
- •Лекция №4 Полиномиальное распределение (схемы)
- •Ассимтотические приближения биноминального распределения (для схемы Бернулли)
- •3Способа аппроксимации данной формулы:
- •Лекция №5 Случайная величина
- •Функция распределения для непрерывной случайной величины
- •Лекция №6 Числовые характеристики случайной величины
- •Моментные характеристики
- •Центрированные моменты Центральные моменты
- •Дисперсия для непрерывной случайной величины
- •Лекция № 7
- •Примеры распределения случайной величины.
- •Лекция № 8
- •Лекция № 9
- •Лекция № 10
- •Лекция № 11 Теорема числовых характеристик
- •Лекция № 12 Центральные предельные теоремы
- •Случайные процессы
- •Свойства случайного процесса
- •Лекция № 13
- •Лекция № 14 Разложение апериодических случайных процессов.
- •Спектральная плотность случайного процесса.
- •Лекция № 15
- •Лекция № 16
- •Основные задачи математической статистики
- •Лекция №17 Задача оценивания параметров распределения Формальная постановка задачи
- •Лекция №18 Представление об интервальных оценках
- •Лекция 19 Логическая схема проведения испытаний статистической гипотезы.
- •Лекция № 20 Корреляционный и регрессионный анализ
- •Лекция № 21 Анализ временных рядов
Свойства случайного процесса
Нас интересует какая-то реализация системы с каждой случайной величиной. Нас интересуют вероятностные свойства системы сечений, т.к. сечение случайного процесса образует систему случайных величин, то для описания вероятностных свойств будем пользоваться функцией распределения совместной вероятности, определенной в разделе случайных величин.
F(x1,x2,…,xn) = P{X1 ≤ x1, X2 ≤ x2,…,Xn ≤ xn}
Все события должны произойти совместно. В силу того, что интерес представляет изучение временных свойств системы в отношении между сечениями системы. Переписываем значение обозначение случайных величин, входящих в систему.
(*) (x1,x2,x3,…xn) = P {X1 ≤ x1, X2 ≤ x2,…,Xn ≤ xn} – указываем смысл функции
Особенности
1.Вероятность зависит как от значения аргумента функции, так и от моментов наблюдения, где моменты наблюдения расположены на оси времени. Для того, чтобы упростить рассмотрение выделяют 2 группы случайных процессов:
стационарные случайные процессы;
нестационарные случайные процессы.
Уточним понятие стационарности. Различают стационарность в широком и узком смысле, когда (*) не зависит от сдвига точек t0,t1,ti ,tn на некоторый шаг вдоль оси времени.
- сдвигаем распределение на шаг h. В этом заключается стационарность в узком смысле.
Для того, чтобы ввести понятие стационарность в широком смысле нужно определить числовые характеристики случайного процесса. Из множества числовых характеристик используют мат. ожидание, дисперсию и функцию корреляции.
Мат ожидание случайного процесса – это неслучайная функция аргумента t.
M[X(t)] = m(t)
Чтобы построить эту функцию поступают следующим образом: определяют для случайного процесса множество сечений. Для каждого сечения определяют мат. ожидание соединяют полученные точки главной кривой – эта кривая и является мат. ожиданием случайного процесса.
Мат. ожидание случайного процесса
x(t) – есть неслучайная функция аргумента t , значение которого при фиксированном значении аргумента, есть мат. ожидание соответственного сечения. Смысл мат. ожидания – среднее значение. Чтобы уточнить своеобразное отклонение находим дисперсию случайного процесса.
Дисперсия – это есть неслучайная функция аргумента t , значение которого при фиксированном значении аргумента, есть дисперсия соответственного сечения.
Чтобы построить дисперсию случайного процесса, нужно для каждого сечения найти дисперсию и полученные точки соединить плавной линией.
Функция корреляции является аналогом корреляционного момента.
0 0
k(x1,x2) = M[x1,x2] Является признаком стохастической связи.
Рассмотрим ось времени t. Выделяем пару случайных величин.
X1 X2
t1 t2
Обращаемся к образцу случайного процесса. Случайному процессу можем поставить в соответствие корреляционную функцию, которая будет зависеть от времени: 0 0
k(x1,x2) = M[x1(t1),x2(t2)]
0
x(t1) = x (t1) – m(t1)t
Корреляционная функция определяется из корреляционного момента при условии, что точки наблюдения t1 и t2 рассматриваются как независимые переменные.
Таким образом, функция корреляционного случайного процесса определяют при фиксированных значениях переменных t1 и t2 степень вероятностной связи между соответствующими сечениями случайного процесса.
Опираясь на свойства введенных числовых характеристик M(t1), D(t1), k(t1,t2) можно дать определение стационарности случайного процесса в широком смысле.
Случайный процесс называют стационарным в широком смысле, если мат. ожидание его не зависит от времени, а функция корреляции зависит только от одного аргумента τ.
m(t) = mx
D
(1)
k(t1,t2) = k(τ)
| t1 - t2| = τ может иметь знак как «+», так и «-»
Если (1) выполняется, то процесс называют стационарным в широком смысле, если не выполняется хотя бы одно из равенств – это не стационарный процесс.