![](/user_photo/2706_HbeT2.jpg)
- •Оглавление
- •Глава 1. Теория вероятностей 10
- •Глава 2. Математическая статистика 44
- •Глава 3. Случайные процессы 67
- •Введение
- •Глава 1. Теория вероятностей
- •1.1. Случайные события Основные понятия теории вероятностей
- •Основные определения
- •Операции над случайными событиями
- •Элементы комбинаторики
- •Классическое определение вероятности
- •Свойства вероятности
- •Вопросы для самопроверки
- •1.2. Теоремы сложения и умножения вероятностей Теорема сложения вероятностей
- •Теорема умножения вероятностей Условная вероятность
- •Обобщенная теорема умножения вероятностей
- •Независимость случайных событий
- •Вопросы для самопроверки
- •1.3. Формула Бернулли. Формула полной вероятности Повторение испытаний. Формула Бернулли
- •Формула полной вероятности
- •Вопросы для самопроверки
- •1.4. Дискретные случайные величины
- •Закон распределения дискретной случайной величины
- •Биномиально распределенные случайные величины
- •Математическое ожидание случайной величины
- •Свойства математического ожидания
- •Дисперсия случайной величины
- •Свойства дисперсии
- •Функция распределения случайной величины
- •Свойства функции распределения
- •Вопросы для самопроверки
- •1.5. Непрерывные случайные величины
- •Плотность вероятности непрерывной случайной величины
- •Cвойства функции плотности вероятности
- •Нормальное распределение
- •Правило трех сигм
- •Независимость случайных величин. Коэффициент корреляции
- •Свойства коэффициента корреляции
- •Предельные теоремы теории вероятностей
- •Закон больших чисел в форме Чебышева
- •Следствия из закона больших чисел
- •Центральная предельная теорема (теорема Ляпунова)
- •Вопросы для самопроверки
- •Глава 2. Математическая статистика
- •2.1. Основные понятия математической статистики
- •Приемы обработки выборок
- •Построение гистограммы относительных частот
- •Точечные оценки параметров генеральной совокупности
- •Дополнительные свойства точечных оценок
- •Проверка взаимозависимости генеральных совокупностей. Выборочный коэффициент корреляции
- •Интервальные оценки параметров генеральной совокупности
- •Вопросы для самопроверки
- •2.2. Статистическая проверка статистических гипотез
- •Этапы проверки статистических гипотез
- •Проверка гипотез о параметрах генеральных совокупностей
- •Проверка гипотезы о виде распределения генеральной совокупности. Критерий согласия Пирсона
- •Вопросы для самопроверки
- •Глава 3. Случайные процессы
- •3.1. Элементы теории случайных процессов Определение случайного процесса
- •Основные характеристики случайных процессов
- •Свойства математического ожидания
- •Дисперсия случайного процесса и ее свойства
- •Корреляционная функция случайного процесса и ее свойства
- •Нормированная корреляционная функция
- •Взаимная корреляционная функция и ее свойства
- •Нормированная взаимная корреляционная функция
- •Производная и интеграл от случайной функции
- •Интеграл от случайной функции и его характеристики
- •Вопросы для самопроверки
- •Заключение
- •Библиографический список
Нормированная корреляционная функция
=
/(
(t1)
(t2))
– называется нормированной корреляционной
функцией, здесь
(t) = (Dx(t))½.
Докажем,
что |
|
≤ 1. Это следует из того, что при
фиксированных t1
и t2
величина
равна коэффициенту корреляции двух
случайных величин, Х(t1)
и Х(t2),
соответствующее свойство которого
доказано в пункте 5.3.
Используя свойство 1 корреляционной функции, получим:
=
/
Dx(t) = 1.
Нормированная корреляционная функция имеет следующий вероятностный смысл: чем ближе | | к 1, тем линейная связь между сечениями Х(t1) и Х(t2) сильнее; чем ближе | | к 0, тем эта связь слабее.
Пример.
Пусть
X(t) =
N(a,
σ).
Найдем
mx(t),
Dx(t),
,
.
Согласно свойству 2 математического ожидания и свойству 3 дисперсии приходим к соотношениям:
mx(t) = M[ N(a, σ)] = M[N(a, σ)] = a,
Dx(t) = D[
N(a,
σ)] =
D[N(a,
σ)] =
σ².
Имеем далее
=
N(a,
σ)–
mx(t) =
(N(a,
σ)
– a) =
(a,
σ).
Тогда по свойству 4 корреляционной функции получим:
= M[
] = M[
(a,
σ)
(a,
σ)] =
=
М[
(a,
σ)] =
σ².
В результате = /( (t1) (t2)) = 1.
Из последнего равенства следует, что случайные процессы Х(t1) и Х(t2) линейно зависимы.
Взаимная корреляционная функция и ее свойства
Для оценки степени зависимости двух случайных процессов X(t) и Y(t) вводится взаимная корреляционная функция
= M[
].
Случайные
процессы X(t)
и Y(t)
называют коррелированными,
если
≠0
для некоторых t1,
t2,
и некоррелированными,
если
= 0
для всех t1,
t2.
Свойства .
1.
=
.
2.
Пусть
X1(t) = X(t)+φ(t),
Y1(t) = Y(t)+
(t),
где
φ(t),
(t)
– неслучайные
функции.
Тогда
=
.
3. Пусть X1(t) = X(t)φ(t), Y1(t) = Y(t) (t), где φ(t), (t) – неслучайные функции. Тогда = φ(t1) (t2) .
Свойства 1–3 доказываются точно так же, как аналогичные свойства для корреляционной функции.
Нормированная взаимная корреляционная функция
=
/(
(t1)
(t2))
– называется нормированной взаимной
корреляционной функцией, здесь
(t) = (Dx(t))½,
(
) = (D
(t))½.
Нормированная взаимная корреляционная функция имеет те же свойства, что и нормированная корреляционная функция, в частности, | | ≤ 1.
Характеристики суммы случайных функций
Пусть
X(t)
и Y(t)
– случайные функции. Положим
Z(t) = X(t)
+
+
Y(t).
Тогда по
свойству 3 математического ожидания
имеем m
(t) = m
(t)
+ m
(t).
Cправедливо утверждение:
=
+
+
+
.
Доказательство. По определению
= M[
]. (15)
Найдем
выражение для
и подставим его в правую часть равенства
(15). Для этого докажем, что
=
+
.
Действительно
= Z(t) –
mz(t) = X(t)+
Y(t)
– M[X(t)+
Y(t)]=
+
+
.
Подставляя
в (15) и
привлекая свойство 3 математического
ожидания, получим:
= M[( + )( + )] = M[ +
+ + + ] = M[ ] +
+ M[ ]+M[ ]+M[ ].
Согласно определениям корреляционной функции и взаимной корреляционной функции утверждение доказано.
Следствие 1. Пусть X(t) и Y(t) – некоррелированные случайные функции (т.е. = 0 для всех t1, t2).
Тогда = + , Dz(t) = Dx(t)+Dy(t).
В самом деле, первое равенство следствия 1 вытекает из доказанного утверждения при = = 0, второе следует из первого при t1 = t2 = t.
Следствие
2. Пусть в
условиях следствия 1 Y(t)
≡ Y – случайная
величина. Тогда
=
+
Dy.
Доказательство следует из формулы
= M[
] = Dy
и следствия
1.
Пример.
Пусть
X(t) = tU,
Y(t) = t²V,
где U
и V
– некорре-лированные случайные величины
(
= 0),
причем M(U) = 3,
M(V) = 5,
D(U) = 6,
D(V) = 0.2.
Найдем
mz(t),
Dz(t),
,
где
Z(t) = X(t)
+ Y(t).
Согласно свойствам математического ожидания M[Z(t)] = M[X(t)] + M[Y(t)] = 3t + 5t². Из следствия 1 получим = + . Вычислим и .
Имеем
= M[
] = M[t1
t2
] =
= t1
t2
M[
] = t1
t2
D(U) = 6
t1
t2.
Аналогичным
образом получим
= 0.2(t1
t2)2.
Следовательно,
= 6
+ + 0.2
(t1
t2)2,
Dz(t) =
= 6t2+0.2t4.