
- •Оглавление
- •Список принятыХ СокращениЙ
- •Введение
- •1. Типы имитационных моделей по особенностям обработки
- •Типы им по виду входного воздействия
- •2. Особенности имитационных моделей. Эксперимент
- •2. Система регулирования частоты и напряжения (срчн)
- •3. Проблемы первичной обработки экспериментальных данных
- •4. Имитация детерминированных воздействий
- •4.1. Эквивалентирование детерминированных возмущений
- •4.2. Имитация динамических детерминированных возмущений
- •4.3. Принципы аппроксимации детерминированных возмущений
- •5. Характеристики случайных возмущений
- •5.1. Скалярные случайные величины
- •5.1.1. Дискретные случайные величины
- •5.1.2. Непрерывные случайные величины
- •5.2. Векторные случайные величины
- •5.2.1. Дискретные случайные векторы
- •Задание двумерного случайного вектора
- •5.2.2. Функция распределения векторных случайных величин
- •5.2.3. Непрерывные векторные случайные величины
- •5.2.4. Числовые характеристики векторных случайных величин. Независимость случайных величин
- •5.2.5. Линейные преобразования векторных случайных величин
- •5.3. Свойства скалярных случайных процессов
- •5.4. Свойства векторных случайных процессов
- •5.4.1. Линейные преобразования векторных случайных процессов
- •5.5. Стационарные случайные процессы и их свойства
- •6. Общие принципы имитации случайных возмущений
- •6.1. Имитация случайных величин
- •6.2. Динамическая система с входным белым шумом
- •6.2.1. Реакции непрерывных стохастических систем на входной белый шум
- •6.2.2. Реакции дискретных стохастических систем на входной белый шум
- •6.2.3. Дискретная аппроксимация непрерывных стохастических систем
- •6.3. Имитация случайных процессов
- •6.3.1. Имитация стационарных случайных процессов
- •Варианты формирующих фильтров
- •6.3.2. Имитация нестационарных случайных процессов
- •6.4. Имитация вероятностных переходов
- •7. Вычислительный эксперимент с имитационной моделью
- •7.1. Выборки и их свойства
- •7.2. Статистическое распределение выборки
- •7.3. Формирование возмущений в виде случайных величин с заданными выборочными характеристиками
- •7.4. Формирование векторных случайных величин с заданными выборочными характеристиками
- •7.5. Структура данных вычислительных экспериментов для имитационных моделей различных типов
- •Структура входных данных при имитации
- •Структура выходных данных моделирования
- •8. Обработка данных компьютерных экспериментов
- •8.1. Регрессионный анализ результатов моделирования
- •8.1.1. Общая характеристика задач регрессии
- •8.1.2. Линейная регрессия. Метод наименьших квадратов
- •8.1.3. Нелинейная регрессия
- •8.2. Корреляционный анализ данных моделирования
- •8.2.1. Точечная оценка коэффициентов корреляции
- •8.2.2. Точечная оценка корреляционного отношения
- •8.3. Прогноз в статистическом моделировании
- •8.4. Анализ рисков при статистическом моделировании
- •8.5. Критерии принятия решений
- •8.5.1. Многокритериальный анализ
- •8.6. Обработка данных статистического моделирования
- •Типы выходных переменных при моделировании
- •8.6.1. Особенности стохастического режима моделирования
- •Библиографический список
- •Приложения
- •Свойства основных распределений
- •1. Равномерное распределение
- •2. Нормальное распределение
- •3. Показательное распределение
- •4. Биномиальное распределение
- •Биномиальный закон распределения
- •5. Распределение Пуассона
- •Закон распределения Пуассона
- •6. Гамма-распределение
- •7. Распределение Вейбулла
- •8. Распределение Рэлея
- •9. Распределение хи-квадрат
- •10. Распределение Стьюдента (t-распределение)
- •11. Распределение Фишера (f-распределение)
- •Приложение 2
- •Производная и
- •Интеграл случайной функции
- •Производная случайной функции
- •Сходимость в среднем квадратическом
- •Производная случайной функции
- •Интеграл случайной функции [3]
5.2.4. Числовые характеристики векторных случайных величин. Независимость случайных величин
Ранее, при рассмотрении скалярных случайных величин были введены их числовые характеристики, использующие понятия начальных и центральных моментов соответствующих порядков. Эти числовые характеристики могут быть использованы для описания отдельных составляющих случайного вектора. При этом можно говорить об определенном расширении, проецировании введенных ранее числовых характеристик на векторный случай. Так, математическое ожидание случайной величины переходит для случайного вектора в вектор математических ожиданий, дисперсия — в матрицу вторых центральных моментов или ковариационную матрицу. Однако переход от скалярных случайных величин к векторным сопровождается не только увеличением совокупности одноименных числовых характеристик распределений. Появляются новые параметры, устанавливающие степень взаимообусловленности (взаимосвязи, взаимозависимости) отдельных элементов случайного вектора, так называемые корреляционные моменты и коэффициенты корреляции. Как и ранее, все числовые характеристики векторных случайных величин — не случайны.
Более детально числовые характеристики в. с. в. рассматриваются в следующих разделах. Здесь дадим лишь определение моментов распределения первого и второго порядков в. с. в., которые наиболее широко используются в практике анализа многомерных распределений, и рассмотрим понятия зависимости и независимости случайных величин — элементов случайного вектора.
Аналогично скалярному случаю, применительно к в. с. в. числовые характеристики объединяются понятиями начального и центрального моментов, которые, как и в случае скалярных случайных величин, неслучайны.
Пусть Х ‑ (n 1)-векторная случайная величина
Х = | X1, X2 , . . . , Xn |T. (5.58)
Начальным моментом первого порядка для n-мерной векторной случайной величины (5.58) называют n-мерный вектор М(Х) = mх, удовлетворяющий соотношениям
M(X)
= mх
=
dx1
. . . dxn;
(5.59)
M(X)
= mх
=
;
(5.60)
для непрерывного и дискретного случайных векторов соответственно. Здесь и далее предполагается, что все интегралы и суммы существуют и сходятся абсолютно, поэтому порядок интегрирования (суммирования) можно менять без изменения результата.
Моменты (5.59) и (5.60) называются математическим ожиданием непрерывного и дискретного случайных векторов.
Опираясь на материал пп. 5.2.1 и 5.2.3, легко показать, что математическое ожидание векторной случайной величины Х есть неслучайный вектор, состоящий из математических ожиданий ее отдельных составляющих.
.
(5.61)
Аналогичное
утверждение справедливо и для матриц.
Математическое ожидание случайной
матрицы есть матрица, каждый ij-ый
элемент которой ‑ математическое
ожидание элемента аij
матрицы A
(
;
).
.
(5.62)
Так же, как и для случайной величины, при определении центральных моментов вектора (5.58) используется операция центрирования.
Центрированным случайным вектором называют вектор
X0 = Х – mх. (5.63)
Матрицей центральных моментов второго порядка случайного вектора Х (5.58) называют матрицу, образованную математическим ожиданием произведения центрированных случайных векторов (5.63):
.
= cov(Х).
(5.64)
Матрица Р носит название ковариационной матрицы. Нетрудно видеть, что матрица (5.64) ‑ квадратная, порядка n, симметричная. На ее главной диагонали расположены дисперсии элементов вектора Х (5.58):
=
(5.65)
и смешанные центральные моменты ‑ недиагональные элементы P
Kij
=
;
|Kij|
≤ i∙j.
(5.66)
Параметры Kij носят название корреляционных моментов; они определяют степень взаимной обусловленности случайных величин Хi и Хj.
Таким образом, структура матрицы P включает дисперсии составляющих случайного вектора на диагонали и корреляционные моменты на недиагональных позициях:
P
=
.
(5.67)
В практике анализа взаимной зависимости случайных величин используется безразмерный параметр — коэффициент корреляции
rij = Kij/ i ∙j. (5.68)
Корреляционному анализу посвящен п. 8.2, поэтому ограничимся здесь указанием основного свойства коэффициента корреляции:
|
raj
|
.
Анализ взаимной обусловленности случайных величин неизбежно приводит к необходимости введения понятия их независимости, т. е. отсутствия вероятностной связи между ними.
Случайные величины X1, X2, …, Xn называют (взаимно) независимыми, если независимы в совокупности события X1 < х1 , … , Xn < хn , т. е.
P[(Х1 < x1) (Х2 < x2)…(Хn < xn)] = P(Х1 < x1)P(Х2 < x2)…P(Хn < xn) (5.69)
для произвольного набора действительных чисел (x1, …, xn).
Необходимые и достаточные условия независимости случайных величин определяются следующей теоремой [3], которая приводится здесь без доказательства:
Теорема. Для независимости случайных величин Х1, …, Хn необходимо и достаточно, чтобы функция распределения (x1, …, xn) была равна произведению функций распределения отдельных случайных величин:
(x1, …, xn) = F1(х1) F2(х2) … Fn(хn). (5.70)
Эта теорема имеет следствия.
Следствие 1. Для независимости непрерывных случайных величин Х1, …, Хn необходимо и достаточно, чтобы их совместная плотность распределения была равна произведению плотностей распределения отдельных случайных величин:
(x1,
…, xn)
= f1(х1)
f2(х2)
…
fn(хn).
(5.71)
Следствие 2. Для независимости дискретных случайных величин Х1, …, Хn необходимо и достаточно, чтобы вероятность совместного появления событий Хi = xi ( ) была равна произведению вероятностей каждого из событий в отдельности:
P[(Х1 = x1)(Х2 = x2)…(Хn = xn)]=P(Х1 = x1)P(Х2 = x2)…P(Хn = xn) (5.72)
Анализ необходимых и достаточных условий независимости случайных величин позволяет дать и другие определения независимости, опираясь на выражения (5.70)-(5.72).
1. Случайные величины Х1, ..., Хn называются независимыми, если функция их совместного распределения равна произведению функций распределения каждой из случайных величин:
(x1, …, xn) = F1(х1) F2(х2) … Fn(хn).
2. Непрерывные случайные величины Х1, ..., Хn называются независимыми, если плотность их совместного распределения равна произведению плотностей распределения каждой из случайных величин:
(x1, …, xn) = f1(х1) f2(х2) … fn(хn).
3. Дискретные случайные величины Х1, ..., Хn называются независимыми, если вероятность совместного появления событий Хi = xi ( ) равна произведению вероятностей каждого из событий Хi = xi в отдельности:
P[(Х1 = x1)(Х2 = x2)…(Хn = xn)] = P(Х1 = x1) P(Х2 = x2) … P(Хn = xn).
4. Случайные величины Х1, ..., Хn называются независимыми, если закон распределения каждой из них не зависит от того, какие значения принимают другие.
Ниже будет показано, что коэффициент корреляции и корреляционный момент пары независимых случайных величин равны нулю. В этом случае говорят о некоррелированности этих случайных величин. Таким образом, из независимости случайных величин всегда следует их некоррелированность. Обратное утверждение неверно.
Завершая краткое описание числовых характеристики в. с. в., остановимся на основных свойствах математического ожидания случайного вектора, имеющих широкое применение при решении прикладных задач имитационного моделирования. Эти свойства будут справедливы и для случайных матриц. Это расширение очевидно и, как правило, не будет отдельно оговариваться ниже.
1. Если A — неслучайная матрица в (частном случае — вектор), то
M(A) = A. (5.73)
2. Если A ‑ неслучайная матрица, X ‑ случайный вектор (матрица), и размерности A и X согласованы, то
M(AX) = AM(X); M[(AX)T] = M(XTAT) = M(XT)AT. (5.74)
3. Если X и Y ‑ случайные векторы (матрицы), то
M(X + Y) = M(X) + M(Y). (5.75)
4. Если A, B ‑ неслучайные матрицы, X, Y ‑ случайные векторы (матрицы) согласованной размерности, то
M(AX + BY) = AM(X) + BM(Y). (5.76)
5. Математическое ожидание произведения произвольного числа независимых случайных величин X1, X2, …, Xn равно произведению их математических ожиданий
M(X1 X2 … Xn) = M(X1) M (X2) … M(Xn). (5.77)
Из основных свойств математического ожидания случайного вектора непосредственно следует, что математическое ожидание центрированного вектора (5.63) равно нулю:
(5.78)