
- •Оглавление
- •Список принятыХ СокращениЙ
- •Введение
- •1. Типы имитационных моделей по особенностям обработки
- •Типы им по виду входного воздействия
- •2. Особенности имитационных моделей. Эксперимент
- •2. Система регулирования частоты и напряжения (срчн)
- •3. Проблемы первичной обработки экспериментальных данных
- •4. Имитация детерминированных воздействий
- •4.1. Эквивалентирование детерминированных возмущений
- •4.2. Имитация динамических детерминированных возмущений
- •4.3. Принципы аппроксимации детерминированных возмущений
- •5. Характеристики случайных возмущений
- •5.1. Скалярные случайные величины
- •5.1.1. Дискретные случайные величины
- •5.1.2. Непрерывные случайные величины
- •5.2. Векторные случайные величины
- •5.2.1. Дискретные случайные векторы
- •Задание двумерного случайного вектора
- •5.2.2. Функция распределения векторных случайных величин
- •5.2.3. Непрерывные векторные случайные величины
- •5.2.4. Числовые характеристики векторных случайных величин. Независимость случайных величин
- •5.2.5. Линейные преобразования векторных случайных величин
- •5.3. Свойства скалярных случайных процессов
- •5.4. Свойства векторных случайных процессов
- •5.4.1. Линейные преобразования векторных случайных процессов
- •5.5. Стационарные случайные процессы и их свойства
- •6. Общие принципы имитации случайных возмущений
- •6.1. Имитация случайных величин
- •6.2. Динамическая система с входным белым шумом
- •6.2.1. Реакции непрерывных стохастических систем на входной белый шум
- •6.2.2. Реакции дискретных стохастических систем на входной белый шум
- •6.2.3. Дискретная аппроксимация непрерывных стохастических систем
- •6.3. Имитация случайных процессов
- •6.3.1. Имитация стационарных случайных процессов
- •Варианты формирующих фильтров
- •6.3.2. Имитация нестационарных случайных процессов
- •6.4. Имитация вероятностных переходов
- •7. Вычислительный эксперимент с имитационной моделью
- •7.1. Выборки и их свойства
- •7.2. Статистическое распределение выборки
- •7.3. Формирование возмущений в виде случайных величин с заданными выборочными характеристиками
- •7.4. Формирование векторных случайных величин с заданными выборочными характеристиками
- •7.5. Структура данных вычислительных экспериментов для имитационных моделей различных типов
- •Структура входных данных при имитации
- •Структура выходных данных моделирования
- •8. Обработка данных компьютерных экспериментов
- •8.1. Регрессионный анализ результатов моделирования
- •8.1.1. Общая характеристика задач регрессии
- •8.1.2. Линейная регрессия. Метод наименьших квадратов
- •8.1.3. Нелинейная регрессия
- •8.2. Корреляционный анализ данных моделирования
- •8.2.1. Точечная оценка коэффициентов корреляции
- •8.2.2. Точечная оценка корреляционного отношения
- •8.3. Прогноз в статистическом моделировании
- •8.4. Анализ рисков при статистическом моделировании
- •8.5. Критерии принятия решений
- •8.5.1. Многокритериальный анализ
- •8.6. Обработка данных статистического моделирования
- •Типы выходных переменных при моделировании
- •8.6.1. Особенности стохастического режима моделирования
- •Библиографический список
- •Приложения
- •Свойства основных распределений
- •1. Равномерное распределение
- •2. Нормальное распределение
- •3. Показательное распределение
- •4. Биномиальное распределение
- •Биномиальный закон распределения
- •5. Распределение Пуассона
- •Закон распределения Пуассона
- •6. Гамма-распределение
- •7. Распределение Вейбулла
- •8. Распределение Рэлея
- •9. Распределение хи-квадрат
- •10. Распределение Стьюдента (t-распределение)
- •11. Распределение Фишера (f-распределение)
- •Приложение 2
- •Производная и
- •Интеграл случайной функции
- •Производная случайной функции
- •Сходимость в среднем квадратическом
- •Производная случайной функции
- •Интеграл случайной функции [3]
Структура выходных данных моделирования
Тип ИМ |
Возмущение |
Выход ИМ |
Структура выходных данных |
Стационарная ИМ |
сл. в. или в. сл. в. |
m = 1 |
(1 n)-строка данных |
m > 1 |
(m n)-матрица данных |
||
сл. пр. или в. сл. пр. |
m = 1 |
(1 n)-строка реализаций |
|
m > 1 |
(m n)-матрица реализаций |
||
Динамическая ИМ |
сл. в. или в. сл. в. |
m = 1 |
(1 n)-строка реализаций |
m > 1 |
(m n)-матрица реализаций |
||
сл. пр. или в. сл. пр. |
m = 1 |
(1 n)-строка реализаций |
|
m > 1 |
(m n)-матрица реализаций |
8. Обработка данных компьютерных экспериментов
Результаты статистического моделирования, как следует из п. 7, представляют собой совокупности данных, отражающие свойства скалярных или векторных случайных величин и случайных процессов. Поскольку, в общем случае, обработка совокупностей реализаций случайных процессов производится по сечениям, основной составляющей процедур обработки результатов компьютерных экспериментов становится совокупность алгоритмов анализа скалярных и векторных случайных величин. В эту совокупность входят алгоритмы решения задач точечного и интервального оценивания, задач построения гистограмм и проверки гипотез, задач регрессии, точечного и интервального оценивания коэффициентов корреляции и корреляционного отношения, частных и сводных коэффициентов корреляции и многие другие задачи математической статистики. Некоторые алгоритмы, связанные, например, с проблемой первичной обработки, точечной оценкой параметров распределений, построением гистограмм, описаны в предыдущих разделах. Другие задачи детально рассмотрены в работе автора [3], поэтому в рамках настоящего материала основное внимание уделяется алгоритмам решения наиболее часто встречающихся задач. Среди них выделим задачи регрессионного и корреляционного анализа, задачи прогнозирования и анализа рисков.
8.1. Регрессионный анализ результатов моделирования
Регрессионный анализ служит основой построения математических моделей тех зависимостей, которые выявляются путем компьютерного эксперимента с моделями СС. Эти математические модели могут использоваться при сопоставительном анализе вариантов принимаемых решений (управляющих альтернатив), при прогнозировании развития наблюдаемых процессов, корреляционном анализе.
Рассмотрим основные положения и свойства задач регрессии, приведем варианты алгоритмов решения задач этого класса.
8.1.1. Общая характеристика задач регрессии
Задачи регрессии подразделяются на задачи линейной или нелинейной регрессии, причем каждый из задач этих двух подмножеств может представлять собой задачу простой или множественной регрессии.
Пусть в результате
статистического моделирования изучается
случайная величина Y,
в общем случае зависящая от одной или
нескольких других случайных (или
неслучайных) величин X1,
X2,
…, Xk.
Величину Y
называют выходной переменной или
откликом,
а X1,
X2,
…, Xk
— входными переменными, факторами.
Целью решения задач регрессии служит
получение зависимости у
= f(x1,
x2,
…, xk),
где у
и xj
‑ значения отклика и факторов
соответственно (j
=
).
Число влияющих на Y факторов определяет тип задачи регрессии. При наличии одного фактора говорят о простой регрессии. Если факторов несколько, возникает задача множественной регрессии. В условиях случайных возмущений строгая функциональная зависимость между Y и Х недостижима по причинам влияния множества неопределенных факторов, которые выступают в качестве случайных воздействий на исследуемые процессы. Это означает, что между Y и Х существует лишь стохастическая (вероятностная) связь у ≈ f(x1, x2, …, xk), выявление которой и составляет сущность задачи регрессии.
Задача регрессионного анализа для рассматриваемого случая заключается в следующем. Проводя последовательность экспериментов, в каждом i-ом эксперименте фиксируются значения отклика yi и факторов (x1i, x2i, …, xki), соотношения между которыми записываются в виде:
yi
= f(Xi,
)
+ εi
, i
=
.
(8.1)
Здесь Xi
= (x1i,
x2i,
…, xki)Т
— (k
1)-вектор
значений факторов в i-ом
эксперименте,
= (1,
2,
…, m)Т
— вектор неизвестных параметров, εi
— случайная величина, характеризующая
ошибку (невязку) соответствия yi
и f(Xi,
)
в i-ом
эксперименте. Задача регрессии заключается
в определении оценок
неизвестных параметров и построении
оценки функциональной зависимости
между откликом и факторами вида:
= f(X,
).
(8.2)
Выбирая один из допустимых по условиям задачи вариантов регрессионной зависимости f(Xi, ), исследователь решает задачу регрессии в рамках той или иной меры близости (точности).
Рассмотрим задачу регрессии при наличии одного фактора, влияющего на наблюдаемую переменную. Учет влияния нескольких факторов будет проведен ниже, при рассмотрении множественной регрессии.
Различают задачи линейной и нелинейной регрессии. В задачах линейной регрессии зависимости f(Xi, ) в (8.1) имеют линейный относительно неизвестных параметров вид, например,
у = 0 + 1х + ε; (8.3)
у = 0 + 1х + 2х2 + ε; (8.4)
у = 0 + 1sin(х) + ε. (8.5)
Выражения (8.3) и (8.5) соответствуют варианту простой линейной регрессии, выражение (8.4) — полиномиальной (квадратичной) регрессии. Задача (8.3) также может быть названа задачей полиномиальной регрессии, поскольку зависимость f(Xi, ) выражена здесь полиномом первого порядка. Задачи линейной регрессии могут быть решены либо матричными преобразованиями исходных статистик, либо с применением алгоритмов численного поиска экстремумов.
Задачи нелинейной регрессии предполагают нелинейный относительно неизвестных параметров характер регрессионных зависимостей f(Xi, ). Простейшим примером таких задач служит экспоненциальная связь факторов и отклика вида у = exp(х) + ε. Некоторые из задач нелинейной регрессии с помощью функциональных преобразований могут быть сведены к линейному случаю [3]. Однако решение большинства задач нелинейной регрессии требует привлечения поисковых процедур.
В задачах регрессии с моделью в форме (8.1) предполагается, что невязки εi ‑ независимые случайные величины, имеющие одинаковый закон распределения с нулевым математическим ожиданием M(εi) = 0 и дисперсией D(εi) = 2. Эти величины образуют вектор невязок ε = (ε1, ε2, …, εn)Т, математическое ожидание которого соответствует нулевому вектору, а ковариационная матрица cov(ε) = 2 Еn, где Еn ‑ единичная матрица порядка n.
Следует отметить, что общей теории выбора вида регрессионных зависимостей f(Xi, ) не существует. Выбор регрессионных зависимостей при решении конкретных задач регрессии (как и задач аппроксимации) исследователь осуществляет, пользуясь чаще всего теоретическими представлениями о возможном характере взаимосвязи Y и Х, иногда ‑ на основе визуального анализа результатов моделирования, графиков, на которые нанесены результаты наблюдений. Ниже показано, что каждый вид зависимости f(Xi, ) в конкретной задаче регрессии может быть охарактеризован количественной мерой погрешности. Это позволяет осуществлять выбор наиболее рациональной зависимости путем сопоставительного анализа ряда вариантов.