- •Оглавление
- •Список принятыХ СокращениЙ
- •Введение
- •1. Типы имитационных моделей по особенностям обработки
- •Типы им по виду входного воздействия
- •2. Особенности имитационных моделей. Эксперимент
- •2. Система регулирования частоты и напряжения (срчн)
- •3. Проблемы первичной обработки экспериментальных данных
- •4. Имитация детерминированных воздействий
- •4.1. Эквивалентирование детерминированных возмущений
- •4.2. Имитация динамических детерминированных возмущений
- •4.3. Принципы аппроксимации детерминированных возмущений
- •5. Характеристики случайных возмущений
- •5.1. Скалярные случайные величины
- •5.1.1. Дискретные случайные величины
- •5.1.2. Непрерывные случайные величины
- •5.2. Векторные случайные величины
- •5.2.1. Дискретные случайные векторы
- •Задание двумерного случайного вектора
- •5.2.2. Функция распределения векторных случайных величин
- •5.2.3. Непрерывные векторные случайные величины
- •5.2.4. Числовые характеристики векторных случайных величин. Независимость случайных величин
- •5.2.5. Линейные преобразования векторных случайных величин
- •5.3. Свойства скалярных случайных процессов
- •5.4. Свойства векторных случайных процессов
- •5.4.1. Линейные преобразования векторных случайных процессов
- •5.5. Стационарные случайные процессы и их свойства
- •6. Общие принципы имитации случайных возмущений
- •6.1. Имитация случайных величин
- •6.2. Динамическая система с входным белым шумом
- •6.2.1. Реакции непрерывных стохастических систем на входной белый шум
- •6.2.2. Реакции дискретных стохастических систем на входной белый шум
- •6.2.3. Дискретная аппроксимация непрерывных стохастических систем
- •6.3. Имитация случайных процессов
- •6.3.1. Имитация стационарных случайных процессов
- •Варианты формирующих фильтров
- •6.3.2. Имитация нестационарных случайных процессов
- •6.4. Имитация вероятностных переходов
- •7. Вычислительный эксперимент с имитационной моделью
- •7.1. Выборки и их свойства
- •7.2. Статистическое распределение выборки
- •7.3. Формирование возмущений в виде случайных величин с заданными выборочными характеристиками
- •7.4. Формирование векторных случайных величин с заданными выборочными характеристиками
- •7.5. Структура данных вычислительных экспериментов для имитационных моделей различных типов
- •Структура входных данных при имитации
- •Структура выходных данных моделирования
- •8. Обработка данных компьютерных экспериментов
- •8.1. Регрессионный анализ результатов моделирования
- •8.1.1. Общая характеристика задач регрессии
- •8.1.2. Линейная регрессия. Метод наименьших квадратов
- •8.1.3. Нелинейная регрессия
- •8.2. Корреляционный анализ данных моделирования
- •8.2.1. Точечная оценка коэффициентов корреляции
- •8.2.2. Точечная оценка корреляционного отношения
- •8.3. Прогноз в статистическом моделировании
- •8.4. Анализ рисков при статистическом моделировании
- •8.5. Критерии принятия решений
- •8.5.1. Многокритериальный анализ
- •8.6. Обработка данных статистического моделирования
- •Типы выходных переменных при моделировании
- •8.6.1. Особенности стохастического режима моделирования
- •Библиографический список
- •Приложения
- •Свойства основных распределений
- •1. Равномерное распределение
- •2. Нормальное распределение
- •3. Показательное распределение
- •4. Биномиальное распределение
- •Биномиальный закон распределения
- •5. Распределение Пуассона
- •Закон распределения Пуассона
- •6. Гамма-распределение
- •7. Распределение Вейбулла
- •8. Распределение Рэлея
- •9. Распределение хи-квадрат
- •10. Распределение Стьюдента (t-распределение)
- •11. Распределение Фишера (f-распределение)
- •Приложение 2
- •Производная и
- •Интеграл случайной функции
- •Производная случайной функции
- •Сходимость в среднем квадратическом
- •Производная случайной функции
- •Интеграл случайной функции [3]
8.3. Прогноз в статистическом моделировании
Проблема прогнозирования развития процессов, ситуаций, явлений характеризуется высокой сложностью. Эта сложность определяется многими факторами, основные среди них — наличие неопределенности свойств исследуемых систем, возможность появления значимых случайных событий, изменчивость внешних условий.
Неопределенность свойств систем может быть резко снижена реализацией натурных экспериментов (если они возможны), применением имитационного моделирования и соответствующими компьютерными экспериментами. Однако полностью устранить неопределенность при этом принципиально невозможно по причинам существования многих неизвестных факторов различной природы, воздействующих на поведение системы.
Под значимыми случайными событиями понимается множество возникающих в случайные моменты времени факторов, каждый из которых существенно меняет характеристики системы, состояние которой прогнозируется. Термин «значимый» применительно к тому или иному фактору означает, что под его воздействием свойства исследуемой системы меняются настолько, что для описания поведения системы требуется новая имитационная модель. Наиболее яркими служат такие значимые факторы в экономике. Этими факторами служат, например, те выступления или заявления ведущих специалистов или руководителей ряда стран, которые резко меняют состояние рынков. В технических системах такими значащими факторами могут быть поломки, выходы из строя отдельных элементов и проч.
Изменчивость внешних условий можно исключить только теоретически, абстрагируясь от реальных ситуаций. Эксперименты, которые необходимо провести для построения математической модели и последующего прогнозирования, теоретически должны проводиться в единых условиях. Однако реально это требование практически невыполнимо по очевидным причинам.
Отмеченные выше обстоятельства приводят к появлению ошибок прогноза, величина которых определяется классом воздействующего фактора и растет с увеличением того интервала времени, на который делается прогноз.
Всесторонний анализ проблемы прогнозирования выходит за рамки настоящего пособия. Кратко остановимся лишь на вопросах прогнозирования на основе статистического моделирования. Учитывая, что прогноз предполагает развитие (динамику) изучаемых процессов, будем считать, что имитационная модель, которая участвует в компьютерных экспериментах в целях получения прогноза, является динамической. Результатом этих экспериментов служат массивы выборочных данных.
Для прогнозирования на основе экспериментальных данных необходимо осуществить предварительную их обработку путем построения математической модели методами решения задач регрессии или аппроксимации. В том и другом случаях формируются зависимости вида y(t, ), где t и — аргумент и вектор найденных параметров. В простейшем случае прогноз на интервал от момента времени tk заключается в вычислении значения y(tk + , k), где k — вектор параметров, полученный по информации на интервале (t0, tk). Однако при этом следует учитывать, что полученная на этом интервале оценка параметров k может устареть. Эффект «старения» информации приводит к тому, что значение прогноза y(tk + , k) не будет отвечать последним, наиболее «свежим», свойствам реальной системы. В этом случае рассогласование [y(tk + , k) – yд(tk + )], где — действительное состояние исследуемой системы в момент времени (tk + ), будет большим, т. е. качество прогноза будет низким. В таких случаях целесообразно формировать прогноз по фрагменту данных, полученных на интервале времени (tk–1, tk), прилегающем к правой границе общего интервала (t0, tk). Размер этого интервала зависит от специфики рассматриваемой задачи и определяется путем сопоставительного анализа рассогласований [y(tk + , k–1k) – yд(tk + )], где k–1k — вектор параметров, полученный решением задачи регрессии (аппроксимации) на интервале (tk–1, tk). При этом прогноз следует признать приемлемым при выполнении неравенства вида
[y(tk + , k–1k) – yд(tk + )] < k . (8.30)
Здесь k — допустимое значение (порог) рассогласования.
Осуществляя периодическую проверку неравенства (8.30), определяют размер информационного «окна» и принимают решение о пересчете оценки параметров для текущего состояния системы.
Отдельное внимание при вычислении прогнозов следует уделить интервалу , на который выполняется прогноз. Увеличение этого интервала сопровождается ростом погрешности прогноза, количественной мерой которой может служить дисперсия. Рассмотрим один из путей численного определения дисперсии прогноза на примере регрессионного соотношения.
Пусть обработка экспериментальных данных выполнена на основе регрессионного соотношения вида (8.6) для квадратичной регрессии:
у(х) = 0 + 1х + 2х2, (8.31)
вектор параметров которой определен на интервале изменения аргумента (хk – 1, хk). Обозначая этот вектор k – 1k, вычислим прогноз исследуемой переменной для аргумента (хk + ): y(хk + , k – 1k) и определим зависимость дисперсии прогноза от выбранного значения .
Для этого в рассматриваемом случае воспользуемся основными соотношениями п. 5.2.5, посвященного линейным преобразованиям случайного вектора. С этой целью представим уравнение (8.31) в следующей форме:
= 0; у
= Н
;
Н
= |1 х
х2
|. (8.32)
Форма (8.32) приемлема для общего случая линейной регрессии.
На основании (5.80)
дисперсия
случайной величины у
(в скалярном случае) или ковариационная
матрица Ру
(если у
— случайный вектор), определяются
соотношением вида (приведем его для
скалярного случая, который соответствует
рассматриваемому варианту):
= Н∙Р∙НТ , (8.33)
где Р
= cov(е)
= cov(
)
— ковариационная матрица вектора ошибок
оценки параметров. Применим общий вид
выражений (8.32) и (8.33) к рассматриваемому
примеру.
Выше отмечалось, что решение задачи регрессии в целях определения параметров регрессионного соотношения (8.31) осуществляется на интервале (хk – 1, хk), т. е. вектор параметров k–1k определяется алгоритмом вида (8.10)
k–1k = (А1ТА1)– 1 А1ТY1, (8.34)
где A1, Y1 — части массивов экспериментальных данных, относящиеся к интервалу (хk – 1, хk).
Тогда, ковариационная матрица ошибок оценки этих параметров на правом конце хk интервала (хk – 1, хk) будет определяться выражением вида (8.15). Для периода прогнозирования, который характеризуется хk > 0 такая ковариационная матрица является начальной матрицей. Обозначая ее Р0, запишем алгоритм для ее нахождения на основе (8.15):
Р0 = cov( k – 1k) = s2(А1ТА1)– 1. (8.35)
Здесь s2 — теоретическая дисперсия невязок регрессионного соотношения. Тогда, на основании (8.33), дисперсия D() прогноза на интервал в рассматриваемом примере выразится следующим образом:
D() = h()∙Р0∙[h()]Т; h() = |1 (хk + [(хk + ]2. (8.36)
При решении прикладных задач, дисперсию s2 в выражении (8.35) следует заменить на остаточную дисперсию, которая определяется формулой вида (8.16).
Иллюстрацией описанного подхода служит рис. 8.8, в котором содержится копия mcd-файла с одним из вариантов количественной оценкой прогноза в рассмотренном выше примере. Исходные данные на рис. 8.8 соответствуют принятым ранее для задачи, представленной на рис. 8.1.
Рис. 8.8. Вычисление дисперсии прогноза
На рис. 8.8 последовательно вычисляются элементы алгоритмов определения дисперсии прогноза. На основе (8.35) формируется ковариационная матрица ошибок оценки параметров. Поскольку при решении задачи регрессии на рис. 8.1 последнее значение аргумента соответствовало 9, значения матрицы h() формируется (см. рис. 8.8) при хk = 9. Далее, с использованием выражения для D() из (8.36) получен вектор D значений дисперсии прогноза. График характеризует эффект увеличения дисперсии с ростом интервала прогноза.
Получение дисперсий прогнозируемых значений имеет важное практическое значение, поскольку позволяет использовать значения D() для выбора допустимого интервала прогноза из условий ограничения D() < q, где q — предельно допустимое значение дисперсии.
