
- •1 Вопрос
- •Классификация математических моделей
- •2.1. Декларативные и процедурные модели
- •2.2. «Черный ящик», структурные и функциональные модели
- •2.3. Модели описания, решения, алгоритмические, программные
- •2.4. Модели синтеза, анализа и выбора
- •2 Вопрос
- •3.2. Простейший поток
- •3 Вопрос
- •3.3. Марковские процессы, уравнения Колмогорова
- •3.4. Многоканальная система с ограничением на длину очереди
- •Система дифференциальных уравнений Колмогорова для данной системы имеет вид
- •Для построения модели стационарного режима смо положим все производные в системе (16) равными нулю. В результате получим систему алгебраических уравнений
- •4 Вопрос
- •4.3. Имитация Марковских процессов с непрерывным временем и дискретными состояниями
- •4.4. Планирование машинных экспериментов при имитационном моделировании
- •5 Вопрос
- •6.1. Классификация моделей оптимального синтеза
- •1. По степени полноты исходной информации
- •3. По определенности цели
- •6.3. Методы релаксации
- •Геометрический смысл соотношения (7) – на рис. 6.2.
- •6.4. Алгоритм градиентного метода
- •6 Вопрос
- •7.2. Теоретические основы решения задач лп
- •Каноническая форма задачи лп. Метод решения задачи лп будем излагать в предположении, что она приведена к канонической форме.
- •7.3. Симплекс-метод
- •Правило 1. В базис переводится параметр хJ, который имеет в целевой функции максимальный по модулю отрицательный коэффициент сJ.
- •Правило 2. Номер к исключаемого из базиса параметра хK выбирается в соответствии с условием (7.8)
- •7.4. Метод искусственного базиса (м-метод)
- •7 Вопрос
- •9.1. Поиск с возвратом
- •9.2. Метод динамического программирования
- •Пусть эффективность такого перехода оценивается значением критерия q(хk–1, uk), а эффективность всего процесса оценивается величиной
- •9.3. Метод ветвей и границ
- •9.4. Приближенные методы
4.4. Планирование машинных экспериментов при имитационном моделировании
Задачи и проблемы планирования МЭ
Def. Машинный эксперимент (МЭ)– прогон имитационной модели исследуемой системы.
Цель МЭ – получение информации о системе для анализа ее характеристик, либо для поиска оптимального варианта ее структуры или значений параметров. Задача планирования МЭ – получение достаточного количества информации о системе при ограниченных вычислительных ресурсах.
При планировании МЭ следует учитывать ряд их особенностей, отличающих МЭ от натурных экспериментов, т.е. экспериментов над реальными объектами. Сюда относятся:
1) простота повторений условий эксперимента, а также варьирования его условий;
2) возможность управления МЭ, включая его прерывание и возобновление в любой момент;
3) возможность обеспечения большого числа реализаций МЭ.
Планирование МЭ призвано решить определенные проблемы их проведения.
1) Проблема начальных условий эксперимента. Она возникает вследствие искусственного характера процесса функционирования модели, которая в отличии от реальной системы, работает эпизодически, т.е. только когда исследователь запускает программу и проводит наблюдения. Всякий раз, когда начинается очередной прогон модели, требуется определенное время для достижения стационарных условий функционирования. Поэтому начальный период работы модели искажается вследствие того, что начальные условия не могут в точности совпадать со стационарным режимом (см. рис 3.2). Для решения этой проблемы при фиксации процесса функционирования модели исключают из рассмотрения информацию, полученную на начальной стадии прогона, а начальные условия подбирают так, чтобы уменьшить время достижения установившегося режима.
2) Обеспечение
точности и достоверности результатов
моделирования. Статистическое
моделирование в принципе не может дать
точного значения исследуемой характеристики
Е системы, а дает лишь какую-то ее оценку
.
Точность этой оценки в значительной
мере зависит от количества N
реализаций (прогонов) модели – чем
больше N,
тем выше точность. Однако число реализаций
не может быть бесконечно большим, т.к.
любая вычислительная система, на которой
реализуются МЭ, имеет ограниченный
ресурс. Поэтому при планировании МЭ, в
частности, при определении значения N,
необходимо искать разумный компромисс
между требуемой точностью решения и
ресурсами вычислительной системы,
реализующей имитацию.
В качестве показателя точности модели используются:
- величина
– достоверность найденной оценки
,
она должна быть близка к 1;
- величина
– дисперсия найденной оценки
,
она должна быть достаточно мала.
Обе эти величины зависят от N, поэтому значение N подбирают из заданного условия, которому удовлетворяет величина достоверности или дисперсии оценки . Методы определения значения N и оценки точности модели рассмотрим далее.
Теоретико-вероятностные основы планирования МЭ. МЭ могут быть повторены достаточно много раз, поэтому их теоретико-вероятностной основой в первую очередь являются предельные теоремы теории вероятностей – соотношения, условием соблюдения которых является неограниченное возрастание значения N. Рассмотрим основные из них.
1) Теорема
Бернулли.
Если проводится N
независимых испытаний, в каждом из
которых случайное событие А происходит
с вероятностью р, то относительная
частота появления событии А при N
сходится по вероятности к р. То есть
,
где m(A)
– число наступлений события А.
2)
Центральная предельная теорема.
Если
– независимые, одинаково распределенные
случайные величины с математическим
ожиданием а и дисперсией 2,
то распределение суммы
при N
неограниченно приближается к нормальному
распределению с матожиданием Na
и дисперсией N2:
=
Ф()
– Ф(),
где Ф(х)
–
функция Лапласа (функция нормального
распределения, интеграл вероятности).
3) Теорема Муавра-Лапласа. Если проводится N независимых испытаний, в каждом из которых случайное событие А происходит с вероятностью р, то распределение величины m(A) при N неограниченно приближается к нормальному распределению с матожиданием Np и дисперсией Np(1–p). То есть
=
Ф()
– Ф().
(4.5)
Пример
использования предельных теорем. Пусть
цель МЭ – получение оценки
вероятности наступления случайного
события А. Согласно теореме Бернулли,
оценкой
является
величина
,
т.к. она может при больших N
быть сколь угодно близкой к истинному
значению р. В качестве меры точности
данной оценки примем достоверность, а
именно, потребуем, чтобы выполнялось
условие
=
Q
, т.е. чтобы вероятность малого различия
между р и
(не более заданного )
была равна заданному числу Q.
Или в соответствие с принятым выражением
,
=
Q.
(4.6)
Для оценки данной вероятности воспользуемся теоремой Муавра-Лапласа. При достаточно большом N можно положить в (4.5)
=
=
.
Для
выполнения требуемого условия (4.6)
положим
.
Отсюда в силу (4.5) и (4.6) имеем уравнение
Q
=
,
из которого надо найти N.
Обозначим
– двухсторонняя Q-квантиль
нормального распределения. Тогда получим
формулу
.
(4.7)
Пояснение. По определению функция распределения F(t) случайной величины равна вероятности P( < t). Иными словами, зная t, можно по F(t) найти вероятность события ( < t). Квантиль же позволяет по известной вероятности найти значение t. Двухсторонняя Q-квантиль позволяет найти такое t, при котором вероятность события || < t равна заданному числу Q, т.е. найти корень уравнения Р(|| < t) = Q.
Значение tQ
можно найти либо по специальным таблицам,
либо воспользовавшись qnorm
– функцией MathCad,
а именно,
.
Недостаток
полученной формулы (4.7) в том, что в ней
фигурирует неизвестная величина р.
Чтобы избежать этого на практике место
р используют ее грубую оценку
,
где N1
<< N.
Таким образом, при определении необходимого
количества МЭ надо проделать следующие
шаги:
1) провести предварительные МЭ с числом повторений N11000, фиксируя в них наступление события А и подсчитывая m(A);
2) вычислить р1;
3) подставить р1 в (7) вместо р и вычислить N.
После этого проводят основную серию МЭ с числом повторений N и находят более точную оценку .