- •Лекции по дисциплине «имитационное моделирование» Введение Основные понятия имитационного моделирования
- •Условия существования моделей
- •Типовые задачи, решаемые средствами им при управлении экономическими объектами
- •Основные этапы машинного моделирования систем
- •Правила и способы реализации моделей на эвм
- •Обзор программных систем имитационного моделирования
- •Разработка имитационных моделей в среде gpss
- •Объекты
- •Часы модельного времени
- •Типы операторов
- •Блоки языка gpss
- •Управление продолжительностью процесса моделирования
- •Элементы, отображающие одноканальные обслуживающие устройства
- •Переход транзакта в блок, отличный от последующего
- •Моделирование многоканальных устройств
- •Примеры построения gpss-моделей
- •Переменные
- •Определение функции в gpss
- •Моделирование неравномерных случайных величин
- •Моделирование вероятностных функций распределения в gpss-World
- •Табулирование результатов экспериментов
- •Сча транзакты
- •Математические предпосылки создания имитационной модели Процессы массового обслуживания в экономических системах
- •Системы с одним устройством обслуживания
- •Многоканальные смо
- •Вероятностное моделирование Метод Монте-Карло
- •Способы необходимой сходимости метода Монте-Карло
- •Определение количеств реализаций при моделировании случайных величин
- •Сбор статистических данных для получения оценок характеристик случайных величин
- •Получение и преобразование случайных чисел. Датчики случайных чисел
- •Получение случайных чисел с заданным законом распределения
- •Метод Неймана (разыгрывания случайной величины)
- •Проверка гипотез по категориям типа событие – явление – поведение
- •Риски и прогнозы
- •Распределительные процессы
- •Процессы обслуживания клиентов
- •Процессы управления разработками проектов
- •Имитация информационных ресурсов
- •Денежные ресурсы
- •Перспективные направления моделирования бизнеса
- •Оценка качества имитационной модели
- •Оценка адекватности модели
- •Оценка устойчивости системы
- •Оценка чувствительности имитационной модели
- •Калибровка модели
Способы необходимой сходимости метода Монте-Карло
методы сходимости или уменьшения дисперсии результата при том же объеме испытаний.
Рассмотрим на примере вычисление определенного интеграла.
Рассмотрим метод существенной выборки. Практическое применение для вычисления интегралов находит способ, основанный на среднем значении функции случайной величины.
Из теории вероятности известно, что функция R(x) случайной величины X, заданной плотностью распределения f(x), имеет среднее значение:
,
(1)
(a, b) – интервал возможных значений x.
С другой стороны, из математической статистики известно, что при большом объеме выборки N математическое ожидание достаточно точно представляется в виде:
(2).
Этот факт положен в основу одного из ускоренных способов вычисления интеграла.
Пусть необходимо
найти интеграл функции y(x)
на интервале (a,
b),
т.е.
Введем в рассмотрение случайную величину
X,
заданную на том же интервале плотность
f(x).
Тогда искомый интеграл можно представить:
(3)
где
Из сравнения (1) и (3) следует, что задача вычисления интеграла I сводится к нахождению математического ожидания функции y*(x) случайного аргумента X, которое в соответствии с (2):
В качестве закона f(x) можно использовать любой. В простейшем случае это равномерный закон.
В этом случае (3)
принимает вид:
При этом I
заменяется величиной
где
вычисляется по формуле (2), а xi
= (a,
b)
– равномерно распределенные числа.
Для выявления оптимальной с точки зрения сходимости f(x) рассмотрим дисперсию получаемого результата I* для f(x) общего вида. По определению:
(4).
Воспользуемся неравенством Каши – Буняковского:
(5).
Подставим
.
Тогда (5) приводится
к виду:
.
С учетом свойства
нормировки плотности, т.е.
,
получаем:
.
Используя (4) и
последнее соотношение, получаем:
.
Пусть
(6),
тогда
Учитывая, что
,
получаем:
.
Следовательно, при выборке плотности f(x) в соответствии с (6) дисперсия достигает своего минимального значения:
.
В случае заведомо положительным y(x): D(I*)min=0.
Полученный результат имеет достаточно простое толкование. Действительно, при y(x)>0 y*(x)=1, что дает также постоянное значение y(xi) для любого отсчета xi, а, следовательно, дисперсия D(I*)min=0.
Однако достигнуть
этого минимального (даже не нулевого)
для y(x)
общего вида теоретического предела
дисперсии (и минимальной выборки N=1)
практически не удается. Дело в том, что
для выбора наилучшего f(x)
необходимо знать величину интеграла
,
что не проще решаемой задачи определения
I,
тем не менее,
даже при некотором приближении к (6)
удается получить существенный выигрыш
в скорости сходимости вычислительного
алгоритма.
Название «существенная» выборка данного способа ускорения отражает тот факт, что при выборе f(x) ~ |f(x)| наибольшее число отсчетов y(xi) приходится на существенный диапазон, т.е. в окрестность максимума интегрируемой функции y(x).
Определение количеств реализаций при моделировании случайных величин
Число испытаний
N
определяет точность полученных
результатов моделирования. Если
необходимо оценить величину параметра
a
по результатам
моделирования xi,
то за оценку следует брать величину
,
которая выступает в функции от xi.
Из-за случайности
будет
отличаться от a,
т.е.
(1), где
- точность оценки.
Вероятность того, что данное неравенство выполняется, обозначим через :
(2).
Для определения точности результатов имитационных испытаний необходимо воспользоваться выражением (2).
Определим количество реализаций для оценки вероятности наступления события. Пусть целью моделирования будет определение вероятности наступления некоторого события А, определяющего состояние моделируемой системы. В любой из N реализаций процесс наступления события А является случайной величиной, которая может приобретать значение x1=1 с вероятностью p, x2=0 с вероятностью (1-p).
Тогда всегда можно найти мат. ожидание М и дисперсию D:
В качестве оценки р используют частоту наступления события А – эта оценка несмещенная, состоятельная и эффективная. Несмещенная оценка – если мат. ожидание оценки равно мат. ожиданию величины.
При условии, что N заведомо задано, достаточно накапливать m:
где i – наступление события А в реализации, i ={1; 0}.
По формулам (3)-(5) находим:
В
соответствии с центральной предельной
теоремой случайная величина
будет иметь распределение, близкое к
нормальному.
Поэтому для каждой достоверности (ее мы берем сами) из таблиц нормального распределения можно найти величину t2 такую, что будет равняться величине
(6),
так при =95% = 0,95 t2 = 1,96; при = 0,97 t2 = 3.
Подставим в выражение (6) выражение дисперсии, получим:
(7).
Отсюда находим
(8).
Поскольку p заранее неизвестно, прибегают к пробным испытаниям N=50 – 100, получают частоту m/N и подставляют ее значение в выражение (8) вместо p, после чего определяется конечное количество испытаний.
Затравочный эксперимент (приближенно).
Определим количество реализаций для оценки среднего значения случайной величины.
Пусть случайная величина имеет мат. ожидание a и дисперсию 2, в реализации с номером xi для оценки мат. ожидания a используем среднее
(9).
В соответствии с
интервальной предельной теоремой при
больших значениях N
среднее арифметическое будет нормально
распределено с мат. ожиданием a
и дисперсией
,
тогда
,
получаем:
(10).
Поскольку дисперсия оцениваемой случайной величины неизвестна, необходимо провести 50-100 испытаний и оценить 2, а затем полученное значение подставить в формулу (10) и определить необходимое количество реализаций N.
