
- •4.1. Имитация, как инструмент исследования сложных систем.
- •4.2.2.1. Классификация методов генерирования и имитации входных воздействий.
- •4.2.2.2. Источники первичной случайности.
- •Эта запись означает, что
- •Числа с логарифмически нормальным распределением генерируются преобразованием
- •Используя формулу скользящего суммирования
- •Эта реализация порождает векторный случайный процесс
- •Когда в момент t'2в агрегат поступает входной сигналx'2, то состояние агрегата принимает значение
- •4.2.3.3. Индивидуальное моделирование
- •4.2.4. Планирование эксперимента.
- •4.2.4.1.Полный факторный эксперимент.
- •Дробный факторный эксперимент.
- •Проведение и обработка результатов экспериментов.
- •4.2.5. Обработка результатов.
- •4.2.5.2. Двух- и многофакторный анализ.
Числа с логарифмически нормальным распределением генерируются преобразованием
,
где m и - параметры логарифмически нормального распределения.
Пример 4.9. Получить три гауссовских случайных числа, используя центральную предельную теорему.
Решение 4.9. Для получения одного гауссовского числа по формуле (4.6) необходимо 12 исходных чисел . Выберем их из таблицы случайных цифр (см. приложение 2) следующим образом: для 1 будем суммировать 12 первых чисел, записанных в виде двухзначной десятичной дроби, из первой строки, для 2 - из второй, для 3 - из третьей строки. Тогда,
1=(0,10+0,09+0,73+0,25+0,93+0,76+0,52+0,01+0,35+0,8б+0,34+0,67)-6,00=-0,39;
2=(0,37+0,54+0,20+0,48+0,05+0,64+0,89+0,47+0,42+0,96+0,24+0,80)-6,00=-0,06;
3=(0,08+0,42+0,26+0,89+0,53+0,19+0,64+0,50+0,93+0,03+0,23+0,20)-6,00=-0,10.
Итак, получены три гауссовски распределенных случайных числа: 1 = - 0,39; 2 = - 0,06; 3= - 0,10.
Отметим, что в некоторых сборниках таблиц по математической статистике приводятся таблицы нормально распределенных случайных чисел (приложение 3) с параметрами M[]=0 и []=1. Используя формулу (4.6) можно получить гауссовские случайные числа с иными параметрами и тогда следует (для приведения их к стандартному виду) произвести нормировку.
Метод Неймана. Он относится к приближенным методам [12] и суть его состоит в следующем:
пусть закон распределения вероятностей, который требуется ввести в последовательность случайных чисел, представлен плотностью f(x), ограниченной на интервале [a,b] и для которой,
для получения случайных чисел с плотностью f(x) генерируется пара исходных чисел
, которая затем преобразуется в новую пару чисел
и
;
если
, то
, в противном случае необходимо вновь получить пару исходных чисел
, преобразовать их по тем же формулам в
, проверить условие и т.д.
Пример 4.10. Пусть требуется получить три случайных числа с законом распределения вероятностей
причем М=0,75.
Решение 4.10. Будем получать пары исходных чисел из таблицы случайных цифр, выбирая в качестве 1 две цифры, записанные в виде десятичной дроби, из первого столбца, а для 2 будем аналогично выбирать цифры из второго столбца.
Тогда
=0,10и
=0,09.
Преобразуем пару (
,
)
в новую пару чисел
Вычисляем
,
сравниваем
и
.
Так как
(0,23175
> 0,0675),
то число
принимаем в качестве первого генерируемого
случайного числа
.
Делаем аналогичные действия для второго
числа
и числа
и
.
Имеем
Так
как
(0,9178 > 0,405),
то
.
Третья пара
=
0,08
и
=0,42.
Для этой пары
Так
как
(0,1055 < 0,315),
то пара
отбрасывается и для нее выбирается
новая пара исходных чисел
=0,99
и
=0,01,
для которой
Так
как
(0,0706 > 0,0075),
то
.
Итак, методом Неймана получено три случайных числа 1=0,1, 2=0,37, 3=0,99.
Метод кусочной аппроксимации. Его сущность состоит в замене генерируемого распределения вероятностей серией простых дискретных распределений, для которых можно указать достаточно удобные и простые моделирующие процедуры [12].
Пусть требуется прогенерировать случайные числа с плотностью распределения f(x). Предположим, что x[a,b] неограниченное распределение можно приближенно заменить ограниченным. Интервал [a,b] разбивается на n достаточно малых интервалов (am, am-1), m=0,1,…,n-1, a0=a, an=b, так, чтобы заданное распределение в пределах этих интервалов можно было достаточно точно аппроксимировать каким-нибудь простым распределением, например, равномерным, трапецеидальным и т.д. В дальнейшем рассмотрим кусочную аппроксимацию равномерным распределением.
x
Рис.
4.7. Метод кусочной аппроксимации.
а0
а1
. . .
аn
0
fX(x)
0
случайным образом с вероятностью
выбирается, интервал (am, am+1);
формируется число равномерно распределенное в интервале (am, am+1), которое и будет :
=(am+1 - am) + am,
при этом - случайное число, генерируемое источником первичной случайности.
х0
х1
х2
хm
xm+1
xn
Рис. 4.8. Случайный
выбор интервала.
0
p0
p1
. . . pm
. . . 1
лучайный выбор
интервала (am,
am+1)
с вероятностью Pm
означает
по существу моделирование случайного
числа, принимающего n
значений am,
m=0,1,…,n-1,
с вероятностью Pm
каждое, что делается следующим образом.
Интервал [0,1] разбивается на n
интервалов
(xm,
xm+1),
m=0,1,…,n-1,
x0=0,
xn=1,
длиной xm+1
- xm
= Pm
каждый (рис. 4.8).
Источником
первичной случайности воспроизводится
равномерно распределенное в [0, 1] число
.
Путем
последовательного сравнения
сxm
определяется интервал (xm,
xm+1),
то
есть тот интервал,
в котором оказывается
,
и, следовательно, соответствующий
интервал (аm,
аm+1).
В основу этого процесса положен очевидный факт - вероятность попадания равномерно распределенной в интервале [0,1] случайной величины в некоторый подынтервал (xm, xm+1) равна длине этого подынтервала.
Метод кусочной аппроксимации обладает, в отличие от метода Неймана, возможностями увеличения точности воспроизведения вероятностных свойств. Для этого необходимо увеличить число малых интервалов (am, am+1), то есть n, что приведет к снижению быстродействия метода.
Пример 4.11. Пусть требуется прогенерировать методом кусочной аппроксимации три случайных числа, если их закон распределения вероятностей задан таблицей 4.1 (разбиение на малые интервалы (am, am+1) произведено).
Таблица 4.1
(am, am+1) |
(0,1) |
(1,2) |
(2,3) |
(3,4) |
|
0,2 |
0,3 |
0,4 |
0,1 |
Решение 4.11. Сформируем единичный отрезок для организации выбора случайного интервала (am, am+1), m=0,1,2,3,4 (см. табл. 4.2)
Таблица 4.2
(am, am+1) |
(0;1) |
(1;2) |
(2;3) |
(3;4) |
|
0,2 |
0,3 |
0,4 |
0,1 |
(xm, xm+1) |
(0,0; 0,2) |
(0,2; 0,5) |
(0,5; 0,9) |
(0,9; 1,0) |
Прогенерируем
первое случайное число 1.
Для этого
разыграем
(из таблицы случайных цифр, приведенной
в приложении 2, будем выбирать пары цифр
из 17-го и 18-го столбцов таблицы и
формировать из них десятичную двухзначную
дробь) число
=0,35.
Сравнивая
его с границами подынтервалов
(xm,
xm+1),
выясняем,
что
попадает во второй подынтервал
(x1,
x2).
Таким образом, реализация
случайного числа 1
будет формироваться для
малого интервала разбиения
(1; 2), m=1.
Вновь обращаемся к таблице случайных цифр и получаем 1=0,42, которое преобразуется в первое генерируемое случайное число с требуемым законом распределения вероятностей
1=(2-1)·0,42+1=1,42.
Генерируем
второе число
ξ2.
Для этого определяем
=0,93
и
выясняем, что оно попадает в четвертый
подынтервал (x3,
x4),
то есть малый интервал разбиения (am,
am+1)
случайно выбран и это интервал (3;4).
Получаем еще одно число η2=0,07
и рассчитываем новое генерируемое число
ξ2=(4-3)·0,07+3=3,07.
Поступая
аналогично, получим (=0,61,
подынтервал
выбран (2;3), η3=0,68)
ξ3=(3-2) ·0,68+2=2,68.
Таким образом, используя метод кусочной аппроксимации, мы получили три случайных числа с требуемым законом распределения вероятностей ξ1=1,42; ξ2=3,07; ξ3=2,68.
4.2.2.4. R-методы.
Методы генерирования произвольно распределенных случайных чисел с требуемыми динамическими свойствами носят название R -методов.
Произвольность распределения случайных чисел позволяет использовать в качестве исходных стандартные нормальные случайные числа. При этом выходные последовательности чисел, как правило, имеют нормальное распределение. Значение этого факта возрастает в связи со следующими обстоятельствами [12]:
нормальные случайные процессы играют важную роль в приложениях и однозначно задаются матрицей корреляционных моментов;
негауссовские случайные процессы часто появляются в результате некоторых известных преобразований гауссовских случайных процессов (так называемые квазинормальные случайные процессы) и их моделирование сводится к воспроизведению гауссовского случайного процесса с необходимыми вероятностно-статистическими свойствами и его преобразованию по известным алгоритмам;
многомерные законы распределения вероятностей случайных процессов, не являющихся нормальными или квазинормальными, весьма трудно получить теоретически и экспериментально, в то время как корреляционные моменты определяются значительно проще.
Метод линейных преобразований. Он состоит в линейном преобразовании A исходных N чисел η с известными вероятностными свойствами, после чего полученные величины ξ должны иметь наперед заданную корреляционную матрицу
║Rξ║=║Rmn║, n,m=1,2,…,n
Пусть дано N независимых случайных чисел с нулевым математическим ожиданием и единичной дисперсией η(1), η (2),…, η (N)
M[η
]=0, σ[η ]=1, M[η (n), η (m)]= δnm=
Известно, что произвольное линейное преобразование A N-мерного вектора η сводится к умножению его на некоторую матрицу N-го порядка ║ξ║=║A║∙║η║, где ║η║=║ η(n)║, n=1,2, …,N и ║ξ║=║ξ(n)║, n=1,2,…,N - матрицы-столбцы с элементами η(1),…,η(N) и ξ(1),…,ξ(N) соответственно и ║A║=║anm║, n=1,2,…,N, m=1,2,…,N - квадратная матрица преобразований.
Выберем матрицу A треугольной, тогда
ξ(1) = a11∙ η(1),
ξ(2) = a21∙ η(1) + a22∙ η(2),
. . . (4.7)
ξ(N) = aN1∙ η(1) + aN1∙ η(2) + … + aNN∙ η(N).
Элементы матрицы ║A║ найдем из условий независимости исходных чисел и нулевого математического ожидания
M[η
(n), η (m)]= δnm=
M[ξ(n),ξ (m)]= Rnm.
Из условий
M[ξ(1)ξ (1)]= a211=R11;
M[ξ(1)ξ (2)]= a11∙a21=R12;
M[ξ(2)ξ (2)]= a221+ a222=R22;
получим
a11=;
a21=R12
/
;
a22=
. (4.8)
Действуя аналогично, можно найти последовательно все элементы матрицы ║A║.Тогда алгоритм выработки реализаций случайного процесса с заданной корреляцией сведется к умножению реализации исходного независимого процесса η(t) на матрицу преобразований ║A║. Процесс ξ(t) будет иметь нулевое математическое ожидание
Пример 4.12. Пусть требуется построить матрицу преобразований ║A║, позволяющую методом линейных преобразований прогенерировать три элемента реализации случайного процесса с корреляцией, определяемой матрицей
║Rξ║
=
и математическим ожиданием M[ξ]=5.
Решение 4.12. В соответствии с условием задачи матрица преобразований ║A║ имеет размерность 5 x 5, а ее элементы связаны с требуемыми корреляционными моментами известными из описания метода и вновь полученными в дополнение к (4.8) формулами
Следовательно, с учетом нового математического ожидания
Используя таблицу стандартных нормальных случайных чисел (приложение 3), выберем три числа, например, из четвертой строки: η(1)=1,002; η(2)=0,555; η(3)=0,046. (Напомним, что нормальные стандартные случайные числа независимы и имеют в совокупности нулевое математическое ожидание и единичное среднеквадратическое отклонение, что удовлетворяет условиям применения метода линейных преобразований).
Тогда
К достоинствам данного метода отнесем его легкую машинную реализацию, а к недостаткам - существенные затраты машинной памяти (матрица занимает 0,5·N·(n+1) слов) и значительные объемы вычислений.
Метод канонических разложений. Пусть непрерывный центрированный случайный процесс ξ(t) задан каноническим разложением
(4.9)
где Vk - некоррелированные случайные коэффициенты с параметрами M[Vk]=0 и σ[Vk]=σk; φk(t) - система некоторых детерминированных координатных функций.
Из условия некоррелированности коэффициентов Vk следует аналогичное каноническое разложение корреляционной функции случайного процесса ξ(t):
Метод канонических разложений [12] осуществляется так: в процессе формирования дискретных реализаций ξ(n) они вычисляются непосредственно по формуле (4.9). При этом в качестве Vk используется выборочные значения некоррелированных случайных чисел с параметрами M[Vk]=0 и σ[Vk]=σk. Бесконечный ряд (4.9) при вычислениях приближенно заменяется усеченным конечным рядом.
Подготовительная работа состоит в выборе системы координатных функций φk(t) и в нахождении дисперсий σ2, то есть в осуществлении непосредственно канонического разложения. Эти действия проводятся по рекуррентным формулам
(4.10)
Использование такого представления метода канонических разложений позволяет воспроизводить случайный процесс с корреляционной функцией, совпадающей с требуемой в заданных дискретных точках tk, k=1,2,…,N. В промежутках же между этими точками получаемая корреляционная функция не совпадает с требуемой. Если дискретные точки выбрать так, что значения процесса в этих точках имеют высокую корреляцию между собой, то совпадение корреляционных функций будет достаточно хорошим.
Пример 4.13. Используя метод канонических разложений, прогенерировать три элемента (N=3) реализации случайного процесса ξ(t) с корреляционной функцией
Решение 4.13. Используя рекуррентные формулы (4.10), получаем
Используя случайные некоррелированные числа из предыдущего примера (η(1)=1,002; η(2)=0,555; η(3)=0,046) и получаемую из (4.9) формулу
(4.11)
имеем
Если моделируемый процесс является нормальным, то, положив распределение Vk также нормальным, можно воспроизводить дискретные реализации нормальных случайных процессов, заданных на конечном интервале времени.
Достоинства
и недостатки метода канонических
разложений совпадают с методом линейных
преобразований. Достаточно убедиться,
что алгоритмы
(4.7) и (4.11)
в точности совпадают, то есть
и т.д.
Метод скользящего суммирования. В отличие от ранее рассмотренных, данный R-метод позволяет воспроизводить реализации случайного процесса неограниченной длины.
Пусть
дана последовательность независимых
случайных чисел η(t)
с M[η]=0
и σ[η ]=1,
при этом