Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
УчПособие.doc
Скачиваний:
3
Добавлен:
01.04.2025
Размер:
5.34 Mб
Скачать

Структура выходных данных моделирования

Тип ИМ

Возмущение

Выход ИМ

Структура выходных данных

Стационарная ИМ

сл. в. или в. сл. в.

m = 1

(1  n)-строка данных

m > 1

(mn)-матрица данных

сл. пр. или в. сл. пр.

m = 1

(1  n)-строка реализаций

m > 1

(mn)-матрица реализаций

Динамическая ИМ

сл. в. или в. сл. в.

m = 1

(1  n)-строка реализаций

m > 1

(mn)-матрица реализаций

сл. пр. или в. сл. пр.

m = 1

(1  n)-строка реализаций

m > 1

(mn)-матрица реализаций

8. Обработка данных компьютерных экспериментов

Результаты статистического моделирования, как следует из п. 7, представляют собой совокупности данных, отражающие свойства скалярных или векторных случайных величин и случайных процессов. Поскольку, в общем случае, обработка совокупностей реализаций случайных процессов производится по сечениям, основной составляющей процедур обработки результатов компьютерных экспериментов становится совокупность алгоритмов анализа скалярных и векторных случайных величин. В эту совокупность входят алгоритмы решения задач точечного и интервального оценивания, задач построения гистограмм и проверки гипотез, задач регрессии, точечного и интервального оценивания коэффициентов корреляции и корреляционного отношения, частных и сводных коэффициентов корреляции и многие другие задачи математической статистики. Некоторые алгоритмы, связанные, например, с проблемой первичной обработки, точечной оценкой параметров распределений, построением гистограмм, описаны в предыдущих разделах. Другие задачи детально рассмотрены в работе автора [3], поэтому в рамках настоящего материала основное внимание уделяется алгоритмам решения наиболее часто встречающихся задач. Среди них выделим задачи регрессионного и корреляционного анализа, задачи прогнозирования и анализа рисков.

8.1. Регрессионный анализ результатов моделирования

Регрессионный анализ служит основой построения математических моделей тех зависимостей, которые выявляются путем компьютерного эксперимента с моделями СС. Эти математические модели могут использоваться при сопоставительном анализе вариантов принимаемых решений (управляющих альтернатив), при прогнозировании развития наблюдаемых процессов, корреляционном анализе.

Рассмотрим основные положения и свойства задач регрессии, приведем варианты алгоритмов решения задач этого класса.

8.1.1. Общая характеристика задач регрессии

Задачи регрессии подразделяются на задачи линейной или нелинейной регрессии, причем каждый из задач этих двух подмножеств может представлять собой задачу простой или множественной регрессии.

Пусть в результате статистического моделирования изучается случайная величина Y, в общем случае зависящая от одной или нескольких других случайных (или неслучайных) величин X1, X2, …, Xk. Величину Y называют выходной переменной или откликом, а X1, X2, …, Xk — входными переменными, факторами. Целью решения задач регрессии служит получение зависимости у = f(x1, x2, …, xk), где у и xj ‑ значения отклика и факторов соответственно (j = ).

Число влияющих на Y факторов определяет тип задачи регрессии. При наличии одного фактора говорят о простой регрессии. Если факторов несколько, возникает задача множественной регрессии. В условиях случайных возмущений строгая функциональная зависимость между Y и Х недостижима по причинам влияния множества неопределенных факторов, которые выступают в качестве случайных воздействий на исследуемые процессы. Это означает, что между Y и Х существует лишь стохастическая (вероятностная) связь у  f(x1x2, …, xk), выявление которой и составляет сущность задачи регрессии.

Задача регрессионного анализа для рассматриваемого случая заключается в следующем. Проводя последовательность экспериментов, в каждом i-ом эксперименте фиксируются значения отклика yi и факторов (x1i, x2i, …, xki), соотношения между которыми записываются в виде:

yi = f(Xi, ) + εi , i = . (8.1)

Здесь Xi = (x1i, x2i, …, xki)Т — (k 1)-вектор значений факторов в i-ом эксперименте,  = (1, 2, …, m)Т — вектор неизвестных параметров, εi — случайная величина, характеризующая ошибку (невязку) соответствия yi и f(Xi, ) в i-ом эксперименте. Задача регрессии заключается в определении оценок неизвестных параметров и построении оценки функциональной зависимости между откликом и факторами вида:

= f(X, ). (8.2)

Выбирая один из допустимых по условиям задачи вариантов регрессионной зависимости f(Xi, ), исследователь решает задачу регрессии в рамках той или иной меры близости (точности).

Рассмотрим задачу регрессии при наличии одного фактора, влияющего на наблюдаемую переменную. Учет влияния нескольких факторов будет проведен ниже, при рассмотрении множественной регрессии.

Различают задачи линейной и нелинейной регрессии. В задачах линейной регрессии зависимости f(Xi, ) в (8.1) имеют линейный относительно неизвестных параметров  вид, например,

у = 0 + 1х + ε; (8.3)

у = 0 + 1х + 2х2 + ε; (8.4)

у = 0 + 1sin(х) + ε. (8.5)

Выражения (8.3) и (8.5) соответствуют варианту простой линейной регрессии, выражение (8.4) — полиномиальной (квадратичной) регрессии. Задача (8.3) также может быть названа задачей полиномиальной регрессии, поскольку зависимость f(Xi, ) выражена здесь полиномом первого порядка. Задачи линейной регрессии могут быть решены либо матричными преобразованиями исходных статистик, либо с применением алгоритмов численного поиска экстремумов.

Задачи нелинейной регрессии предполагают нелинейный относительно неизвестных параметров характер регрессионных зависимостей f(Xi, ). Простейшим примером таких задач служит экспоненциальная связь факторов и отклика вида у = exp(х) + ε. Некоторые из задач нелинейной регрессии с помощью функциональных преобразований могут быть сведены к линейному случаю [3]. Однако решение большинства задач нелинейной регрессии требует привлечения поисковых процедур.

В задачах регрессии с моделью в форме (8.1) предполагается, что невязки εi ‑ независимые случайные величины, имеющие одинаковый закон распределения с нулевым математическим ожиданием Mi) = 0 и дисперсией Di) = 2. Эти величины образуют вектор невязок ε = (ε1, ε2, …, εn)Т, математическое ожидание которого соответствует нулевому вектору, а ковариационная матрица cov(ε) = 2 Еn, где Еn ‑ единичная матрица порядка n.

Следует отметить, что общей теории выбора вида регрессионных зависимостей f(Xi, ) не существует. Выбор регрессионных зависимостей при решении конкретных задач регрессии (как и задач аппроксимации) исследователь осуществляет, пользуясь чаще всего теоретическими представлениями о возможном характере взаимосвязи Y и Х, иногда ‑ на основе визуального анализа результатов моделирования, графиков, на которые нанесены результаты наблюдений. Ниже показано, что каждый вид зависимости f(Xi, ) в конкретной задаче регрессии может быть охарактеризован количественной мерой погрешности. Это позволяет осуществлять выбор наиболее рациональной зависимости путем сопоставительного анализа ряда вариантов.