
- •Оглавление
- •Список принятыХ СокращениЙ
- •Введение
- •1. Типы имитационных моделей по особенностям обработки
- •Типы им по виду входного воздействия
- •2. Особенности имитационных моделей. Эксперимент
- •2. Система регулирования частоты и напряжения (срчн)
- •3. Проблемы первичной обработки экспериментальных данных
- •4. Имитация детерминированных воздействий
- •4.1. Эквивалентирование детерминированных возмущений
- •4.2. Имитация динамических детерминированных возмущений
- •4.3. Принципы аппроксимации детерминированных возмущений
- •5. Характеристики случайных возмущений
- •5.1. Скалярные случайные величины
- •5.1.1. Дискретные случайные величины
- •5.1.2. Непрерывные случайные величины
- •5.2. Векторные случайные величины
- •5.2.1. Дискретные случайные векторы
- •Задание двумерного случайного вектора
- •5.2.2. Функция распределения векторных случайных величин
- •5.2.3. Непрерывные векторные случайные величины
- •5.2.4. Числовые характеристики векторных случайных величин. Независимость случайных величин
- •5.2.5. Линейные преобразования векторных случайных величин
- •5.3. Свойства скалярных случайных процессов
- •5.4. Свойства векторных случайных процессов
- •5.4.1. Линейные преобразования векторных случайных процессов
- •5.5. Стационарные случайные процессы и их свойства
- •6. Общие принципы имитации случайных возмущений
- •6.1. Имитация случайных величин
- •6.2. Динамическая система с входным белым шумом
- •6.2.1. Реакции непрерывных стохастических систем на входной белый шум
- •6.2.2. Реакции дискретных стохастических систем на входной белый шум
- •6.2.3. Дискретная аппроксимация непрерывных стохастических систем
- •6.3. Имитация случайных процессов
- •6.3.1. Имитация стационарных случайных процессов
- •Варианты формирующих фильтров
- •6.3.2. Имитация нестационарных случайных процессов
- •6.4. Имитация вероятностных переходов
- •7. Вычислительный эксперимент с имитационной моделью
- •7.1. Выборки и их свойства
- •7.2. Статистическое распределение выборки
- •7.3. Формирование возмущений в виде случайных величин с заданными выборочными характеристиками
- •7.4. Формирование векторных случайных величин с заданными выборочными характеристиками
- •7.5. Структура данных вычислительных экспериментов для имитационных моделей различных типов
- •Структура входных данных при имитации
- •Структура выходных данных моделирования
- •8. Обработка данных компьютерных экспериментов
- •8.1. Регрессионный анализ результатов моделирования
- •8.1.1. Общая характеристика задач регрессии
- •8.1.2. Линейная регрессия. Метод наименьших квадратов
- •8.1.3. Нелинейная регрессия
- •8.2. Корреляционный анализ данных моделирования
- •8.2.1. Точечная оценка коэффициентов корреляции
- •8.2.2. Точечная оценка корреляционного отношения
- •8.3. Прогноз в статистическом моделировании
- •8.4. Анализ рисков при статистическом моделировании
- •8.5. Критерии принятия решений
- •8.5.1. Многокритериальный анализ
- •8.6. Обработка данных статистического моделирования
- •Типы выходных переменных при моделировании
- •8.6.1. Особенности стохастического режима моделирования
- •Библиографический список
- •Приложения
- •Свойства основных распределений
- •1. Равномерное распределение
- •2. Нормальное распределение
- •3. Показательное распределение
- •4. Биномиальное распределение
- •Биномиальный закон распределения
- •5. Распределение Пуассона
- •Закон распределения Пуассона
- •6. Гамма-распределение
- •7. Распределение Вейбулла
- •8. Распределение Рэлея
- •9. Распределение хи-квадрат
- •10. Распределение Стьюдента (t-распределение)
- •11. Распределение Фишера (f-распределение)
- •Приложение 2
- •Производная и
- •Интеграл случайной функции
- •Производная случайной функции
- •Сходимость в среднем квадратическом
- •Производная случайной функции
- •Интеграл случайной функции [3]
8.1.3. Нелинейная регрессия
При выборе регрессионных соотношений в практике решения задач регрессии достаточно часто используются нелинейные функции искомых параметров, которые определяют принадлежность такой задачи к классу задач нелинейной регрессии. Примерами нелинейных регрессионных зависимостей могут служить
у = exp(0) + ln(1) х + ε; у = (0)2 + 1х + (1/2) х2 + ε
и другие, в которых аддитивно или мультипликативно входят нелинейные функции параметров.
Решение задач нелинейной регрессии требует применения процедур численного поиска, реализующих один из методов поиска экстремума функции многих переменных. Известно, что разработка и отладка соответствующих программ поиска экстремумов — сложная и трудоемкая проблема, требующая значительных затрат времени и сил. Поэтому применение систем компьютерной математики, в которых такие программы предусмотрены, существенно упрощает и, в большом числе случаев, делает весьма простым практическое применение поисковых методов решения задач регрессии. В среде Mathcad подобные программы существуют в виде процедур, вызов которых осуществляется встроенными функциями minimize и maximize для минимизации и максимизации целевых функций соответственно.
Поисковые процедуры можно использовать и для решения задач линейной регрессии. Но, как следует из п. 8.1.2, использование простого алгоритма МНК значительно удобнее. Следует отметить, что ряд вариантов задач регрессии с линейными зависимостями откликов от искомых параметров при наличии дополнительных условий превращаются в задачи нелинейной регрессии. Это происходит, чаще всего, при введении ограничений на искомые параметры. Наличие таких ограничений делает возможным решение подобных задач регрессии лишь на основе применения поисковых процедур.
При решении задач нелинейной регрессии должны быть выполнены этапы, аналогичные тем, которые рассматривались при решении задач линейной регрессии: выбор регрессионного соотношения, формирования меры близости исходных данных и значений ординат регрессионной кривой, выбор выражения для минимизируемого критерия и проч. Кроме этих общих позиций, в задачах нелинейной регрессии должны быть заданы численные значения параметров, выступающих в качестве начального приближения для поисковой процедуры. Подходы к решению задач нелинейной регрессии в целом аналогичны принципам решения задач аппроксимации, достаточно подробно рассмотренных в п. 4.3. Учитывая это, ограничимся здесь типовыми примерами использования алгоритмов поиска экстремумов. Проиллюстрируем возможность применения поисковых процедур и приведем два варианта решения задачи линейной регрессии, рассмотренной ранее (см. рис. 8.1 и рис. 8.2). Результаты приведены на рис. 8.3.
Рис. 8.3. Решения задач регрессии алгоритмом поиска
В примере (см.
рис. 8.3) была поставлена задача
построить линейную регрессию путем
поиска экстремума функции искомых
параметров
,
,
,
используя в качестве регрессионной
зависимости полином второго порядка,
для случаев:
1) без наложения ограничений на искомые параметры;
2) при наложении ограничения вида 1 – 0,03.
Решения для этих двух вариантов на рис. 8.3 помечены цифрами 1 и 2 соответственно. Для первого варианта на рис. 8.1 и рис. 8.2 были получены решения с применением традиционного алгоритма МНК и рекуррентного алгоритма. Результирующее регрессионное соотношение было получено в форме: = – 0,753 – 0,078 х + 0,178 х2; остаточная сумма квадратов была равна 0,91.
Оптимизация для варианта 1 (см. рис. 8.3) производилась применением встроенной функции minimize, реализующей несколько численных методов поиска. При решении был выбран метод Ньютона. Начальные приближения для исеомого вектора в первом варианте соответствовали нулевому вектору.
В варианте 1 получены значения параметров (– 0,753, – 0,078, 0,178), полностью совпадающие с ранее полученными на рис. 8.1 и рис. 8.2 значениями. Совпадение результатов объясняется использованием одного и того же критерия (минимум суммы квадратов невязок) и отсутствием ограничений на параметры. Значение целевой функции при найденных параметрах соответствует остаточной сумме квадратов невязок S; в первом варианте она равна 0,91, что также совпадает с ранее найденной величиной.
Во втором варианте решение получено с заданным ограничением. Вводу ограничений при использовании minimize должно предшествовать ключевое слово given, означающее, что решение ищется в рамках вычислительного блока Mathcad.
В варианте 2 вводится
ограничение 1
– 0,03, что несколько изменяет результат
и, естественно, увеличивает значение
остаточной суммы квадратов невязок.
Регрессионные параметры в варианте 2
получены равными (– 0,829, – 0,03,
0,173); S = 0,925. Результирующее регрессионное
соотношение при введенном ограничении
1 – 0,03
принимает вид:
= – 0,829 – 0,03х + 0,173х2. Минимальное
значение критерия (0,925) соответствует
нижней допустимой границе параметра
1
= – 0,03, при которой остальные параметры
определены алгоритмом поиска равными
0
= – 0,829 и 2
= 0,173.