
- •Основные понятия теории моделирования Моделирование как метод научного познания
- •Понятие модели и моделирования
- •Понятие информационной модели
- •Виды моделирования
- •Математическое и компьютерное моделирование
- •Пример моделирования простейшей системы
- •Формализация систем и классификация моделей Некоторые термины системного анализа
- •Формальная модель объекта.
- •Классификация моделей
- •Основные требования к математическим моделям
- •Этапы процесса моделирования
- •Статические регрессионные модели Понятие черного ящика и регрессии
- •Линейная одномерная регрессионная модель
- •Линейная множественная регрессионная модель
- •Нелинейные регрессионные модели
- •Динамические модели Динамические системы
- •Динамическая система первого порядка
- •Звено второго порядка (колебательное звено)
- •Динамические регрессионные модели
- •Модель в виде фильтра Каллмана
- •Статистическое моделирование Понятие статистического моделирования
- •Метод Монте-Карло.
- •Генераторы случайных чисел
- •Проверка качества работы генератора
- •Моделирование случайной величины с заданным законом распределения
- •Моделирование системы случайных величин
- •Потоки случайных событий
- •Системы массового обслуживания (смо)
- •Принципы компьютерного моделирования смо
- •Задания
- •1. Моделирование простейшей системы
- •2. Статическая регрессионная модель
- •3. Динамическая регрессионная модель
- •4. Метод Монте-Карло и генераторы случайных чисел
- •5. Моделирование смо
- •Приложения
- •Нормальный закон распределения (закон Гаусса)
- •Распределение Пуассона
- •Список источников
- •Моделирование процессов и систем
- •153000 Г. Иваново, пр. Ф. Энгельса, 21 Оглавление
Статические регрессионные модели Понятие черного ящика и регрессии
В целях исследований иногда бывает удобно представить исследуемый объект в виде ящика, имеющего входы и выходы, не рассматривая детально его внутренней структуры.
Объект, о внутреннем строении которого ничего неизвестно, называют чёрным ящиком. Значения на входах и выходах черного ящика можно наблюдать и измерять.
Задача состоит в том, чтобы, зная множество значений на входах и выходах, построить модель, то есть определить функцию ящика, по которой вход преобразуется в выход. Такая задача называется задачей регрессионного анализа.
Регрессия в теории вероятностей и математической статистике – это зависимость среднего значения какой-либо величины от некоторой другой величины или от нескольких величин. В отличие от чисто функциональной зависимости у = f(х), когда каждому значению независимой переменной х соответствует одно определённое значение величины у, при регрессионной связи одному и тому же значению х могут соответствовать в зависимости от случая различные значения величины у.
Линейная одномерная регрессионная модель
П
редположим,
что мы имеем дело с черным ящиком, имеющим
один вход и один выход.
1.
Гипотеза. Допустим, что зависимость
между входом и выходом линейная (рис.
3):
.
Тогда данная модель будет называться линейной одномерной регрессионной моделью.
2. Определение неизвестных коэффициентов a0 и a1 модели.
Для
каждой из n
снятых экспериментально точек ошибка
Ei
– это разность
между
экспериментальным значением YiЭксп.
и теоретическим значением YiТеор.,
лежащим на гипотетической прямой
.
Эти ошибки
называют регрессионными
остатками:
.
Все ошибки надо сложить. Чтобы положительные ошибки не компенсировали в сумме отрицательные, находят сумму квадратов регрессионных остатков F:
|
(2) |
Меняя переменные a1 и a0, можно влиять на величину суммарной ошибки F, добиваясь того, чтобы она стала минимальной.
Условие минимума (частные производные функции F по переменным a1 и a0 равны нулю):
|
(3) |
Получим систему уравнений
|
(4) |
Решив систему (4), например, методом Крамера, получим:
|
(5) |
|
|
||
|
|
Линейную регрессию часто называют методом наименьших квадратов, поскольку коэффициенты вычисляются из условия минимизации суммы квадратов ошибок (2).
3. Проверка гипотезы.
Для выяснения, насколько точен регрессионный анализ, используется сумма квадратов регрессионных остатков F(a0,a1) – мера рассеяния зависимой переменной вокруг линии регрессии.
Надо
найти значение F,
среднеквадратичное отклонение
и расстояние
(см. рис. 4, 5).
Если рассеяние (или среднеквадратичное отклонение) достаточно мало, и в полосу шириной 2σ (рис. 5), ограниченную линиями YТеор.–S и YТеор.+S, попадает 68.26% и более экспериментальных точек, то выдвинутая гипотеза принимается. В противном случае выбирают более сложную гипотезу или проверяют исходные данные.
Е
сли
требуется бóльшая точность, то используют
дополнительное условие: в полосу,
ограниченную линиями YТеор.–2S
и YТеор.+2S,
должны попасть 95.44% экспериментальных
точек.
Условия принятия гипотезы получены из нормального закона распределения случайных ошибок – закона Гаусса (рис. 6). Здесь P – вероятность распределения нормальной ошибки.