![](/user_photo/2706_HbeT2.jpg)
- •Глава 1. Понятие модели. Чем замечательны модели математические
- •1.1. Что будем называть моделью и моделированием
- •1.2. Наука, научное знание, систематизации научных моделей
- •1.3. Обман чувств и интуиция. Спасение математикой
- •1.4. Сколько моделей может быть у одного объекта
- •1.6. Структурная схема процесса математического моделирования
- •1.7. Выводы из исторической практики моделирования. Показательная судьба моделей механики
- •Глава 2. Два подхода к моделированию и прогноз (вероятностный и динамический)
- •2.1. Основные понятия и особенности динамического моделирования
- •2.1.1. Определение динамической системы
- •2 .1.3. Фазовое пространство. Консервативные и диссипативные системы. Аттракторы, мультистабильность, бассейны притяжения
- •2.1.5. Пространство параметров. Бифуркации. Комбинированные пространства, бифуркационные диаграммы
- •2.2.4. Случайность как непредсказуемость
- •Глава 3. Динамические модели эволюции
- •3.1.1. Оператор, отображение, уравнение, оператор эволюции
- •3.1.2. Функции, непрерывное и дискретное время
- •3.1.4. Потоки и каскады, сечение и отображение Пуанкаре
- •3.5.2. Популярный класс модельных уравнений – осцилляторы
- •3.7.3. Дифференциальные уравнения с запаздыванием
- •4 .4. Процессы авторегрессии – скользящего среднего
- •4.5. Стохастические дифференциальные уравнения и белый шум
3.7.3. Дифференциальные уравнения с запаздыванием
Системы
с запаздывающей обратной связью являются
генераторами колебаний, включая
хаотические.
.
учитывают возможность существования
нескольких причин запаздывания с разными
характерными масштабами. Eравнение
Маккея–Гласса, описывающее процесс
выработки красных кровяных клеток в
живых организмах:
.
Уравнение генератора с запаздывающей
обр. связью, популярного в радиофизике:
.
Эти ДС являются бесконечномерными, т.к.
при задании начальных условий необходимо
указать распределение динамической
переменной на временном отрезке [0,
].
Эти системы демонстрируют большое
кол-во режимов (аттракторов в ФП,
мультистабильность, хаос и прочие).
3
.7.4.
Дифференциальные уравнения в частных
производных –
классический аппарат для моделирования
колебательных систем. Наиболее известные
модели – уравнения Максвелла, Шредингера,
ур-е типа реакция-диффузия и т.д.
– ур-е простой волны, где
–
распространения возмущения,
- пространственная координата.
– уравнение Кортевега – де Вриза
(описывает волны солитонного типа –
локализованные возмущения, распространяющиеся
с постоянной скоростью без изменения
формы).
3.8.
Искусственные нейронные сети
– вид мат. моделей, которые строятся по
принципу организации и функционирования
их биологических прототипов – сетей
нервных клеток (нейронов) мозга.
Используется идея о том, что нейроны
можно моделировать довольно простыми
автоматами (искусственными нейронами),
а вся сложность мозга, гибкость его
функционирования и другие важнейшие
качества определяются связями между
нейронами. Искусственный
нейрон состоит из
адаптивного сумматора и нелинейного
преобразователя. На его входы подается
вектор входных значений переменной
{xn}.
Каждому входу xi
соответствует свой
вес wi.
Сумматор осуществляет взвешенное
(адаптивное, подстраивающееся с помощью
весов) суммирование входов
,
а нелинейный преобразователь формирует
сигнал на выходе нейрона
.
Выбор функции активации F
нейрона определяется:
1) спецификой задачи, 2) удобством
реализации на ЭВМ, 3) алгоритмом обучения.
В полносвязных нейронных сетях каждый нейрон передает свой выходной сигнал остальным нейронам, в том числе и самому себе. Выходными сигналами сети могут быть все или некоторые выходные сигналы нейронов после нескольких тактов функционирования сети. В многослойных нейронных сетях нейроны объединяются в слои. Слой содержит совокупность нейронов с едиными входными сигналами. Число нейронов в слое может быть любым и не зависит от количества нейронов в других слоях. Состав: входной слой, скрытые слои, выходной слой. В зависимости от того, передают ли последующие слои свои сигналы на предыдущие слои, различают сети прямого распространения и сети с обратными связями. Свойства ИНС: 1. Обучаемость. Выбрав одну из архитектур НС и свойства нейронов, а также проведя алгоритм обучения, можно «обучить» сеть решению задачи, которая ей по силам. Нет гарантий, что это удастся сделать всегда, но во многих случаях обучение бывает успешным. 2. Способность к обобщению. После обучения сеть становится нечувствительной к малым изменениям входных сигналов (шуму) и дает правильный результат на выходе. 3. Способность к абстрагированию. Если предъявить сети несколько искаженных вариантов входного образа, то сеть сама может создать на выходе идеальный образ, с которым она никогда не встречалась. Решаемые задачи: распознавание образов (зрительных, слуховых), реализация ассоциативной памяти, кластеризация (разбиение изучаемой совокупности объектов на группы схожих между собой), аппроксимация функций, предсказание временных рядов, управление, принятие решений, диагностика. Обучение с учителем. При этом для построения решения используется обучающая выборка – пары известных входных-выходных значений. Обучение без учителя. Имеется набор входных векторов. Обучить сеть означает подобрать ее параметры так, чтобы она некоторым «оптимальным» образом классифицировала входные векторы.
4
.2.
Базовые модели случайных процессов
СП можно задать, определив явно
конечномерные законы распределения
вероятностей. Так вводятся базовые
модели теории случайных процессов.
1) Нормальный
(гауссовский)
случайный процесс – для него все
конечномерные законы распределения
являются нормальными. n-мерный
закон распределения имеет вид ..,
где
m(t) – мат. ожидание, K – АКФ, T –
транспонирование, |Vn|
- определтель матрицы Vn.
2) Процесс с независимыми приращениями; 3) Белый шум; 4) Дискретный БШ – независимые одинаково распределенные СВ; 5) Марковский процесс; 6) Цепь Маркова; 7) Винеровский процесс.