- •Идентификация как метод построения моделей
- •Задача идентификации
- •Сведения об объекте.
- •Идентификация статических оу. Определение статического объекта
- •Регрессионные модели идентификации
- •Выбор уравнения регрессии
- •Оценка параметров линейной регрессионной модели (пассивный эксперимент).
- •Аппаратная реализация процесса идентификации
- •Оценка адекватности модели
- •Проверка центрированности остаточного ряда
- •Проверка остатков на нормальное распределение
- •Оценка значимости модели и ее параметров
- •Критерий Фишера
- •Ошибка аппроксимации
- •Нелинейные регрессионные модели
- •1. Метод покоординатной оптимизации (Гаусса – Зайделя).
- •Градиентные методы поиска
- •Метод сопряженных направлений
- •Метод Ньютона
- •Квазиньютоновские методы
- •Динамические детерминированные су Линейные динамические объекты
- •Частотный метод определения коэффициентов пф
- •Идентификация с помощью настраиваемой модели
- •Метод модулирующих функций
- •В общем случае получаем
- •Конструкция модулирующих функций
- •Применение дискретных моделей для идентификации непрерывного оу
- •Непараметрические модели идентификации
- •Корреляционный метод идентификации
- •Корреляционный метод, решаемый на эвм
- •Разделим обе части (8) на :
- •Идентифицируемость оу
- •Оценка состояний объекта
- •Аппроксимация весовой функции оу
- •Авторегрессионные модели динамических объектов
- •Выбор периода дискретизации
- •Идентификация нелинейных непрерывных оу
- •Модели линейные относительно идентифицируемых параметров
- •Или более компактно, введя реакции динамических звеньев (5):
- •Представим степень интеграла в правой части (23) в виде произведения интегралов:
- •Планирование эксперимента
- •Критерии планирования эксперимента
- •Планы для моделей, описываемых полиномами первого порядка
- •Информационная матрица плана:
- •Полные факторные планы
- •Правило построения полных факторных планов
- •Дробные факторные планы (дробный факторный эксперимент)
- •Свойства полных и дробных факторных планов для линейных моделей
- •Технология проведения эксперимента
- •Планы второго порядка
- •Ротатабельный ортогональный центральный композиционный план
- •Диагностика линейных оу методом комплиментарного сигнала.
- •Аналитический расчет кс
- •Расчет кс по измеренным значениям выходного сигнала
- •Процедуры диагностирования
- •Локализация дефектов по годографу неисправностей (гн)
- •Байесовский метод диагностики
- •Прогнозирование технического состояния.
- •Линейное прогнозирование
Градиентные методы поиска
Этот метод первого порядка, который использует информацию о производной функции . Значения или критерия идентификации должны быть дифференцируемы на (во всем n – мерном пространстве), т.е. иметь градиент в любой точке этого пространства.
Алгоритм метода – выражение (30):
(30)
Т.к. – го приближения формируется на основании точных приближений и поправки – второе слагаемое в (30) – скаляр, показывающий величину шага(длину) перемещений из точки в точку ; – градиент, указывающий направление от точки приближения к точке – го приближения. Т.к. значение (-1), то направление осуществляется вдоль антиградиента.
Точка начального приближения задается методом приближения к оси.
a) – простейший градиентный метод;
б) – метод наискорейшего спуска;
в) –градиентный метод с дроблением шага. Неравенство – условие спуска.
Задаются величины , обычно . Проверка выполнения условия спуска. Если выполняется, не меняют. Если не выполняется, то шаг дробят до выполнения условия.
Особенности: градиентные методы эффективные с точки зрения скорости сходимости, на начальных этапах оптимизационной процедуры, когда критерий идентификации хорошо аппроксимирует линейную зависимость. В окрестности точки минимума, где градиент близок к нулю, данный метод требует множество итераций для уточнения окрестности точки минимума.
Градиентный метод для произвольной функции сходится к множеству стационарных точек, а не к точке минимума. Стационарной является точка, удовлетворяющая нулевому градиенту, т.е. градиент равен нулевому вектору.
Метод сопряженных направлений
Метод сопряженных направлений – это метод, использующий процедуру формирования точек, в которых определяется оптимальным образом, а вектор – система сопряженных направлений (векторов).
Один из способов формирования системы сопряженных направлений следующий:
(первое сопряженное направление – антиградиент);
Если критерий идентификации - квадратичная функция вида:
.
где – неизвестный вектор;
– неизвестная квадратичная симметричная матрица, то сопряженный вектор удовлетворяет следующим условиям:
и тогда – скалярная величина.
Если функция является квадратичной, то алгоритм сопряженных направлений является конечношаговым и достигает точки минимума любой точки начального приближения.
Если функция отлична от квадратичной, то формирование сопряженных направлений осуществляется по тем же формулам, но:
.
Особенности: метод сопряженных градиентов сходится к точке минимума для любой функции .
Метод Ньютона
Используются как первые, так и вторые производные функции . Первая производная представляется градиентом, вторые – матрицей ИССЭ (квадратичной , симметричной матрицей, составленной из вторых частных производных):
.
Алгоритм:
Метод является самым «быстрым» – наибольшая скорость сходимости к точке минимума.
Недостатки:
трудоемкость вычисления обратной матрицы
метод Ньютона не из каждой точки начального приближения сходится в точке минимума. Метод не относится к методу спуска. Поэтому часто используется модифицируемый метод:
На каждом шаге параметр подбирается таким образом, что выполняется условие спуска. В этом случае модифицируемый метод Ньютона становится не критичным к выбору точки начального приближения.