- •Регрессионные модели идентификации: статический объект, понятия о регрессии, парная и множественная регрессия, ошибка идентификации.
- •Диагностирование линейных оу методом комплементарного сигнала. Процедуры диагностирования, оценка работоспособности оу, локализация дефектов по годографу неисправностей.
- •2. Диагностирование линейных оу методом комплементарного сигнала. Постановка задачи, расчет кс по измеренным значениям выходного сигнала.
- •2. Диагностирование линейных оу методом комплементарного сигнала. Постановка задачи, аналитический расчет кс.
- •2. Дифференциальные модели од: метод малого параметра, условия работоспособности.
- •Составить булеву матрицу для конкретной функциональной модели.
- •2. Построение тестов: формулирование задачи, множество проверок, составление булевой матрицы, нахождение элементарных тестов на примере булевой матрицы.
- •2. Авторегрессионные модели идентификации.
- •2. Функциональные модели: задание модели, графическое представление, множество состояний од, таблица неисправностей, неразличимые состояния.
- •Представим степень интеграла в правой части (23) в виде произведения интегралов:
- •2. Линейное прогнозирование состояния од: точечный прогноз
- •2. Составить дробный факторный план (четверть реплики) для модели
- •2. Планы для квадратичных моделей, постановка задачи. Ортогональный центральный композиционный план второго порядка: структура плана, свойства плана.
- •2. Планы для моделей, содержащих линейные члены и взаимодействия различного порядка: дробный факторный план для модели , контраст плана, допустимость плана.
- •2. Оценка состояния объекта по результатам измерения выхода оу, фильтр с конечной памятью.
- •2. Применение дробного фп для модели , правила составления таблицы, смешение оценок коэффициентов модели.
- •Частотный метод определения коэффициентов пф
- •2. Формулы для вычислений и свойства полных и дробных факторных планов для линейных моделей.
- •2. Условия Гаусса – Маркова: проверка случайного характера элементов остаточного ряда
- •2. Оценка адекватности модели оу при проведении параллельных опытов.
- •2. Полные факторные планы первого порядка, определение примеры пфп для , свойства матрицы планирования.
- •Правило построения полных факторных планов
- •2. Дробные факторные планы (дробный факторный эксперимент): дробные реплики, определение, правило построения дробных факторных планов, генератор плана.
- •2. Планы для квадратичных моделей (планы второго порядка), постановка задачи, полные факторные планы
- •2. Метод сопряженных направлений для квадратичной целевой функции.
- •2.Составление булевой матрицы для конкретной функциональной модели.
2. Метод сопряженных направлений для квадратичной целевой функции.
Метод сопряженных направлений – это метод, использующий процедуру формирования точек, в которых определяется оптимальным образом, а вектор – система сопряженных направлений (векторов).
Один из способов формирования системы сопряженных направлений следующий:
(первое сопряженное направление – антиградиент);
Если критерий идентификации - квадратичная функция вида: .где – неизвестный вектор; – неизвестная квадратичная симметричная матрица, то сопряженный вектор удовлетворяет следующим условиям:
и
тогда
–
скалярная величина.
Если функция является квадратичной, то алгоритм сопряженных направлений является конечношаговым и достигает точки минимума любой точки начального приближения.
Если функция отлична от квадратичной, то формирование сопряженных направлений осуществляется по тем же формулам, но:
.
Особенности: метод сопряженных градиентов сходится к точке минимума для любой функции .
Билет №22. 1. Дискретный аналог уравнения Винера-Хопфа
Преобразуем
уравнение Винера-Хопфа
(3)
к дискретному времени с периодом
дискретизации
,
– число наблюдений на интервале
.
Результатом идентификации в этом случае
являются оценки дискрет весовой функции
,
представляющей собой модель ОУ. Интеграл
свертки
(7)
(7) преобразуется к дискретной свертке
(8)
Разделим
обе части (8) на
:
(9)
Весовую
функцию будем определять исходя из
минимума суммы квадратов отклонений
выхода модели относительно выхода ОУ
(квадратичного критерия).
(10)
Требуется подобрать такие дискреты, чтобы критерий идентификации достигал бы минимума. Берутся частные производные и приравниваются к нулю.
Преобразуем выражение и разделим обе части на N-m, N – число измерений входа и выхода в моменты времени, отстоящие друг от друга на период дискретизации .
(11)
Обозначим коэффициенты корреляции между сдвинутыми на (i-j) тактов выборками входного сигнала через
:
а
через i
– коэффициенты
взаимной корреляции между входом и
выходом ОУ:
.
Таким образом дискретный вариант уравнения Винера-Хопфа – (12):
(12)
Введем
в рассмотрение векторное значение
весовой функции
.
Корреляционную
матрицу входа
,
составленную из коэффициентов корреляции
входов и вектор взаимной корреляции.
Тогда система уравнений (12) можно записать
в векторной форме (13):
(13)
Откуда находится вектор значений весовой функции объекта:
(14)
- показывает, что задача может быть
решена, если корреляционная матрица
входа является невырожденной и если
эта матрица является хорошо обусловленной,
а задача идентификации в этом случае
корректно поставлена.
Если найти все собственные числа корреляционной матрицы входа, определяем среди них максимальное и минимальное, найдем отношение максимального и минимального, то полученное число – обусловленностей этой матрицы. Если число обусловленностей не сильно отличается от 1, то корреляционная матрица называется хорошо обусловленной. Хорошо обусловленная корреляционная матрица делает задачу идентификации корректной.
