- •Регрессионные модели идентификации: статический объект, понятия о регрессии, парная и множественная регрессия, ошибка идентификации.
- •Диагностирование линейных оу методом комплементарного сигнала. Процедуры диагностирования, оценка работоспособности оу, локализация дефектов по годографу неисправностей.
- •2. Диагностирование линейных оу методом комплементарного сигнала. Постановка задачи, расчет кс по измеренным значениям выходного сигнала.
- •2. Диагностирование линейных оу методом комплементарного сигнала. Постановка задачи, аналитический расчет кс.
- •2. Дифференциальные модели од: метод малого параметра, условия работоспособности.
- •Составить булеву матрицу для конкретной функциональной модели.
- •2. Построение тестов: формулирование задачи, множество проверок, составление булевой матрицы, нахождение элементарных тестов на примере булевой матрицы.
- •2. Авторегрессионные модели идентификации.
- •2. Функциональные модели: задание модели, графическое представление, множество состояний од, таблица неисправностей, неразличимые состояния.
- •Представим степень интеграла в правой части (23) в виде произведения интегралов:
- •2. Линейное прогнозирование состояния од: точечный прогноз
- •2. Составить дробный факторный план (четверть реплики) для модели
- •2. Планы для квадратичных моделей, постановка задачи. Ортогональный центральный композиционный план второго порядка: структура плана, свойства плана.
- •2. Планы для моделей, содержащих линейные члены и взаимодействия различного порядка: дробный факторный план для модели , контраст плана, допустимость плана.
- •2. Оценка состояния объекта по результатам измерения выхода оу, фильтр с конечной памятью.
- •2. Применение дробного фп для модели , правила составления таблицы, смешение оценок коэффициентов модели.
- •Частотный метод определения коэффициентов пф
- •2. Формулы для вычислений и свойства полных и дробных факторных планов для линейных моделей.
- •2. Условия Гаусса – Маркова: проверка случайного характера элементов остаточного ряда
- •2. Оценка адекватности модели оу при проведении параллельных опытов.
- •2. Полные факторные планы первого порядка, определение примеры пфп для , свойства матрицы планирования.
- •Правило построения полных факторных планов
- •2. Дробные факторные планы (дробный факторный эксперимент): дробные реплики, определение, правило построения дробных факторных планов, генератор плана.
- •2. Планы для квадратичных моделей (планы второго порядка), постановка задачи, полные факторные планы
- •2. Метод сопряженных направлений для квадратичной целевой функции.
- •2.Составление булевой матрицы для конкретной функциональной модели.
2. Диагностирование линейных оу методом комплементарного сигнала. Постановка задачи, расчет кс по измеренным значениям выходного сигнала.
Объект
диагностики представляет собой линейную
непрерывную систему, которая заданна
описанием в пространстве состояний
вида (1). Объект имеет один вход и один
выход.
(1)
Управляющий
сигнал представляет собой последовательность
разнополярных импульсов длительностью
:
(2)
где
– импульсы.
– амплитуды
импульсов. Управляющий сигнал имеет
вид:
- комплементарный сигнал
Процедура диагностики содержит два этапа:
синтез комплементарного сигнала (КС); 2)обнаружение и локализация дефектов.
Расчет КС по измеренным значениям выходного сигнала
На вход объекта подается единичный импульс длительностью , – реакция объекта на прямоугольный импульс. – значения реакции в дискретные моменты времени. (7)
Оценки должны быть такими, чтобы с момента времени реакция объекта . Решение:
Обозначим N+n – число отсчетов выходного сигнала объекта управления. N – размерность объекта N>n. Так как ОУ является линейным. То для него справедлив принцип суперпозиции: выход объекта при воздействии КС равен сумме реакций объекта на каждый из импульсов этого сигнала.
для
момента
В
терминах выходных отсчетов:
Это соотношение можно записать для всех других измерений
(8)
Первое слагаемое можно перенести в
правую часть и система (8) представится
в векторной форме:
Введем
в рассмотрение матрицу
,
где
,
.
Используя
МНК получим оценки амплитуд (9):
(9)
Алгоритм (расчет КС по измерениям выходного сигнала)
На вход системы подать единичный импульс длительности .
Зафиксировать (n+N) значений реакции на единичный импульс, начиная с момента через каждые единиц времени.
Из выбранных значений составить матрицу
и
.
По формуле рассчитать
,
– матрица-столбец.
Если описание системы известно заранее, коэффициенты
можно
вычислить по формуле (6)Если описание системы неизвестно и для измерения доступен лишь выходной сигнал системы, коэффициенты КС можно определить, решив системы (8) и (9).
Билет №3. 1. Оценка параметров линейной регрессионной модели: линейная регрессионная модель, критерий идентификации, МНК-оценки коэффициентов модели
Предполагается,
что статический объект описывается
множественной регрессией с числом
факторов n.
Рассматривается объект с n
– входами и одним выходом, статическая
характеристика которого определяется
регрессионной зависимостью:
(3а)
Тогда
наблюдение
и статическая характеристика
связаны соотношением(3):
(3)
где
– случайная величина, вызванная действием
ненаблюдаемых входов. Требуется по
результатам наблюдений за входами и
выходами объекта определить
неизвестных параметров. Другими словами,
структура модели известна и задана –
(3а). А коэффициенты регрессии неизвестны
– параметрическая идентификация.
Для
оценки неизвестных коэффициентов
необходимы массивы данных о входах и
выходах объекта, которые получаем в
результате N
– измерений входов и выходов объекта
через одинаковые промежутки времени в
момент
.
В результате получаем массивы
,
где
.
В результате измерений можно составить
модель наблюдений (3) для каждого измерения
(4):
(4)
Каждое
из уравнений связывает выход со
статической характеристикой (значением
входов). Запишем модель наблюдений (4) в
векторной форме. Рассмотрим вектор
неизвестных параметров
,
вектор выходных наблюдений
.
n
– число факторов (входов), N
– число опытов (измерений). Данные по
входам оформим в виде матрицы
.
Коэффициент
,
чтобы отразить влияние всех коэффициентов,
а все остальные элементы – коэффициенты,
соответствующие измеренные входы.
-
матрица измерения входа. Запишем (4) в
векторной форме (5):
(5)
Можно найти приближенное значение
– оценки
.
Поэтому
–
не значение регрессии (статической
характеристики объекта), а оценка выхода
объекта (выход модели). Для нахождения
оценки коэффициентов определяем ошибку
идентификации:
– остаточный
ряд, где
- вектор невязок (остатков).
Для
упрощения вычисления оценок будем
считать, что ошибки идентификации
являются центрированными, т.е.
,
и некоррелированными.
– дисперсия остатка,
– единичная
матрица,
– ковариационная матрица остатков,
элементами которой являются ковариации
между остатками, а по главной диагонали
дисперсии. Т.к. по предположению все
элементы равны 0, то ошибки некоррелированны,
другими словами,
– белый шум. Для нахождения оценок
коэффициентов регрессии введем критерий
идентификации в виде квадрата нормы
остатков:
(6) В качестве оценок выбирают такие
величины, при которых
.
(6) – оптимизационная задача без
ограничений, т.е.
может
быть любым. Находится векторная
производная от целевой функции и
приравнивается к нулю:
– матричное
уравнение. В результате получим
(7) Оценки, получаемые по данному методу,
МНК (метод наименьших квадратов) –
оценки. Оценки можно вычислить, если
.
Точность
МНК – оценки
.
Т.к.
оценки являются случайными, то для их
оценивания используется ковариационная
матрица.
Последовательность
случайных величин является центрированной
и некоррелированной
.
Рассмотрим
ошибку измерения коэффициента регрессии
– разность между действительным
значением и оценкой:
.
Требуется определить математическое
ожидание оценки
и ковариационную матрицу ошибок
оценивания:
Заменим оценку оценкой из (7), вместо
вектора наблюдений подставив модель
наблюдений получим (7б):
(7б)
Подвергнем обе части операции
математического ожидания:
Случайные
величины центрированы. Следовательно,
математическое ожидание равно нулю, и
значение ожидаемой оценки равно
действительному значению. Значение МНК
– оценки является несмещенным. Заменим
ошибки измерения коэффициентов их
значениями, и подвергнем операции
математического ожидания:
(7в)
(7в) определяет точность оценки коэффициентов регрессии. Ковариационная матрица – математическое ожидание произведения двух случайных центрированных векторов. Элементами ковариационной матрицы являются ковариации между компонентами векторов, которые представляют ошибки измерения коэффициентов регрессии. На главной диагонали – дисперсии, которые характеризуют точность измерения коэффициентов регрессии.
