- •Регрессионные модели идентификации: статический объект, понятия о регрессии, парная и множественная регрессия, ошибка идентификации.
- •Диагностирование линейных оу методом комплементарного сигнала. Процедуры диагностирования, оценка работоспособности оу, локализация дефектов по годографу неисправностей.
- •2. Диагностирование линейных оу методом комплементарного сигнала. Постановка задачи, расчет кс по измеренным значениям выходного сигнала.
- •2. Диагностирование линейных оу методом комплементарного сигнала. Постановка задачи, аналитический расчет кс.
- •2. Дифференциальные модели од: метод малого параметра, условия работоспособности.
- •Составить булеву матрицу для конкретной функциональной модели.
- •2. Построение тестов: формулирование задачи, множество проверок, составление булевой матрицы, нахождение элементарных тестов на примере булевой матрицы.
- •2. Авторегрессионные модели идентификации.
- •2. Функциональные модели: задание модели, графическое представление, множество состояний од, таблица неисправностей, неразличимые состояния.
- •Представим степень интеграла в правой части (23) в виде произведения интегралов:
- •2. Линейное прогнозирование состояния од: точечный прогноз
- •2. Составить дробный факторный план (четверть реплики) для модели
- •2. Планы для квадратичных моделей, постановка задачи. Ортогональный центральный композиционный план второго порядка: структура плана, свойства плана.
- •2. Планы для моделей, содержащих линейные члены и взаимодействия различного порядка: дробный факторный план для модели , контраст плана, допустимость плана.
- •2. Оценка состояния объекта по результатам измерения выхода оу, фильтр с конечной памятью.
- •2. Применение дробного фп для модели , правила составления таблицы, смешение оценок коэффициентов модели.
- •Частотный метод определения коэффициентов пф
- •2. Формулы для вычислений и свойства полных и дробных факторных планов для линейных моделей.
- •2. Условия Гаусса – Маркова: проверка случайного характера элементов остаточного ряда
- •2. Оценка адекватности модели оу при проведении параллельных опытов.
- •2. Полные факторные планы первого порядка, определение примеры пфп для , свойства матрицы планирования.
- •Правило построения полных факторных планов
- •2. Дробные факторные планы (дробный факторный эксперимент): дробные реплики, определение, правило построения дробных факторных планов, генератор плана.
- •2. Планы для квадратичных моделей (планы второго порядка), постановка задачи, полные факторные планы
- •2. Метод сопряженных направлений для квадратичной целевой функции.
- •2.Составление булевой матрицы для конкретной функциональной модели.
2. Планы для моделей, содержащих линейные члены и взаимодействия различного порядка: дробный факторный план для модели , контраст плана, допустимость плана.
План ДФЭ 23-1 . Здесь n = 3, l =1, N=23-1=4.
Генератор
в виде
.
Для неполного квадратичного полинома
количество столбцов плана составляет восемь.
|
|
|
|
|
|
|
|
|
1 |
+1 |
-1 |
-1 |
+1 |
+1 |
-1 |
-1 |
+1 |
2 |
+1 |
+1 |
-1 |
-1 |
-1 |
-1 |
+1 |
+1 |
3 |
+1 |
-1 |
+1 |
-1 |
-1 |
+1 |
-1 |
+1 |
4 |
+1 |
+1 |
+1 |
+1 |
+1 |
+1 |
+1 |
+1 |
.
Суммарные значения коэффициентов
,
,
определяются аналогично.
Под контрастом плана понимается соотношение между элементами матрицы F, задающее элемент первого столбца матрицы F.
Элементы
первого столбца, всегда равные единице,
обозначим символически через
.
План
с генератором
имеет следующий контраст:
.
План
с генератором
имеет контраст
.
Пример
Для дробного факторного плана 23-1 с
контрастом
получаем следующий порядок смешивания
для факторов
и
:
Для
оценок имеем соответственно
Для
дробного факторного плана 24-1 с контрастом
получаем аналогично
Порядок
контраста - число элементов в нем
.
.
обобщающий контраст Пример
Для
дробного факторного плана 25-2 в качестве
генераторов выбраны соотношения
и
Контрасты
плана
и
Обобщающий
контраст
.
Умножая все составляющие обобщающего контраста на факторы, находим совпадающие столбцы матрицы F:
.
Вычислительные
формулы и свойства планов
Оценки всех коэффициентов не смешаны (т. е. матрица F не имеет совпадающих столбцов):
. (2)
.
(3)
Планы типа являются, таким образом, ортогональными для моделей вида (1). Для вычисления оценок коэффициентов получаем формулы
(6) Здесь (k +1) —общее число коэффициентов
модели (1).
Билет №13. 1. Численные методы оптимизации.
Если вид нелинейной регрессии известен, то задача получения модели сводится к определению коэффициентов регрессии, т.е. задача идентификации сводится к задаче параметрической идентификации, которая заключается в таком выборе векторов оценок коэффициентов регрессии , при котором критерий идентификации достигал бы . Т.е. приходим к задаче оптимизации без ограничений (на оценки коэффициентов регрессии никаких ограничений не накладывается). Для решения подобных задач используется, как правило, численные методы оптимизации.
Решение
задачи нахождения векторов оценок,
которые минимизируют критерий
идентификации:
.
Ограничения на вектор оценок не накладывается – задача безусловной оптимизации.
Градиентные методы поиска
Этот
метод первого порядка, который использует
информацию о производной функции f.
Значения f или критерия идентификации
должны быть дифференцируемы на Rn (во
всем n – мерном пространстве), т.е. иметь
градиент в любой точке этого пространства.
Алгоритм метода -
(
-
точка
- ого приближения,
второе
слагаемое в (30)
– скаляр, показывающий величину
шага(длину) перемещений из точки
в точку
;
– градиент, указывающий направление
от точки
приближения к точке
–
го приближения. Т.к. значение (-1), то
направление осуществляется вдоль
антиградиента.
Точка
начального приближения
задается
методом приближения к оси.
a)
– простейший градиентный метод;
б)
– метод наискорейшего спуска;
в)
–градиентный метод с дроблением шага.
Неравенство – условие спуска.
Задаются
величины
,
обычно
.
Проверка выполнения условия спуска.
Если выполняется,
не меняют. Если не выполняется, то шаг
дробят до выполнения условия.
Особенности: градиентные методы эффективные с точки зрения скорости сходимости, на начальных этапах оптимизационной процедуры, когда критерий идентификации хорошо аппроксимирует линейную зависимость. В окрестности точки минимума, где градиент близок к нулю, данный метод требует множество итераций для уточнения окрестности точки минимума.
Градиентный метод для произвольной функции f сходится к множеству стационарных точек, а не к точке минимума. Стационарной является точка, удовлетворяющая нулевому градиенту, т.е. градиент c* равен нулевому вектору.
Метод сопряженных направлений
Метод
сопряженных направлений – это метод,
использующий процедуру формирования
точек, в которых
определяется оптимальным образом, а
вектор
– система сопряженных направлений
(векторов).
Один из способов формирования системы сопряженных направлений следующий:
(первое
сопряженное направление – антиградиент);
Если
критерий идентификации
- квадратичная функция вида:
.
где
– неизвестный вектор;
– неизвестная квадратичная симметричная
матрица, то сопряженный вектор
удовлетворяет следующим условиям:
и
тогда
– скалярная величина.
Если функция является квадратичной, то алгоритм сопряженных направлений является конечношаговым и достигает точки минимума любой точки начального приближения.
Если функция отлична от квадратичной, то формирование сопряженных направлений осуществляется по тем же формулам, но:
.
Особенности: метод сопряженных градиентов
сходится к точке минимума для любой
функции
.
