
- •6. Адаптивные системы
- •6.1. Адаптивные системы и идентификация (Лекция 17)
- •6.1.1. Основные схемы адаптивных систем
- •6.1.1.1. Предназначение адаптации
- •6.1.1.2. Схема адаптации по разомкнутому контуру
- •6.1.1.3. Схема с самонастраивающимся регулятором
- •6.1.1.4. Схема с настройкой регулятора по эталонной модели
- •6.1.1.5. Общая схема адаптивной системы
- •6.1.2. Идентификация моделей
- •6.1.2.1. Идентификация структурная и параметрическая
- •6.1.2.2. Содержание метода наименьших квадратов
- •6.1.2.3. Рекуррентный алгоритм метода наименьших квадратов
6.1.2.2. Содержание метода наименьших квадратов
Для параметрической идентификации модели объекта, записанной в форме (6.1), часто применяется метод наименьших квадратов. Его суть состоит в следующем. Имеется обучаемая модель объекта (6.1) и имеется обучающая выборка, т.е. множество записей измеренных значений входных и выходных величин:
,
(6.2)
где верхней меткой обозначены измеренные значения, а N– количество записей измерений.
Значения параметров
в (6.1) требуется определить так, чтобы
прогнозируемые по модели (1) значения уминимально отличались от измеренных
значений
при одних и тех же значениях входных
переменных
.
В качестве меры близости прогнозируемых
значений к измеренным значениям
чаще всего используют сумму квадратов
отклонений прогноза от измерения по
всем экспериментальным точкам:
.
(6.3)
Подставив сюда ув соответствии с (6.1), получим
.
(6.4)
Наилучшему
приближению соответствует минимальное
значение (6.4). В нём все величины, кроме
параметров j,
заданы. Каковы бы ни были функции φ()
они превращаются в числа после подстановки
в них измеренных значений аргументов.
Переменными, от которых зависит величинаF(),
являются только параметры.
СледовательноF(),
определяемое (6.4), является функцией
параметрови только
изменением их значений можно влиять на
значениеF().
Из математического анализа известно, что значения аргументов при которых функция достигает экстремум, могут быть найдены приравниванием нулю её производных по этим аргументам. Дифференцируя (6.4) по j , получаем систему уравнений
(6.5)
где J– количество параметров.
Решением этой системы будут значения параметров модели (6.1), которые обеспечивают минимальное в смысле дисперсии уклонение прогноза от измеренного значения.
Здесь уместно заметить, что выбор квадратичного уклонения (6.3) обусловлен двумя причинами: во-первых, уравниваются положительные и отрицательные уклонения, во-вторых, что очень важно, задача доводится до простого аналитического решения. В (6.4) параметры входят во второй степени, следовательно, в результате дифференцирования получается простейшая система (6.5) линейных уравнений.
6.1.2.3. Рекуррентный алгоритм метода наименьших квадратов
Для текущей идентификации предпочтительнее рекуррентные процедуры, исключающие необходимость обращения матриц большой размерности с одной стороны, а с другой позволяющие идентифицировать модель в реальном времени по постоянно поступающим эмпирическим данным.
В
рекуррентном алгоритме МНК присутствует
параметр
,
который регулирует скорость сходимости
или определяет важность вновь получаемых
измерений по отношению к уже имеющимся.
Влияние величинына характер сходимости иллюстрируется
рис.6.5.
Идентификацию можно представить как обычный процесс регулирования, но не выходных величин объекта, а параметров модели. При этом параметры на каждом шаге уточняются в функции невязки между прогнозом по модели и реальным измеренным значением выходной величины:
,
где k– момент или номер измерения,i– номер параметра.
Рис. 6.5. Упрощенное представление влияния параметра γна сходимость процесса обучения.
Чтобы получить
рекуррентный алгоритм МНК, достаточно
записать выражения для
и второе вычесть из первого. В результате
получается
(6.6)
(6.7)
(6.8)
Начальные значения принимаются равными:
(6.9)
где должно быть достаточно большим.
Формулу (6.6) можно записать и так:
(6.10)
Заметим, что математическое ожидание матрицы Рс точностью до скалярного множителя равно ковариационной матрице вектора оценок параметров модели
(6.11)