Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекции / Все лекции.doc
Скачиваний:
99
Добавлен:
20.06.2014
Размер:
4.29 Mб
Скачать

6.1.2.2. Содержание метода наименьших квадратов

Для параметрической идентификации модели объекта, записанной в форме (6.1), часто применяется метод наименьших квадратов. Его суть состоит в следующем. Имеется обучаемая модель объекта (6.1) и имеется обучающая выборка, т.е. множество записей измеренных значений входных и выходных величин:

, (6.2)

где верхней меткой обозначены измеренные значения, а N– количество записей измерений.

Значения параметров в (6.1) требуется определить так, чтобы прогнозируемые по модели (1) значения уминимально отличались от измеренных значений при одних и тех же значениях входных переменных. В качестве меры близости прогнозируемых значений к измеренным значениям чаще всего используют сумму квадратов отклонений прогноза от измерения по всем экспериментальным точкам:

. (6.3)

Подставив сюда ув соответствии с (6.1), получим

. (6.4)

Наилучшему приближению соответствует минимальное значение (6.4). В нём все величины, кроме параметров  j, заданы. Каковы бы ни были функции φ() они превращаются в числа после подстановки в них измеренных значений аргументов. Переменными, от которых зависит величинаF(), являются только параметры. СледовательноF(), определяемое (6.4), является функцией параметрови только изменением их значений можно влиять на значениеF().

Из математического анализа известно, что значения аргументов при которых функция достигает экстремум, могут быть найдены приравниванием нулю её производных по этим аргументам. Дифференцируя (6.4) по  j , получаем систему уравнений

(6.5)

где J– количество параметров.

Решением этой системы будут значения параметров модели (6.1), которые обеспечивают минимальное в смысле дисперсии уклонение прогноза от измеренного значения.

Здесь уместно заметить, что выбор квадратичного уклонения (6.3) обусловлен двумя причинами: во-первых, уравниваются положительные и отрицательные уклонения, во-вторых, что очень важно, задача доводится до простого аналитического решения. В (6.4) параметры входят во второй степени, следовательно, в результате дифференцирования получается простейшая система (6.5) линейных уравнений.

6.1.2.3. Рекуррентный алгоритм метода наименьших квадратов

Для текущей идентификации предпочтительнее рекуррентные процедуры, исключающие необходимость обращения матриц большой размерности с одной стороны, а с другой позволяющие идентифицировать модель в реальном времени по постоянно поступающим эмпирическим данным.

В рекуррентном алгоритме МНК присутствует параметр , который регулирует скорость сходимости или определяет важность вновь получаемых измерений по отношению к уже имеющимся. Влияние величинына характер сходимости иллюстрируется рис.6.5.

Идентификацию можно представить как обычный процесс регулирования, но не выходных величин объекта, а параметров модели. При этом параметры на каждом шаге уточняются в функции невязки между прогнозом по модели и реальным измеренным значением выходной величины:

,

где k– момент или номер измерения,i– номер параметра.

Рис. 6.5. Упрощенное представление влияния параметра γна сходимость процесса обучения.

Чтобы получить рекуррентный алгоритм МНК, достаточно записать выражения для и второе вычесть из первого. В результате получается

(6.6)

(6.7)

(6.8)

Начальные значения принимаются равными:

(6.9)

где должно быть достаточно большим.

Формулу (6.6) можно записать и так:

(6.10)

Заметим, что математическое ожидание матрицы Рс точностью до скалярного множителя равно ковариационной матрице вектора оценок параметров модели

(6.11)