Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
лекции_МОД.doc
Скачиваний:
125
Добавлен:
07.02.2016
Размер:
560.64 Кб
Скачать

Построение математических моделей

Введение

Задача идентификации формулируется следующим образом. Пусть в результате каких либо экспериментов над объектом замерены его входные X=(х1, х2,…хn) и выходные переменные Y=(y1, y2,…ym) как функции времени. Требуется определить вид (структуру) и параметры некоторого оператора В, ставящего в соответствие переменные Xи Y.

 


В реальных  условиях переменные изамеряются погрешностьюи.Чаще всего эти погрешности считаются некоррелированными и аддитивными с полезной информацией, т.е. имеют вид

 

xi=xiист±(i=1,2…n)

yj=yjист±(j=1,2…m)

 

Различают задачи идентификации в широком (структурная идентификация) и узком смысле (параметрическая идентификация) соответственно.  В первом случае  неизвестна структура и параметры оператора В, во втором – лишь параметры этого оператора.

Таким образом, задача идентификации модели тесно связана  с проведением эксперимента и обработкой экспериментальных зависимостей.

Задача параметрической идентификации сводится к отысканию таких оценок  параметров  математической   модели   В,   которые  обеспечивают  в каком либо смысле близость расчетных и экспериментальныхзначений выходных переменных при одинаковых входных. Отметим, что в общем случае необходимы измерения «m» компонент вектора, которые могут производиться при «к» повторениях эксперимента при «l» дискретных отметках времени (если идентифицируемый объект функционирует во времени). В качестве критериев количественной меры близости модели и оригинала чаще всего используются максимальные ґу, средние mу и среднеквадратичные ґу величины погрешностей рассогласования расчетных и экспериментальных значений урi и уэi, соответственно, т.е

                                                dу = max | урi – уэi |

      

mу = 1/n е ( урi – уэi), (6.1)

                                         ,

где: i = 1, 2…, n = m + l + k - номер опыта по измерению компоненты уэi

            Таким образом, задача параметрической идентификации сводится к минимизации одной из функций вида (6.1). Для минимизации могут быть использованы известные численные методы решения экстремальных задач.

            Обилие существующих методов идентификации отражает разнообразие используемых математических моделей и методов их исследования. Очевидно, что  идентифицировать модель детерминированного, линейного, стационарного процесса (модель считается стационарной, если её параметры либо постоянные, либо меняются медленно по сравнению со временем, необходимым для их идентификации) известной размерности, с одним входом – существенно проще, чем аналогичного стохастического процесса неизвестного порядка и степени стационарности.

Идентификация моделей с помощью регрессионного метода

Регрессионный анализ представляет собой классический статистический метод. Благодаря своим широким возможностям регрессионные методы давно и успешно используются в инженерной практике. В последнее время в связи с развитием  и внедрением быстродействующих ЭВМ они широко используются для идентификации моделей, в том числе для идентификации динамических, многомерных процессов, систем диагностики и управления в реальном масштабе времени. Регрессионный анализ основывается на двух главных принципах.

1. Методы применяются для линейных по идентифицируемым параметрам моделям. Структура математической модели процесса представляется функцией вида:

       

                                           ,                         (6.2)

 

где аi – i-тый оцениваемый параметр; fi-  i-тая известная функция, - вектор входных воздействий, y– выходная переменная.

            Возможно представление идентифицируемой модели в следующей форме:

(6.3)

 

где аi, bj – оцениваемые параметры; fiи  - априори известные  (заданные) функции. После несложных математических преобразований на основе этих функций можно формировать невязки, линейно зависящие от идентифицируемых параметров аi, bj.

На практике, чаще всего в качестве fi и  выбираются степенные функции, а соответственно выражения (6.2) и (6.3) являются полиномиальными, либо дробно-рациональными зависимостями. При этом точность описания достигается увеличением числа членов полинома, обеспечивающих их сходимость к реальному процессу. Заметим, что получающаяся модель практически никогда не соответствует физической сущности моделируемого реального процесса, его истинному виду, однако инженерная простота вычислений, удобство практического использования модели, возможность получения результата без «особых размышлений» служит основной причиной  широкого распространения на практике регрессионных методов.

Естественно, и в этом случае с помощью удачно выбранного вида полинома можно существенно сократить размер модели, а значит и трудоемкость вычислительного процесса, как при идентификации, так и при использовании модели.

2. Минимизируемой функцией ошибки (разности между прогнозируемой моделью и данными эксперимента) при регрессионном анализе является сумма квадратов ошибок. Благодаря этому удается применить метод наименьших квадратов, математический аппарат которого предельно прост, а вычислительные методы сводятся к  методам линейной алгебры.

Регрессионные модели могут быть как линейными, так и нелинейными с любым числом  входов и выходов.

Идентификация статических линейных систем с несколькими входами

Пусть необходимо  идентифицировать систему с «n» входами x1, x2,…xn  и одним выходом y. Представим структуру модели в виде линейного алгебраического уравнения вида:

y=a0 + a1 x1+ a2 x2+…+ anxn ,       (6.4)      

где a0, a1,..an - параметры модели, подлежащие идентификации. В результате идентификации мы должны получить вектор оценок  истинного вектора . Этому вектору будет соответствовать оценка значения выходной величины .

            Для определения значений  произведем N последовательных измерений величины у, соответствующих в определенном смысле произвольным набором величин   хi (i=1,2,…n). В результате получим вектор . По N наборам входных величин хi (i=1,2,…n) будет соответственно N оценок выходных величин

 

                           (6.5)    

           

Разница  характеризует погрешность каждой модели в каждом из N измерений. Суммарную погрешность будем характеризовать величиной:

              (6.6)         

Определение оценок  производят из условия минимума величины суммарной погрешности J. Таким образом, основой идентификации регрессионными методами  служит метод наименьших квадратов. Используя аппарат математического анализа, оценка вектора  должна удовлетворять необходимому условию экстремума

 

(i=0,1,2,…n)           (6.7)                      

Уравнения (6.7) позволяют построить вычислительный процесс идентификации вектора  на основе Nгрупп измерений y и . Для получения эффективных и несмещенных оценок * необходимо, чтобы N >> n. Если N= n+1, то в оценке  шум измерений не будет сглажен, окажет негативное влияние и случайность наборов . Мерой ошибки регрессионной модели обычно служит величина среднеквадратичного  отклонения . С увеличением N уменьшается флуктуация , их величина и является определяющей для выбора N в рамках принятой структуры модели.

К обсуждаемому типу линейных моделей простым преобразованием сводятся применяемые на практике мультипликативные модели. Действительно модель типа

 

                                             (6.8)  

 

С помощью логарифмирования и замены у=lnW, xi=lnZi (i = 1, 2, …m) (6.8) приводится к виду y=. Зависимости (6.8) широко используются при построении моделей по эмпирическим данным в гидравлике, термодинамике, обработке металлов давлением и т.д. Можно сказать, что и другие типы нелинейных регрессионных моделей, в конечном итоге, сводятся к зависимостям (6.4).