
- •Глава 1. Оптимизация статических объектов 6
- •Глава 2. Основы линейного программирования 22
- •Глава 3. Способы описания динамических систем 34
- •Глава 4. Применение вариационных методов для поиска
- •Глава 1. Оптимизация статических объектов
- •1.1. Понятие статических и динамических объектов
- •1.2. Задача нелинейного программирования
- •Задачи на условный экстремум, неопределенные множители Лагранжа
- •1.4. Пример применения метода неопределенных множителей Лагранжа для поиска наибольших значений функций
- •1.5. Общая постановка задачи линейного оценивания параметров
- •Глава 2. Основы линейного программирования
- •2.1. Постановка задачи
- •2.2. Основные геометрические фигуры в линейном программировании
- •Экстремальные точки
- •2.4. Основные теоремы об экстремальных точках
- •2.5. Симплексный метод решения задач линейного программирования
- •2.6. Учет ограничений типа неравенств
- •2.7. Поиск начальной экстремальной точки
- •Глава 3. Способы описания динамических систем
- •3.1. Передаточные функции
- •3.2. Описание в форме Коши
- •3.3. Управляемость, наблюдаемость, стабилизируемость, обнаруживаемость
- •3.4. Понятие фильтра и общая задача регулирования
- •Глава 4. Применение вариационных методов для поиска оптимальных управлений
- •4.1. Понятие линейного пространства
- •4.2. Функционал и его вариация
- •4.3. Вычисление вариации функционала
- •4.4. Задача Эйлера
- •4.5. Применение уравнения Эйлера для поиска оптимального закона управления
- •4.6. Уравнение Эйлера – Пуассона и его применение
- •4.8. Неопределенные множители Лагранжа в вариационном исчислении
- •Глава 5. Вариационные задачи с подвижными границами
- •5.1.Основные виды задач с подвижными границами
- •5.2. Скольжение граничных точек по заданным траекториям
- •Глава 6. Принцип максимума
- •Постановка задачи поиска оптимального управления
- •Пояснения к получению принципа максимума
- •6.3. Динамическое программирование
- •Примеры применения динамического программирования
- •Глава 7. Аналитическое конструирование регуляторов (акор)
- •7.1. Постановка задачи
- •7.2. Решение задачи акор
- •7.3. Уравнение Риккати
- •7.4. Общие свойства решения уравнения Риккати
- •7.5. Способы решения уравнения Риккати
- •7.7. Метод диагонализации
- •Глава 8. Случайные процессы в системах управления
- •8.1. Описание случайных процессов
- •8.2. Стохастические дифференциальные уравнения
- •8.3. Прогнозирование (оценивание) значений случайных величин с использованием закона распределения
- •8.4. Линейное оценивание значений случайных величин
- •Глава 9. Фильтр калмана
- •9.1. Постановка задачи
- •9.2. Основные принципы получения формул дискретного фильтра Калмана
- •9.3. Получение формул фильтра Калмана
1.5. Общая постановка задачи линейного оценивания параметров
Задача линейного оценивания неизвестных параметров с мини-мальной дисперсией приведена во многих источниках [2, 3, 4, 5].Чтобы было проще осознать ее постановку, рассмотрим сначала простейший пример.
Пусть имеется ящик с большим количеством однотипных весов. Каждые весы имеют свою конкретную ошибку измерения. Заранее все ошибки были определены с помощью эталонных измерений, и выяснилось, что средняя ошибка всех весов равна нулю, а средний
квадрат ошибок равен σ2 . Взвешивается на случайно выбранных из ящика весах некоторое тело. Чтобы уменьшить ошибку опреде-ления веса P тела, взвешивание производится на n независимо слу-чайно выбранных весах. Если использовать выражение для оценки
ˆ |
1 n |
|
|
|
|
|
веса P = |
|
∑Pi , где |
Pi |
– результаты взвешивания на выбранных |
||
|
n i−1 |
|
|
|
|
|
|
|
|
2 |
ˆ |
σ2 |
|
весах, то дисперсия |
σ |
[P] = |
n |
оценки уменьшается с увеличени- |
ем n и стремится к нулю при n стремящемся к бесконечности. Та-ким образом, использование многих измерений уменьшает ошибку определения требуемой величины P .
Рассмотрим более общую задачу. Имеется некоторый объект, который описывается уравнением
-
y = β1 x1 + β 2 x2 + ... +βp xp ,
(1.5.1)
16
где y зависит от переменных x1 , x2 ,..., xp , которые изменяются со
временем, но их значения в каждый момент времени известны (на-пример, устанавливаются экспериментатором), величины β1 ,β2 ,...,βp , называемые коэффициентами регрессии, неизвестны.
Требуется следить за переменной y (ее называют значением по-
верхности отклика), которая меняется со временем.
Для достижения цели следует найти значения коэффициентов β1 ,β2 ,...,βp . Это можно сделать, если при различных значениях ар-
гументов x1 , x2 ,..., xp (эти аргументы часто называют факторами) определить значения переменной y , т.е. подготовить невырожден-ную систему линейных уравнений
-
yi = β1 xi 1 + β 2 xi 2 + ... + β p xip , i = 1, 2, …, p ,
(1.5.2)
где xi1 , xi 2 ,..., xip – установленные значения переменных x1 , x2 ,..., xp
в эксперименте с номером i , yi – значение отклика в эксперименте с номером i .
Решив систему (1.5.2) |
относительно |
β1 ,β2 ,...,βp , |
получим воз- |
||
можность |
определять |
значение |
отклика |
при |
любых |
i = 1, 2, … , n (n > p) . |
|
|
|
|
Однако измерить величины yi , входящие в систему (1.5.2), без ошибок часто не удается. Поэтому результаты измерений ηi будут
отличаться от yi , т.е. |
|
ηi = yi + εi , |
(1.5.3) |
где εi – ошибки измерений.
Выражение (1.5.3) совместно со сведениями о свойствах ошибок εi составляют модель измерения.
Приведем наиболее распространенные сведения о свойствах ошибок εi , которые используют на практике. Они заключаются в
том, что εi объявляются независимыми случайными величинами (в данном разделе достаточно считать εi некоррелированными),
17
имеющими нулевые математические ожидания и одинаковые дис-персии σ2[ε] .
Обычно стараются провести большое число n экспериментов (n >> p) и с максимальной точностью оценить коэффициенты
β1 ,β2 ,...,βp , т.е. в соотношениях (1.5.2) индекс i |
изменяется от 1 до |
|
||||||
n . |
|
|
|
|
|
|
|
|
|
Для |
неизвестных |
β1 ,β2 ,...,βp используют |
линейные оценки |
|
|||
βˆ |
,βˆ |
2 |
,...,βˆ |
: |
|
|
|
|
1 |
|
|
p |
|
|
|
|
|
|
|
|
|
|
βˆ j |
n |
|
|
|
|
|
|
|
= ∑c ji ηi , j = 1, 2, … , p , |
(1.5.4) |
|
i=1
где cji – постоянные коэффициенты, значения которых определяют
конкретный вид линейных оценок. Если ввести матричные обозначения:
η – вектор с составляющими ηi , i =1, 2,..., n (вектор результатов наблюдения или просто вектор наблюдения);
ε – вектор с составляющими εi = 1, 2,…, n (вектор ошибок из-мерений);
Y – вектор с составляющими yi = 1, 2,…, n (вектор измеряемых величин);
β – вектор с составляющими β1 ,β2 ,...,βp (вектор коэффициентов регрессии);
βˆ – вектор с составляющими βˆ1 ,βˆ2 ,...,βˆ p (вектор оценок коэф-
фициентов регрессии);
X Т – матрица с элементами xij , i = 1, 2,… , n, j = 1, 2,…, p (мат-рица значений аргументов xij , i = 1, 2,… , n, j = 1, 2,…, p , называе-мая матрицей плана); Т – символ транспонирования;
C – матрица с элементамиcji , можно записать матричные соот-ношения:
-
η = Y + ε , Y = X Т β , η = X Тβ + ε, βˆ = Cη .
(1.5.5)
18
Задача заключается в том, чтобы найти несмещенные линейные
оценки βˆ |
,βˆ |
,...,βˆ |
p |
для коэффициентов β ,β |
2 |
,...,β |
p |
, имеющие мини- |
|
|
1 |
2 |
|
|
1 |
|
|
|
|||
мальные дисперсии. Эта задача разделяется на |
p автономных за- |
|
||||||||
дач. Для каждого значения индекса |
j требуется найти набор кон- |
|
||||||||
стант c j 1 , c j 2 ,..., cjn , определяющих оценку |
|
βˆ j , |
удовлетворяющую |
|
||||||
условию |
несмещенности M[βˆ j ] = βj |
и имеющую наименьшую |
|
n
дисперсию σ2 [βˆ j ] = σ2 [ε]∑c 2ji .
i=1
Поскольку имеет место равенство (1.5.2), то условие несмещен-ности оценки βˆ j можно записать в виде
M [βˆ |
n |
|
|
n |
|
p |
|
p |
n |
|
j ] = M [∑ c ji ηi ] = M [∑ c ji ∑ βν xiν ] = M [∑ βν ( ∑c ji xiν )] =βj . |
|
|||||||||
|
i =1 |
|
|
i=1 |
ν =1 |
|
ν =1 |
i=1 |
|
|
Из последнего выражения следует, что |
|
|
|
|||||||
|
|
n |
|
|
|
|
|
|
|
|
|
|
∑c ji xiν |
= δjν |
, |
|
|
(1.5.6) |
|
||
|
|
i=1 |
|
|
|
|
|
|
|
|
где δjν =1 при |
j =ν |
и δjν |
= 0 , если |
j ≠ν . |
|
|
|
|||
Соотношения |
(1.5.6) и |
являются |
условиями |
несмещенности |
|
|||||
(всего p условий) оценок βˆ j |
. Например, для |
j =1 они имеют вид |
|
|||||||
|
|
c11 x11 + c12 x21 + ... + c1 n xn1 =1, |
|
|
||||||
|
|
c11 x12 + c12 x22 + ... + c1n xn2 = 0, |
|
|
||||||
|
|
……………………………..., |
|
|
||||||
|
|
c11 x1 p + c12 x2 p + ... + c1 n xnp |
= 0. |
|
|
|||||
|
|
|
|
σ2 [βˆ |
|
n |
|
|
|
|
Поэтому минимизация |
j ] = σ2 [ε]∑c2ji |
является задачей на |
|
|||||||
|
|
|
p |
|
|
|
i=1 |
|
|
|
условный экстремум с |
ограничениями (5.6). Ее решение может |
|
||||||||
быть |
осуществлено |
методом неопределенных множителей |
|
λj 1 , λj 2 ,..., λjp Лагранжа, для чего образуется функция
19
-
Фj ( c ji , λj 1 , λj 2 ,..., λjp ) = σ 2 [βˆ
n
n
j ] = σ 2 [ε]∑ c 2ji
+ λ jν (∑c ji xiν −δjν ) ,
i =1
i=1
частные производные от которой по аргументам cji , λj 1 , λj 2 ,..., λjp
полагаются равными нулю, и затем находятся оптимальные значе-ния констант c j 1 , c j 2 ,..., cjn . Всю совокупность множителей
λj 1 , λj 2 ,..., λjp (для вех задач с номерами ј ) можно рассматривать
как матрицуλ . Поэтому проще применить матричные обозначения и рассмотреть систему матричных уравнений:
2σ2 [ε]C + λX = 0,
(1.5.7)
CX Т = E,
где E – единичная матрица.
Уравнения (1.5.7) получаются путем дифференцирования функ-ций Фj по аргументам cji , λj 1 , λj 2 ,..., λjp и приравниванием произ-
водных нулю. |
|
|
|
λ и C . |
|
|
Система (1.5.7) легко решается относительно матриц |
|
|||||
Умножим первое из уравнений (1.5.7) на матрицу X Т |
справа и |
|
||||
воспользуемся |
вторым |
уравнением |
(1.5.7), |
получим |
|
|
2σ2[ε]E = −λXX Т , |
откуда |
λ = −2σ2[ε]( XX Т )−1 . |
После подстановки |
|
||
найденной матрицы λ в первое из уравнений (1.5.7) |
получается |
|
||||
выражение для матрицы C : |
|
|
||||
C = ( XX Т )−1 X . |
(1.5.8) |
|
Вектор оценок коэффициентов регрессии вычисляется по фор-
муле |
|
βˆ = ( XX Т )−1 Xη. |
(1.5.9) |
Выражения (1.5.8), (1.5.9) являются решением задачи оптималь-ного линейного несмещенного оценивания величинβ1 ,β2 ,...,βp .
Учитывая, |
что |
ковариационная матрица вектора η имеет вид |
Kη = σ2 [ε]E |
и |
XX Т является симметричной, нетрудно на основе |
формул (1.5.8), (1.5.9) получить выражение для ковариационной матрицы Kβˆ вектора βˆ :
20
-
K ˆ = ( XX Т )−1 Xσ2 [ε] E (( XX Т ) −1 X )Т = σ2 [ε]( XX Т )−1 .
(1.5.10)
β
При получении формулы (1.5.10) учитывались:
свойство симметрии обратной матрицы, если исходная матрица является симметричной;
-
• формула
вычисления [2]
ковариационной матрицы
Kψ = AK ξ AT случайного вектора ψ , полученного путем
линейного преобразования
ψ = Aξ другого случайного
вектора ξ
с ковариационной матрицей Kξ .
Если описание поверхности отклика имеет вид
-
y = ∑p
βj f j ( x1 , x2 ,..., xk ) ,
(1.5.11)
j =1
где f j ( x1 , x2 ,..., xk ) – известные функции (называемые координат-ными), βj – неизвестные коэффициенты, подлежащие определе-
нию по экспериментальным данным, и справедливо выражение
(1.5.3), то в формулах (1.5.8), (1.5.9), (1.5.10) следует вместо матри-
цы X Т использовать матрицу F Т , элементами которой являются значения координатных функций в экспериментах с номерами i (i = 1, 2,…, n) , т.е.
|
βˆ = (FF Т )−1 Fη . |
|
|
|
|
|
|
|
|
|
|
|
|
|
(1.5.12) |
|
||||||||
Например, |
пусть y = β x x 3 x 2 |
+β |
2 |
x x , |
т.е. f |
= x x 3 x2 |
, |
f |
2 |
= x x , |
|
|||||||||||||
|
|
|
1 |
1 |
2 |
3 |
|
|
|
1 |
2 |
|
|
1 |
1 |
2 |
3 |
|
|
1 |
2 |
|
||
и в первом эксперименте |
x1 = 2, x2 = 1, x3 = 4 , во втором экспери- |
|
||||||||||||||||||||||
менте x1 = 1, x2 |
= 1, x3 = 2 , в третьем эксперименте x1 =1, x2 |
= 1, x3 =1 . |
|
|||||||||||||||||||||
Тогда матрица F Т равна |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
2 *13 * 42 ;2*1 |
|
32;2 |
|
|
|
|
|
|
|
|
|
|||||||||
|
F |
Т |
|
|
3 |
|
|
2 |
|
|
|
|
|
|
4;1 |
|
|
|
|
|
|
|
|
|
|
|
= 1*1 * 2 |
|
;1*1 |
= |
. |
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
3 |
|
2 |
;1*1 |
|
|
|
1;1 |
|
|
|
|
|
|
|
|
|
|||
|
|
|
1*1 *1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
Следует заметить, что описание поверхности отклика в задаче линейного оценивания считается известным, но не выбирается при обработке экспериментальных данных.
21
Контрольные вопросы
Что такое статический объект?
Как формулируется общая задача математического про-граммирования?
С какой целью применяется метод неопределенных множи-телей Лагранжа?
Как ставится задача поиска условного экстремума?
Как решается задача поиска наибольших и наименьших значений функций многих переменных, когда допустимые решения принадлежат замкнутой области?