
- •Глава 1. Оптимизация статических объектов 6
- •Глава 2. Основы линейного программирования 22
- •Глава 3. Способы описания динамических систем 34
- •Глава 4. Применение вариационных методов для поиска
- •Глава 1. Оптимизация статических объектов
- •1.1. Понятие статических и динамических объектов
- •1.2. Задача нелинейного программирования
- •Задачи на условный экстремум, неопределенные множители Лагранжа
- •1.4. Пример применения метода неопределенных множителей Лагранжа для поиска наибольших значений функций
- •1.5. Общая постановка задачи линейного оценивания параметров
- •Глава 2. Основы линейного программирования
- •2.1. Постановка задачи
- •2.2. Основные геометрические фигуры в линейном программировании
- •Экстремальные точки
- •2.4. Основные теоремы об экстремальных точках
- •2.5. Симплексный метод решения задач линейного программирования
- •2.6. Учет ограничений типа неравенств
- •2.7. Поиск начальной экстремальной точки
- •Глава 3. Способы описания динамических систем
- •3.1. Передаточные функции
- •3.2. Описание в форме Коши
- •3.3. Управляемость, наблюдаемость, стабилизируемость, обнаруживаемость
- •3.4. Понятие фильтра и общая задача регулирования
- •Глава 4. Применение вариационных методов для поиска оптимальных управлений
- •4.1. Понятие линейного пространства
- •4.2. Функционал и его вариация
- •4.3. Вычисление вариации функционала
- •4.4. Задача Эйлера
- •4.5. Применение уравнения Эйлера для поиска оптимального закона управления
- •4.6. Уравнение Эйлера – Пуассона и его применение
- •4.8. Неопределенные множители Лагранжа в вариационном исчислении
- •Глава 5. Вариационные задачи с подвижными границами
- •5.1.Основные виды задач с подвижными границами
- •5.2. Скольжение граничных точек по заданным траекториям
- •Глава 6. Принцип максимума
- •Постановка задачи поиска оптимального управления
- •Пояснения к получению принципа максимума
- •6.3. Динамическое программирование
- •Примеры применения динамического программирования
- •Глава 7. Аналитическое конструирование регуляторов (акор)
- •7.1. Постановка задачи
- •7.2. Решение задачи акор
- •7.3. Уравнение Риккати
- •7.4. Общие свойства решения уравнения Риккати
- •7.5. Способы решения уравнения Риккати
- •7.7. Метод диагонализации
- •Глава 8. Случайные процессы в системах управления
- •8.1. Описание случайных процессов
- •8.2. Стохастические дифференциальные уравнения
- •8.3. Прогнозирование (оценивание) значений случайных величин с использованием закона распределения
- •8.4. Линейное оценивание значений случайных величин
- •Глава 9. Фильтр калмана
- •9.1. Постановка задачи
- •9.2. Основные принципы получения формул дискретного фильтра Калмана
- •9.3. Получение формул фильтра Калмана
8.3. Прогнозирование (оценивание) значений случайных величин с использованием закона распределения
Заменим задачу: вместо точного предсказания значения ξ бу-дем искать такое число q , которое обеспечит наименьшую ошибку предсказания. Используем для этой цели широко распространен-
ный |
критерий ошибки |
J = M [(ξ − q) 2 ] , |
вычисляемый |
согласно |
|
формуле J = ∫ ( x − q ) 2 pξ ( x )dx . Приравняем производную |
∂J к ну- |
||||
|
|
|
|
|
∂q |
лю |
(дифференцирование |
производится |
под |
знаком |
интегра- |
ла): ∫ ( x − q ) pξ ( x ) dx = ∫ xpξ ( x ) dx − q ∫ pξ ( x ) dx = 0 . |
С учетом |
опреде- |
ления математического ожидания получим q = M [ξ] . Этот простой
результат можно сразу обобщить . Поскольку законы распределе-ния всегда являются условными, то при использовании критерия
81
ошибки J = M [(ξ − ξ) 2 ] , где ξ – оценка для ξ , оптимальной оцен-
кой ξ0 является условное математическое ожидание: |
|
ξ0 = M y [ξ] = ∫ p yξ ( x )dx . |
(8.2.2) |
8.4. Линейное оценивание значений случайных величин
Рассматриваются две коррелированные случайные величины ξ1 , ξ2 , причем величина ξ2 наблюдается, а величина ξ1 – нет. Тре-
буется построить оптимальную линейную оценку ξˆ1 = aξ2 +b для величины ξ1 .
Для поиска постоянных коэффициентов минимизируем крите-рий J = M[(ξˆ 1 −ξ1 ) 2 ] среднеквадратичного отклонения и будем считать известными все моменты первого и второго порядков. За-
писывая J = M [(a ξ 2 − ξ 1 +C) 2 ] , где C = aM [ξ2 ] + b − M [ξ1 ] , рас-крывая квадрат суммы и пользуясь свойствами математического
ожидания, получим J = a 2 σ2[ξ |
2 |
] − 2 aK [ξ ,ξ |
2 |
] + σ 2 [ξ |
2 |
] +C2 . |
|
|
|
||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|||||||||||
Приравнивая частные производные ∂J |
, |
∂J |
нулю, найдем опти- |
|
|||||||||||||||||||||||||||||||||
∂C |
|
||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
∂a |
|
|
|
|
|
|
|
||||||||
мальные |
|
|
|
|
|
|
|
|
значения |
|
|
|
|
коэффициентов: |
|
||||||||||||||||||||||
a = |
K [ξ1 ,ξ2 ] |
,C = 0,b = M [ξ ] − |
K[ξ1 ,ξ2 ] |
M[ξ |
|
] – и вид оценки ξ |
|
: |
|
||||||||||||||||||||||||||||
|
|
|
|
|
|
||||||||||||||||||||||||||||||||
|
|
σ2 [ξ2 ] |
|
|
|
|
|
|
|
|
1 |
|
|
|
|
σ2 [ξ2 ] |
2 |
|
|
|
|
1 |
|
|
|||||||||||||
ξˆ |
= M [ξ ] + |
|
K[ξ1 ,ξ2 ] |
|
(ξ |
|
− M[ξ |
|
]) , причем |
минимальное значе- |
|
||||||||||||||||||||||||||
|
σ2 [ξ2 ] |
|
|
|
|||||||||||||||||||||||||||||||||
1 |
|
|
1 |
|
|
2 |
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
||||||||||||||
ние J0 критерия равно |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
J |
0 |
= σ 2 [ξ ](1−ρ2 ) , |
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
||||||||
где ρ = |
|
K[ξ1 |
,ξ2 ] |
|
|
– коэффициент корреляции между величина- |
|
||||||||||||||||||||||||||||||
|
σ2 [ξ ]σ2 [ξ |
2 |
] |
|
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
м
и
ξ1
,ξ2
.
82
При нормальном законе распределения последние выражения определяют условное математическое ожидание и условную дис-персию величины ξ1 .
Решена [2,3,5] общая задача линейного оценивания случайного вектора ξ(1) , который не наблюдается в некотором эксперименте, по результатам наблюдения другого вектора ξ(2) , коррелированно-го с ξ(1) . Оценка ξˆ(1) имеет вид
ξˆ(1) = m1 + K12 K 2− 1 (ξ(2) − m2 ) ,
где |
m = M [ξ(1) ], m |
2 |
= M [ξ(2) ] ; K |
12 |
, K |
2 |
являются блоками кова- |
|
||||||||||
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
риационной матрицы |
Kξ объединенного вектора |
|
ξ(1) |
|
, так |
|
||||||||||||
ξ = |
|
(2) |
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ξ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
K |
1 |
, K |
12 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
что |
|
|
|
, |
причем K1 – |
это ковариационная матрица |
|
|||||||||||
Kξ = |
|
|
|
|
|
|||||||||||||
|
K 21 , K 2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
вектора ξ(1) , K 2 — ковариационная матрица вектора ξ(2) .
В условиях нормального закона распределения вектора ξ выра-жение для ξˆ(1) определяет условное математическое ожидание век-тора ξ(1) . Кроме того, легко вычисляется условная ковариационная матрица Ky вектора ξ(1) :
K y = K1 − K12 K 2−1K 21 .
Все составляющие вектора ξ(1) оцениваются с минимальными среднеквадратическими отклонениями от составляющих вектора ξ(1) .
Контрольные вопросы
С какой целью рассматриваются гауссовские случайные процессы?
Что такое стационарный случайный процесс?
Для чего используется понятие белого шума?
Является ли белый шум гауссовским случайным процес-сом?
Что такое стационарный случайный процесс в широком смысле?
83