
- •Глава 1. Оптимизация статических объектов 6
- •Глава 2. Основы линейного программирования 22
- •Глава 3. Способы описания динамических систем 34
- •Глава 4. Применение вариационных методов для поиска
- •Глава 1. Оптимизация статических объектов
- •1.1. Понятие статических и динамических объектов
- •1.2. Задача нелинейного программирования
- •Задачи на условный экстремум, неопределенные множители Лагранжа
- •1.4. Пример применения метода неопределенных множителей Лагранжа для поиска наибольших значений функций
- •1.5. Общая постановка задачи линейного оценивания параметров
- •Глава 2. Основы линейного программирования
- •2.1. Постановка задачи
- •2.2. Основные геометрические фигуры в линейном программировании
- •Экстремальные точки
- •2.4. Основные теоремы об экстремальных точках
- •2.5. Симплексный метод решения задач линейного программирования
- •2.6. Учет ограничений типа неравенств
- •2.7. Поиск начальной экстремальной точки
- •Глава 3. Способы описания динамических систем
- •3.1. Передаточные функции
- •3.2. Описание в форме Коши
- •3.3. Управляемость, наблюдаемость, стабилизируемость, обнаруживаемость
- •3.4. Понятие фильтра и общая задача регулирования
- •Глава 4. Применение вариационных методов для поиска оптимальных управлений
- •4.1. Понятие линейного пространства
- •4.2. Функционал и его вариация
- •4.3. Вычисление вариации функционала
- •4.4. Задача Эйлера
- •4.5. Применение уравнения Эйлера для поиска оптимального закона управления
- •4.6. Уравнение Эйлера – Пуассона и его применение
- •4.8. Неопределенные множители Лагранжа в вариационном исчислении
- •Глава 5. Вариационные задачи с подвижными границами
- •5.1.Основные виды задач с подвижными границами
- •5.2. Скольжение граничных точек по заданным траекториям
- •Глава 6. Принцип максимума
- •Постановка задачи поиска оптимального управления
- •Пояснения к получению принципа максимума
- •6.3. Динамическое программирование
- •Примеры применения динамического программирования
- •Глава 7. Аналитическое конструирование регуляторов (акор)
- •7.1. Постановка задачи
- •7.2. Решение задачи акор
- •7.3. Уравнение Риккати
- •7.4. Общие свойства решения уравнения Риккати
- •7.5. Способы решения уравнения Риккати
- •7.7. Метод диагонализации
- •Глава 8. Случайные процессы в системах управления
- •8.1. Описание случайных процессов
- •8.2. Стохастические дифференциальные уравнения
- •8.3. Прогнозирование (оценивание) значений случайных величин с использованием закона распределения
- •8.4. Линейное оценивание значений случайных величин
- •Глава 9. Фильтр калмана
- •9.1. Постановка задачи
- •9.2. Основные принципы получения формул дискретного фильтра Калмана
- •9.3. Получение формул фильтра Калмана
Глава 8. Случайные процессы в системах управления
8.1. Описание случайных процессов
Случайным процессом ξ(t ) называется случайная величина, за-
висящая от параметра t .
Параметр t на практике может быть, например, временем или расстоянием и т. д.
Полным описанием случайного процесса является совместный закон распределения случайных величин ξ( t1 ),..., ξ( tn ) при произ-
вольных значениях n , t1 ,...,tn .
На практике используют метод моментов (первого и второго порядков), т.е. зависимость математического ожидания M [ξ(t )] = m (t ) от времени и зависимость ковариационного момента
77
K(t1 , t 2 ) = M [ξ (t1 )ξ(t2 )] от двух произвольных моментов времени.
Точка означает знак центрирования.
Наиболее распространенным является гауссовский случайный процесс, когда совокупность величин ξ( t1 ),..., ξ( tn ) подчиняется
многомерному нормальному закону распределения, плотность рас-пределения которого имеет вид
p (x1 ,..., xn ) = C exp{− 12 Q[(x1 − m1 ),...,(xn − mn )} ,
где: mi = M [ξ(ti )] , Q – квадратичная форма, задаваемая матрицей,
обратной к ковариационной, C – нормировочный множитель. Гауссовский случайный процесс полностью описывается функ-
циями m ( t) и K ( t1 , t2 ) .
Наиболее часто используют стационарный в широком смысле гауссовский случайный процесс, для которого математическое ожидание не зависит от времени (является постоянным) и
K (t1 ,t 2 ) = K (τ ), τ = t 2 − t1 .
Наряду с ковариационной функцией используется спектральная плотность, которая является преобразованием Фурье от ковариаци-онной функции. Чтобы понять смысл спектральной плотности, следует рассмотреть некоторые примеры.
Пример 8.1.1. Рассмотрим случайный процесс ξ( t ) = V cos ωt +U sin ωt , где некоррелированные случайные вели-
чины, имеющие нулевые математические ожидания, и одинаковые
дисперсии σ2 . Установим, что этот процесс является стационар-ным в широком смысле.
Ясно, что M [ξ(t )] = M [V ]cos ωt + M [U ]sin ωt = 0 . Далее,
K (t1 , t 2 ) = M [{(V cos ω t1 + U sin ω t1 )(V cos ω t 2 + U sin ωt2 )}] =
σ 2 (cos ω t1 cos ω t 2 +sin ω t1 sin ωt2 ),
поэтому K (t1 , t 2 ) = σ 2 cos ω(t 2 − t1 ) = σ2 cosωτ .
Таким образом, рассмотренный случайный процесс является стационарным в широком смысле. Кроме того, имеет место равен-
ство σ2 [ξ(t )] = K (t , t ) = K (0) = σ2 .
78
Пример |
8.1.2. |
Рассмотрим |
случайный |
процесс |
n |
|
|
|
|
ξ(t ) = ∑(Vi |
cos ωi t +U i |
sin ωit) , где все |
Vi ,Ui являются некоррели- |
i=1
рованными, имеют нулевые математические ожидания и их дис-
персии равны σ2 (V ) = σ2 (U |
) = σ2 |
. Повторяя рассуждения, |
приве- |
|
||||||||||
|
|
|
|
|
|
i |
i |
|
i |
получим, что M [ξ(t )] = 0 и |
|
|||
денные в |
первом |
примере, |
|
|||||||||||
K (t , t |
|
) = K (τ) = |
n |
σ2 cosωτ |
. |
Таким образом, |
рассматриваемый |
|
||||||
2 |
∑ |
|
||||||||||||
1 |
|
|
|
i |
i |
|
|
|
|
|
|
|
||
|
|
|
|
|
i=1 |
|
|
|
|
|
|
|
|
|
случайный |
процесс |
является |
стационарным в широком смысле. |
|
||||||||||
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
Кроме того, имеет место равенство σ2 [ξ(t )] = ∑σi2 . |
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
i=1 |
|
|
|
|
Спектральной плотностью S (ω) называется преобразование |
|
|||||||||||||
Фурье от ковариационной функции, т. е. S (ω) = |
2 |
∞∫[ K (τ )cos |
ωτ ]dτ |
|
||||||||||
π |
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
0 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
∞ |
|
|
|
|
|
и |
соответственно |
K (τ) = ∫[ S (ω )cos ωτ ]d ω . |
|
Понятно, |
что |
|
||||||||
|
|
|
|
|
|
|
|
|
0 |
|
|
|
|
|
σ2 [ξ( t )] = ∞∫S (ω ) d ω .
0
Спектральная плотность характеризует вклад в дисперсию слу-чайного процесса дисперсий гармоник различных частот.
Кроме гауссовского случайного процесса большое применение находит специфический случайный процесс, называемый белым шумом. Математическое ожидание такого процесса равна нулю, а его спектральная плотность является постоянной величиной S (ω) = C . Обратное преобразование Фурье (корреляционная функ-
ция) от такой спектральной плотности выражается с помощью δ(τ)
– функции, т.е. K (τ) = Cδ(τ) . Для многомерного белого шума [8] вместо константы C используется положительно определенная функция Q ( t1 ) , которая называется матрицей интенсивностей, так что K ( t1 , t 2 ) = Q ( t1 )δ( t 2 − t1 ) .
79