- •Введение
- •1. Основные задачи теории автоматического управления
- •Формулировка задачи управления
- •Математическая модель объекта управления
- •1.3. Управляющая система и объект автоматического управления
- •1.4. Закон обратной связи
- •1.5. Общая задача теории автоматического управления
- •2. Математические модели сау
- •2.1. Построение модели элемента системы управления
- •2.2. Динамические и статические звенья сау
- •2.3. Составление дифференциальных уравнений систем автоматического управления
- •2.4. Примеры составления дифференциальных уравнений звеньев сау
- •2.5. Типовые динамические звенья линейных сау
- •2.6. Соединение звеньев и преобразование структурных схем сау
- •2.7. Вопросы идентификации моделей объектов управления
- •3. Методы исследования линейных сау
- •3.1. Общая модель линейной непрерывной и дискретной сау
- •3.2. Линейные сау, описываемые обыкновенными дифференциальными уравнениями с постоянными коэффициентами
- •3.3. Дискретные линейные сау
- •4.1. Метод фазовой плоскости
- •4.2. Линеаризация нелинейных дифференциальных уравнений
- •4.3. Автоколебания нелинейных сау
- •5. Устойчивость систем автоматического управления
- •5.1. Основные понятия теории устойчивости (математическая формулировка)
- •5.2. Общие теоремы об устойчивости линейных сау
- •5.3. Устойчивость линейной сау с постоянной матрицей
- •5.4. Связь устойчивости с корнями характеристического уравнения
- •5.5. Критерии устойчивости
- •5.6. Алгебраические критерии устойчивости
- •5.7. Частотные критерии устойчивости
- •5.8. Логарифмический критерий устойчивости
- •5.9. Запас устойчивости по фазе и амплитуде
- •5.10. Устойчивость импульсных сау
- •5.11. Устойчивость нелинейных сау
- •6. Качество систем автоматического управления
- •6.1. Показатели качества переходного процесса
- •6.2. Прямые методы определения показателей качества
- •6.3. Связь переходного процесса с вещественной частотной характеристикой системы
- •6.4. Интегральные оценки качества
- •7. Случайные воздействия в линейных сау
- •7.1. Понятие случайной функции
- •7.2. Основные характеристики случайной функции
- •7.3. Стационарные случайные функции
- •7.4. Спектральное представление стационарной случайной функции
- •7.5. Спектральная плотность стационарной случайной функции
- •7.6. Преобразование стационарной случайной функции стационарной линейной динамической системой
- •7.7. Преобразование случайных сигналов безынерционными нелинейными звеньями
- •7.8. Понятие статистически оптимальной линейной системы
- •7.9. Статистическая проверка гипотез
- •8. Задачи оптимального управления
- •8.1. Экстремумы функций. Принцип Лагранжа
- •8.2. Начала вариационного исчисления
- •8.3. Прямые методы решения задач оптимального управления
- •8.4. Принцип максимума Понтрягина
- •8.5. Оптимальное позиционное управление (динамическое программирование)
- •9. Современные тенденции развития систем управления
- •9.1. Управление при неполной начальной информации
- •9.2. Экстремальные сау
- •9.3. Самонастраивающиеся системы (снс)
- •9.4. Самоорганизующиеся и самообучающиеся сау
- •9.5. Автоматизированные системы управления
- •9.6. Роботы и гибкие производственные системы
- •9.7. Математические методы в управлении роботами и гпс
8.3. Прямые методы решения задач оптимального управления
В главе
1 при знакомстве с основными понятиями
теории автоматического управления было
рассказано в общих чертах о задачах
оптимального управления. Кратко напомним
содержание главы 1. Оптимальная
программа
определяется
как решение вариационной задачи
(8.3.1)
при условиях
=f(X,U,t), (8.3.2) U(t) u (8.3.3)
где U - фиксированное множество векторов управления, U(t) принадлежит к некоторому классу функций
(8.3.4)
Напомним, что вектор-функция U - находящееся в нашем распоряжении управление.
Методы расчета оптимальных программ принято разделять на два класса. К первому относятся прямые методы, которые используют тот или иной способ редукции (сведения сложного к более простому) вариационной задачи (8.3.1) - (8.3.4) к конечномерной задаче математического программирования. Ко второму классу относятся методы, использующие необходимые условия. Эта классификация достаточно условна, так как при решении конкретных задач оба класса методов часто дополняют друг друга, тем не менее она удобна, поскольку показывает существенное различие в подходах к решению рассматриваемых задач.
Проиллюстрируем это на простейшем примере отыскания минимума функции f(X). Прямые методы основываются на идее построения некой итерационной последовательности
Xk+1=Xk + αkgk, (8.3.5)
где
gk
-
вектор, указывающий некоторое направление
убывания функции f
в точке Xk,
а
αk
- итерационный параметр, величина
которого указывает длину шага в
направлении gk.
Обычно
в качестве вектора gk
выбирают
вектор
f=
{∂f/∂x1,...,∂f/∂xn}
противоположный
градиенту f(X),
который,
как известно, является нормалью к
поверхности уровня f(X)=с
(с -
некая константа) в сторону наибольшего
уменьшения функции.
Схематически вычислительная процедура строится следующим образом. Пусть - вектор (точка в n-мерном пространстве), задающий минимум f(X), а Х0 - его нулевое приближение. Через точку Х0 (точка μ0) проведем поверхность уровня функции f(X) = f(X0). Если точка X0 достаточно близка к искомой точке X, то поверхность уровня f(X)=f(X0) будет похожа на эллипсоид.
Из точки Х0 двигаемся по нормали к этой поверхности в сторону убывания до тех пор, пока эта нормаль не коснется в некоторой точке X1 какой-либо другой поверхности уровня (рис. 8.2): f(X)=f(X1). Затем, отправляясь от точки Х1, вновь повторяем эту процедуру и так далее. Так как f(X0)>f(X1)>f(X2)>,…, то двигаясь по такому пути, мы быстро приближаемся к наименьшим значениям f( ) (дно «ямы»). Величина шага αk на каждой итерации обычно выбирают из условия
(8.3.6)
находя наименьшее положительное α.
Рисунок 8.2
Второй класс методов, основанный на теореме Ферма, дающей необходимые условия экстремума, приводит в общем случае к решению трансцендентной системы уравнений ∂f/∂xi = 0 (i=1, 2, ...n).
Каждый из этих методов имеет свои достоинства и недостатки, которые и определяют область их применения.
Рассмотрим один из возможных прямых методов расчета оптимальной программы для автономной, то есть не зависящей явно от времени, системы автоматического управления. Будем изучать систему
=f(X,U) (8.3.7)
с функционалом
(8.3.8)
и граничными условиями
Х(0)=Х0, Х(Т) =ХТ. (8.3.9)
Ограничиваясь простейшей разностной схемой (схема Эйлера), заменим уравнение (8.3.7) и функционал (8.3.8) следующими выражениями:
Xk+1=Xk+τf(Xk,
Uk),
(8.3.10)
(k=1,
N-1),
(8.3.11)
где tk=kτ, X(tk)=Xk, U(tk)=Uk. К уравнению (8.3.10) должно быть добавлено начальное условие Х(0)=Х0 и условие цели Х(Т)=ХT=ХN. Кроме того, на изменение управления и фазового вектора могут быть наложены и другие ограничения, типа Uk Gk, где Gk - некоторые множества.
Соотношения (8.3.10) позволяют произвести последовательное исключение фазовых векторов:
Таким образом, функционал (8.3.11) становится функцией только векторов U0,..., UN-1:
(8.3.12)
где Ik(U0,U1,...,Uk)=τF(Фi(U0, ...,Uk-1),Uk).
Задача минимизации функционала (8.3.12) при ограничении Uk Gk - стандартная задача математического программирования. Трудности решения этой задачи, как и многих других, однотипных с ней, в основном определяются ее размерностью, то есть количеством переменных и количеством ограничений, на них налагаемых. В рассматриваемой выше схеме редукции число переменных определяется выбором количества интервалов N, что в свою очередь обусловливается требованиями точности. В технических задачах (динамика полета, запуск космических аппаратов и спутников, управление крупнотоннажными технологическими производствами и так далее) число N достигает больших величин, и размерность задачи п × N (п - размерность фазового вектора) делает ее решение чрезвычайно трудоемкой. В подобных ситуациях на первый план выходят методы, которые используют необходимые условия, так как они малочувствительны к увеличению числа интервалов разбиения.
