- •1. Постановка задачи оптимального управления. Критерии оптимальности.
- •2. Экономическая оценка эффективности процессов.
- •3. Постановка задачи оптимального управления в статике.
- •4. Постановка задачи оптим-го управления в динамике.
- •5.Исследование на экстремум одномерной целевой функции методом классического анализа
- •6. Одномерный поиск экстремума целевой функции методом сканирования:
- •7. Одномерный поиск экстремума целевой функции методом золотого сечения:
- •8. Одномерный поиск экстремума целевой функции методом с использованием чисел Фибоначчи.
- •9.Исследование многомерной целевой ф-ции методом классического анализа
- •10.Решение многомерной задачи оптимизации на условный экстремум.
- •12. Метод многомерного поиска экстремума ,Метод релаксации и Гаусса- Зайделя.
- •Метод релаксации
- •14. Метод поиска экстремума при наличии оврагов.
- •15. Ограничения типа «равенство»
- •16. Задачи типа «неравенство»
- •17. Метод случайного поиска.
- •18. Линейное программирование, примеры постановок задач лп.
- •19. Свойства задач лп:
- •20. Симплекс-метод.
- •21. Динамическое программирование, принцип оптимальности и принцип вложения.
- •22. Решение задач оптимизации методом динамического программирования. Уравнения Беллмана.
- •23. Последовательность принятия решения в динамическом программировании. Функциональные уравнения.
- •24. Вариационное исчисление. Классы допустимых функций.
- •25. Уравнение Эйлера для простейшего функционала. Условие Лежандра. Пример решения уравнения Эйлера.
- •26. Уравнение Эйлера и условие Лежандра для функционала, зависящего от n функций и их первых производных.
- •27. Уравнение Эйлера и условие Лежандра для функционала, зависящего от функции и от n ее производных. Пример.
- •29. Решение экстремальной задачи с подвижными границами. Условие трансверсальности. Пример.
- •30. Решение вариационных задач на условный экстремум при наличии интегральной связи. Пример.
- •31. Решение вариационных задач на условный экстремум с голономными связями.
- •32. Решение вариационных задач на условный экстремум с неголономными связями.
- •33.Особенности вариационных задач оптимального управления
- •34.Принцип максимума Понтрягина. Роль советских ученых в разработке пм.
- •35.Последовательность решения задач оптимального управления
- •36. Задача синтеза системы оптимального управления. Ее решение с помощью принципа максимума. Пример
- •37. Понятие аср. Необходимое условие применения экстремальных регуляторов. Сэр.
- •38. Сэр с измерением производной.
- •39. Сэр со вспомогательной модуляцией.
- •40. Сэр с запоминанием экстремума.
- •41. Сэр шагового типа.
- •42. Дифференциальное уравнение инерционного объекта с экстремальной статической характеристикой.
- •43. Аналитическое описание движения в сэр шагового типа
- •44. Графический метод исследования сэр.
- •45 Определение параметров автоколебания в сэр
- •46. Точный метод определения параметров автоколебаний в системах экстремального регулирования
- •47. Определение устойчивости периодических режимов в системах экстремального регулирования
- •48. Устойчивость систем экстремального регулирования при действии монотонных возмущений
- •1. Постановка задачи оптимального управления. Критерии оптимальности.
- •2. Экономическая оценка эффективности процессов.
- •3. Постановка задачи оптимального управления в статике.
10.Решение многомерной задачи оптимизации на условный экстремум.
В классическом диф. исчислении существуют задачи на условный экстремум:
найти экстремум функции многих переменных Q = F (U1….Uк, Uк+1,…U к+м),
при
условии, что
,
необх. найти (к+м) переменных
1 способ: из m ур-ий связи выражаем m неизвестных через ост.
Пример: Q = x2+y2; x + y – 1 = 0,
х
= 1 – у, Q
= 1 – 2y
+ y2
+ y2
x=0,5, y=0,5
2 способ: выразить значение одних переменных через др. чаще всего невозможно. Тогда примен. метод неопр. множителей Лагранжа:
Q = F (U1, …, U к+м)
Введем
в рассм-ие целевую ф-ю:
λ – неопр. множитель Лагранжа
Далее решаем класс. методом.
По пред. примеру:
Q = x2+y2; x + y – 1 = 0, х = 1 – у, Q = 1 – 2y + y2 + y2; x=0,5, y=0,5
;
;
11. Поиск экстремума ф-ции многих переменных методом сканирования.
U2
линии уровня или линии равного значения ф-ции
критерия оптимальности
U1
Сущность: просмотр значений целевой ф-ции в ряде точек в дополнительной области управления и выбор из них оптимальной(min max) причем распределение точек разнообразно.(по секи, спирали ,как угодно)
Плюсы:
получаем глобальный экстремум
Не зависит от вида целевой функции
Минус:
Большой объем вычислений .
выход: сначала сканирование с большим шагом, локализуем и уменьшаем шаг.
12. Метод многомерного поиска экстремума ,Метод релаксации и Гаусса- Зайделя.
Или метод поочередного ∆-ия переменных.
Гаусса- Зайделя
U 1
U 1
U 2 < U 1
0 U 2
U 2
Поиск заканчивается ,когда передвижение не дает улучшений ни по одной из переменных.
Пусть мы находимся в точке О, будем изменять одно направление U 1
, U 2-const .делаем шаг по U 1
И смотрим получившееся значение Q,если значение улучшилось, делаем шаг в этом же направлении ,если ухудшилось,в обратном ,и начинаем шагать по другой переменной.
Поиск заканчиваем когда интервал ≤заданной точности.
Метод релаксации
Усовершенствованный метод Гаусса- Зайделя ,отличие в том, что перемещение к экстр. происходит не последовательно по каждой из переменных, а по той ,у которой целевая ф-ция меняется наиболее быстро. перед тем ,как начать движение необходимо взять
по всем переменным, посмотреть,по которым наиболее сильно ∆-ся производят рабочий шаг.
шаг x i+ 1 = x I +k∆
∆= 1) ∆ ,если Q i>Qi-1
2) ∆/2,если Q i<Qi-1
недостатки те же. окончание поиска,когда ∑ всех производн в квадрате ≤δ-критерия окончания поиска.
(∑ {dQ2/dUi} )0.5 ≤δ
13. МЕТОД ГРАДИЕНТА.
Ни метод релаксации, ни метод Гаусса-Зайделя не помогают решить задачу оврагов или хребтов, потому что в этих методах задано направление поиска по одной из переменных. А при наличие «оврага» или «хребта» функция возрастает, улучшается при движении вдоль «хребта» или «оврага». Метод градиента - заключается в том, что мы отыскиваем направление градиента и делаем рабочий шаг в этом направлении. Градиентом функции называется вектор, направление которого совпадает с направлением наибольшeго быстрого роста функции, а величина(или модуль) вектора пропорционална скорости роста функции. Q=U1U2²+ U2²
U
1=2
U1=1
dQ/dU1=U 22=1
dQ/U2= U1 2U2+2U2=6
gradQ=
Св-ва:
В каждой точке свой градиент
Градиент указывает направление наискорейшего роста функции
Градиент нормален или перпендикулярен поверхности равных значений целевой функции
Ui+1=U1+k (∂Q/∂Ui)/│gradQ│
Шаг k – м/о выбирать самим, сначала большой, затем меньше.
МЕТОД НАИСКОРЕЙШЕГО СПУСКА. Отличается от метода градиента тем. Что градиент не определяется после каждого шага, а определяется в исх.точке, а затем по направлению градиента делаются шаги до тех пор пока функция не начнет уменьшаться (соединение метода релаксации и градиента)
