- •1. Выпуклые множества: определение,выпуклая линейная комбинация и ее свойства, пересечение множеств,типы множеств, внутренние и граничные точки.
- •Выпуклая функция (выпуклая вниз)
- •Вогнутая функция (выпуклая вверх)
- •Выпуклое множество
- •Выпуклая линейная комбинация
- •Свойства
- •Множества
- •2. Выпуклые множества:крайняя точка,гиперплоскость,теорема о разделяющей гиперплоскости,опорная гиперплоскость,выпуклая оболочка.
- •Гиперплоскость
- •Теорема о разделяющей гиперплоскости
- •Опорная гиперплоскость
- •Выпуклая оболочка
- •3. Выпуклые функции:определения,свойство линейной формы,свойство суммы выпуклых функций,признак выпуклости диффеpенциpуемой функции.
- •Выпуклая функция (выпуклая вниз)
- •Выпуклая функция (выпуклая вверх)
- •Свойство линейной формы
- •Свойство суммы выпуклых функций
- •Признак выпуклости дифференцируемой функции
- •4. Выпуклые функции:свойство выпуклости области определения выпуклых функций, свойство глобальности минимума выпуклой функции.
- •Свойство выпуклости области определения выпуклых функций
- •Свойство глобальности минимума выпуклой функции.
- •5. Постановка задачи оптимизации.Классы оптимизационных задач:задачи безусловной оптимизации,условной оптимизации,классические на условный экстpемум, выпуклые задачи оптимизации,задачи математического пpогpаммиpования.
- •Постановка задачи
- •Задача безусловной оптимизации
- •Задача условной оптимизации
- •Выпуклая задача оптимизации
- •Математическая задача оптимизации
- •Задача линейного программирования
- •Квадратичное программирование
- •7. Условия экстремума одномерных функций без ограничений.
- •9. Классическая задача условной оптимизации,метод неопределенных множителей Лагранжа. (необходимые условия экстремума)
- •Классическая задача условной оптимизации
- •10. Геометрическая интеpпpетация множителей и метода Лагранжа,достаточные условия экстремума,седловые точки,решение задач с ограничениями - неравенствами классическим методом Лагранжа.
- •11. Понятие о численных методах оптимизации.
- •Определение
- •Основные понятия
- •Классификация численных методов
- •Одномерный пассивный поиск
- •Унимодальность
- •Интервал неопределенности
- •Принцип минимакса
- •13. Принцип минимакса,постановка экспериментов пpи пассивном поиске,метод дихотомии, эвристический алгоритм Свенна (наушники).
- •Принцип минимакса
- •14. Метод Фибоначчи,метод золотого сечения.
- •Метод золотого сечения
- •Метод Фибоначчи
- •Алгоритм Фибоначчи
- •15. Метод золотого сечения,методы оценивания с использованием квадратичной аппроксимации.
- •Методы оценивания с использованием квадратичной аппроксимации ((оцениваем местонахождение точки ))
- •16. Метод средней точки,метод касательных,метод секущих.
- •Метод средней точки
- •17. Метод поиска по симплексу.
- •18. Метод поиска Хука-Дживса.
- •19. Метод сопряженных направлений Пауэлла.
- •20. Градиентные методы:с постоянным шагом,с дроблением шага.
- •Градиентный метод c дроблением шага
- •21. Метод наискорейшего спуска,метод покооpдинатного спуска,сходимость гpадиентных методов.
- •Cходимость гpадиентных методов
- •22. Градиентный метод с масштабированием переменных.
- •23. Эвристические схемы градиентного метода.
- •26. Теорема Куна-Таккера,доказательство достаточности (без доказательства).
- •Теорема Куна–Таккера
- •27. Теорема Куна-Таккера,доказательство необходимости (без доказательства).
- •Теорема Куна–Таккера
- •28. Развитие и обобщение метода Лагpанжа,общая теоpема математического пpогpаммиpования.
- •29. Общая теорема математического пpогpаммиpования,условия оптимальности для задач квадратичного пpогpаммиpования.
- •30. Метод (де)Била.
- •Полный алгоритм метода Била
- •31. Условия оптимальности для задач квадратичного пpогpаммиpования. Метод Вулфа.
- •Метод Вулфа
- •32. Метод кусочно-линейной аппроксимации.
- •33. Метод проекции градиента.
- •34. Метод возможных направлений.
- •Алгоритм
- •35. Методы штрафных функций.
- •36. Постановка общей задачи линейного пpогpаммиpования,пpимеpы задач.
- •Определение
- •Пример задачи
- •37. Свойства pешений задач линейного пpогpаммиpования.
- •Теорема о существовании вершин многогранного множества
- •Теорема о существовании опрного плана
- •Теорема о существовании опорного решения
- •Теорема о разрешимости задачи линейного программирования
- •38. Двойственные задачи линейного программирования и их свойства.
- •39. Идея метода последовательного улучшения плана,признак оптимальности.
- •40. Алгебраическое обоснование метода последовательного улучшения плана.
- •41. Метод искусственного базиса.
- •Определение
- •Определение
- •Метод
- •49. Метод Форда-Фалкерсона для решения задачи о максимальном потоке в сети.
- •Определение (постановка задачи)
- •Алгоритм (Форда-Фалкерсона)
- •50. Линейная сетевая задача,метод потенциалов для ее решения.
- •Линейная сетевая задача
- •Метод потенциалов
- •51. Жордановы исключения. Геометрический метод pешения задач линейного пpогpаммиpования.
- •52. Задачи оптимального упpавления.Пpинцип оптимальности динамического пpогpаммиpования.
- •53. Метод динамического пpогpаммиpования для дискретных систем.
- •54. Метод динамического пpогpаммиpования для непpеpывных систем.
- •55. Решение задач pаспpеделения pесуpсов методом динамического пpогpаммиpования.
11. Понятие о численных методах оптимизации.
Определение
Это совокупность математических алгоритмов и численных подходов, используемых для поиска экстремумов (минимума или максимума) целевых функций в случае, когда аналитическое решение задачи затруднено или невозможно.
Основные понятия
1. Целевая функция: Это функция f(x), значение которой нужно минимизировать или максимизировать.
2. Ограничения: Заданные условия в форме равенств или неравенств, которым должен удовлетворять допустимый набор переменных.
3. Допустимая область: Множество решений, удовлетворяющих всем ограничениям. 4. Глобальный и локальный экстремум:
○ Глобальный экстремум — это наилучшее значение функции на всей допустимой области.
○ Локальный экстремум — это наилучшее значение функции в некоторой
окрестности.
Классификация численных методов
1. Методы безусловной оптимизации: Применяются, если отсутствуют ограничения.
○ Градиентные методы: Используют производные для нахождения направления движения (например, метод градиентного спуска).
○ Методы второго порядка: Учитывают информацию о кривизне (например, метод
Ньютона).
○ Эвристические методы: Не используют производные (например, метод
случайного поиска).
2. Методы условной оптимизации: Применяются при наличии ограничений.
○ Метод штрафных функций: Преобразует задачу условной оптимизации в безусловную.
○ Метод проекций: Обеспечивает корректировку решений, чтобы они оставались в пределах допустимой области.
○ Симплекс-метод: Используется для линейного программирования. 3. Эвристические методы: Подходят для задач с высокой размерностью и
нелинейностью.
○ Генетические алгоритмы.
○ Алгоритмы роя частиц. ○ Методы отжига.
12. |
Одномерный |
пассивный |
поиск.Унимодальность,интервал |
неопределенности,принцип минимакса.
Одномерный пассивный поиск Это метод решения поставленной задачи, в котором задается правило вычисления сразу
всех пробных точек x1, x2, xn. и за
принимается та точка xk, для которой
. На графике:
Минимаксный метод поиска, в котором информация о значениях функции, вычисленных в предшествующих точках, не может быть использована, называют оптимальным пассивным поиском.
Унимодальность
Унимодальной на отрезке [a, b] называется функция f(x), непрерывная на этом отрезке и
имеющая единственный локальный экстремум (минимум или максимум) в некоторой точке c [a, b]
Существуют достаточные условия унимодальности:
● Функция выпукла на отрезке [a, b] → унимодальна на нем; ● Если f''(x) > 0 при всех x [a, b], то f(x) унимодальна.
Для непрерывной функции можно сузить интервал унимодальности:
● Построить график на отрезке [a, b];
● Если функция выпукла вниз, то это искомый отрезок.
Свойства:
● Любая точка локального минимума является и точкой глобального минимума
● Если функция унимодальна на [a, b], то унимодальна на любом подотрезке [c, d] [a, b]
Интервал неопределенности
Это промежуток, внутри которого, согласно текущим расчетам, находится минимум или максимум функции. Этот термин чаще всего используется в методах одномерной оптимизации, например, при поиске экстремума функции на определенном отрезке.
