- •1. Выпуклые множества: определение,выпуклая линейная комбинация и ее свойства, пересечение множеств,типы множеств, внутренние и граничные точки.
- •Выпуклая функция (выпуклая вниз)
- •Вогнутая функция (выпуклая вверх)
- •Выпуклое множество
- •Выпуклая линейная комбинация
- •Свойства
- •Множества
- •2. Выпуклые множества:крайняя точка,гиперплоскость,теорема о разделяющей гиперплоскости,опорная гиперплоскость,выпуклая оболочка.
- •Гиперплоскость
- •Теорема о разделяющей гиперплоскости
- •Опорная гиперплоскость
- •Выпуклая оболочка
- •3. Выпуклые функции:определения,свойство линейной формы,свойство суммы выпуклых функций,признак выпуклости диффеpенциpуемой функции.
- •Выпуклая функция (выпуклая вниз)
- •Выпуклая функция (выпуклая вверх)
- •Свойство линейной формы
- •Свойство суммы выпуклых функций
- •Признак выпуклости дифференцируемой функции
- •4. Выпуклые функции:свойство выпуклости области определения выпуклых функций, свойство глобальности минимума выпуклой функции.
- •Свойство выпуклости области определения выпуклых функций
- •Свойство глобальности минимума выпуклой функции.
- •5. Постановка задачи оптимизации.Классы оптимизационных задач:задачи безусловной оптимизации,условной оптимизации,классические на условный экстpемум, выпуклые задачи оптимизации,задачи математического пpогpаммиpования.
- •Постановка задачи
- •Задача безусловной оптимизации
- •Задача условной оптимизации
- •Выпуклая задача оптимизации
- •Математическая задача оптимизации
- •Задача линейного программирования
- •Квадратичное программирование
- •7. Условия экстремума одномерных функций без ограничений.
- •9. Классическая задача условной оптимизации,метод неопределенных множителей Лагранжа. (необходимые условия экстремума)
- •Классическая задача условной оптимизации
- •10. Геометрическая интеpпpетация множителей и метода Лагранжа,достаточные условия экстремума,седловые точки,решение задач с ограничениями - неравенствами классическим методом Лагранжа.
- •11. Понятие о численных методах оптимизации.
- •Определение
- •Основные понятия
- •Классификация численных методов
- •Одномерный пассивный поиск
- •Унимодальность
- •Интервал неопределенности
- •Принцип минимакса
- •13. Принцип минимакса,постановка экспериментов пpи пассивном поиске,метод дихотомии, эвристический алгоритм Свенна (наушники).
- •Принцип минимакса
- •14. Метод Фибоначчи,метод золотого сечения.
- •Метод золотого сечения
- •Метод Фибоначчи
- •Алгоритм Фибоначчи
- •15. Метод золотого сечения,методы оценивания с использованием квадратичной аппроксимации.
- •Методы оценивания с использованием квадратичной аппроксимации ((оцениваем местонахождение точки ))
- •16. Метод средней точки,метод касательных,метод секущих.
- •Метод средней точки
- •17. Метод поиска по симплексу.
- •18. Метод поиска Хука-Дживса.
- •19. Метод сопряженных направлений Пауэлла.
- •20. Градиентные методы:с постоянным шагом,с дроблением шага.
- •Градиентный метод c дроблением шага
- •21. Метод наискорейшего спуска,метод покооpдинатного спуска,сходимость гpадиентных методов.
- •Cходимость гpадиентных методов
- •22. Градиентный метод с масштабированием переменных.
- •23. Эвристические схемы градиентного метода.
- •26. Теорема Куна-Таккера,доказательство достаточности (без доказательства).
- •Теорема Куна–Таккера
- •27. Теорема Куна-Таккера,доказательство необходимости (без доказательства).
- •Теорема Куна–Таккера
- •28. Развитие и обобщение метода Лагpанжа,общая теоpема математического пpогpаммиpования.
- •29. Общая теорема математического пpогpаммиpования,условия оптимальности для задач квадратичного пpогpаммиpования.
- •30. Метод (де)Била.
- •Полный алгоритм метода Била
- •31. Условия оптимальности для задач квадратичного пpогpаммиpования. Метод Вулфа.
- •Метод Вулфа
- •32. Метод кусочно-линейной аппроксимации.
- •33. Метод проекции градиента.
- •34. Метод возможных направлений.
- •Алгоритм
- •35. Методы штрафных функций.
- •36. Постановка общей задачи линейного пpогpаммиpования,пpимеpы задач.
- •Определение
- •Пример задачи
- •37. Свойства pешений задач линейного пpогpаммиpования.
- •Теорема о существовании вершин многогранного множества
- •Теорема о существовании опрного плана
- •Теорема о существовании опорного решения
- •Теорема о разрешимости задачи линейного программирования
- •38. Двойственные задачи линейного программирования и их свойства.
- •39. Идея метода последовательного улучшения плана,признак оптимальности.
- •40. Алгебраическое обоснование метода последовательного улучшения плана.
- •41. Метод искусственного базиса.
- •Определение
- •Определение
- •Метод
- •49. Метод Форда-Фалкерсона для решения задачи о максимальном потоке в сети.
- •Определение (постановка задачи)
- •Алгоритм (Форда-Фалкерсона)
- •50. Линейная сетевая задача,метод потенциалов для ее решения.
- •Линейная сетевая задача
- •Метод потенциалов
- •51. Жордановы исключения. Геометрический метод pешения задач линейного пpогpаммиpования.
- •52. Задачи оптимального упpавления.Пpинцип оптимальности динамического пpогpаммиpования.
- •53. Метод динамического пpогpаммиpования для дискретных систем.
- •54. Метод динамического пpогpаммиpования для непpеpывных систем.
- •55. Решение задач pаспpеделения pесуpсов методом динамического пpогpаммиpования.
14. Метод Фибоначчи,метод золотого сечения.
Метод золотого сечения
Сейчас мы рассмотрим метод золотого сечения, применимый к недифференцируемым функциям. Будем считать, что
задана и кусочно-непрерывна на отрезке
, и имеет на
этом отрезке (включая его концы) только один локальный минимум. Построим итерационный процесс, сходящийся к этому минимуму.
Вычислим функцию на концах отрезка, а также в двух внутренних точках
, сравним все четыре значения функции между собой и выберем среди них наименьшее. Пусть наименьшим
оказалось
Очевидно, минимум расположен в одном из прилегающих к нему отрезков.
Поэтому отрезок
можно отбросить и оставить отрезок
Первый шаг процесса сделан.
На отрезке
снова надо выбрать две внутренние точки, вычислить в них и на концах отрезка значения функции, и сделать следующий шаг процесса. Но на предыдущем шаге вычислений мы уже нашли
на концах нового отрезка
и в одной его внутренней точке
. Поэтому достаточно выбрать внутри
еще одну точку
определить в ней значение функции и провести необходимые сравнения. Это вчетверо уменьшает объем вычислений на одном шаге процесса.
Как выгодно размещать точки? Всякий раз мы делим оставшийся отрезок на три части (причем одна из точек деления уже определена предыдущими вычислениями) и затем отбрасываем один из крайних отрезков. Очевидно, надо, чтобы следующий отрезок был поделен подобно
предыдущему. Для этого должны выполняться соотношения
и 
Решение этих уравнений дают следующее:
и 
После проведения очередного вычисления отрезок сокращается в
раза; после n
вычислений функции он составляет
долю первоначальной величины (три первых вычисления в точках а, b, x1 еще не сокращают отрезок). Следовательно, при
длина
оставшегося отрезка стремится к нулю как со знаменателем
, т. е. метод золотого сечения всегда сходится, причем линейно.
Запишем алгоритм вычисления. Для единообразия записи обозначим
а поочередно вводимые внутренние точки будут
. На первом шаге полагаем согласно второй формуле с кси
После сравнения может быть отброшена точка с любым номером, так что на следующих шагах оставшиеся точки будут перенумерованы беспорядочно. Пусть на данном отрезке есть четыре точки
из которых какие-то две являются концами отрезка. Выберем ту точку, в
которой функция принимает наименьшее значение; пусть это оказалось 
Затем отбрасываем ту точку, которая более всего удалена от
пусть этой точкой оказалась 
Определим порядок расположения оставшихся трех точек на числовой оси; пусть, для определенности,
Тогда новую внутреннюю точку введем таким соотношением:
и присвоим ей очередной номер. Минимум находится где-то внутри последнего отрезка,
. Поэтому итерации прекращаем, когда длина этого отрезка станет меньше заданной погрешности
:
Метод Фибоначчи
Метод Фибоначчи – это улучшение метода золотого сечения, служащего для нахождения
минимума/максимума функции.
Подобно методу золотого сечения, он требует двух вычислений функции на первой итерации, а на каждой последующей только по одному. Однако этот метод отличается от
метода золотого сечения тем, что коэффициент сокращения интервала неопределенности
меняется от итерации к итерации.
Алгоритм Фибоначчи
● Предварительный этап
Следует выбрать допустимую конечную длину интервала неопределенности
и константу различимости
. Пусть задан начальный интервал неопределенности 
.
Нужно выбрать общее число вычислений функции
так, чтобы
.
Положим, что
и
.
Вычислить
, положить, что
и перейти к основному этапу.
● Основной этап ○ Первый шаг
Если
, то перейти ко второму шагу, иначе – к третьему
○ Второй шаг
Положить, |
что |
. |
Затем |
положить |
. Если
, то перейти к
пятому шагу, иначе – вычислить
и перейти к четвертому
○ Третий шаг
Положить, что
. Если
, то
перейти к пятому шагу, иначе – посчитать
и перейти к четвертому
○ Четвертый шаг
Заменить
на
и перейти к первому шагу
○ Пятый шаг
Положить, что |
. Если |
, то положить |
. Иначе (если |
) – положить |
|
● Итог работы алгоритма: Оптимальное решение содержится в интервале 
