
- •1. Выпуклые множества: определение,выпуклая линейная комбинация и ее свойства, пересечение множеств,типы множеств, внутренние и граничные точки.
- •Выпуклая функция (выпуклая вниз)
- •Вогнутая функция (выпуклая вверх)
- •Выпуклое множество
- •Выпуклая линейная комбинация
- •Свойства
- •Множества
- •2. Выпуклые множества:крайняя точка,гиперплоскость,теорема о разделяющей гиперплоскости,опорная гиперплоскость,выпуклая оболочка.
- •Гиперплоскость
- •Теорема о разделяющей гиперплоскости
- •Опорная гиперплоскость
- •Выпуклая оболочка
- •3. Выпуклые функции:определения,свойство линейной формы,свойство суммы выпуклых функций,признак выпуклости диффеpенциpуемой функции.
- •Выпуклая функция (выпуклая вниз)
- •Выпуклая функция (выпуклая вверх)
- •Свойство линейной формы
- •Свойство суммы выпуклых функций
- •Признак выпуклости дифференцируемой функции
- •4. Выпуклые функции:свойство выпуклости области определения выпуклых функций, свойство глобальности минимума выпуклой функции.
- •Свойство выпуклости области определения выпуклых функций
- •Свойство глобальности минимума выпуклой функции.
- •5. Постановка задачи оптимизации.Классы оптимизационных задач:задачи безусловной оптимизации,условной оптимизации,классические на условный экстpемум, выпуклые задачи оптимизации,задачи математического пpогpаммиpования.
- •Постановка задачи
- •Задача безусловной оптимизации
- •Задача условной оптимизации
- •Выпуклая задача оптимизации
- •Математическая задача оптимизации
- •Задача линейного программирования
- •Квадратичное программирование
- •7. Условия экстремума одномерных функций без ограничений.
- •9. Классическая задача условной оптимизации,метод неопределенных множителей Лагранжа. (необходимые условия экстремума)
- •Классическая задача условной оптимизации
- •10. Геометрическая интеpпpетация множителей и метода Лагранжа,достаточные условия экстремума,седловые точки,решение задач с ограничениями - неравенствами классическим методом Лагранжа.
- •11. Понятие о численных методах оптимизации.
- •Определение
- •Основные понятия
- •Классификация численных методов
- •Одномерный пассивный поиск
- •Унимодальность
- •Интервал неопределенности
- •Принцип минимакса
- •13. Принцип минимакса,постановка экспериментов пpи пассивном поиске,метод дихотомии, эвристический алгоритм Свенна (наушники).
- •Принцип минимакса
- •14. Метод Фибоначчи,метод золотого сечения.
- •Метод золотого сечения
- •Метод Фибоначчи
- •Алгоритм Фибоначчи
- •15. Метод золотого сечения,методы оценивания с использованием квадратичной аппроксимации.
- •Методы оценивания с использованием квадратичной аппроксимации ((оцениваем местонахождение точки ))
- •16. Метод средней точки,метод касательных,метод секущих.
- •Метод средней точки
- •17. Метод поиска по симплексу.
- •18. Метод поиска Хука-Дживса.
- •19. Метод сопряженных направлений Пауэлла.
- •20. Градиентные методы:с постоянным шагом,с дроблением шага.
- •Градиентный метод c дроблением шага
- •21. Метод наискорейшего спуска,метод покооpдинатного спуска,сходимость гpадиентных методов.
- •Cходимость гpадиентных методов
- •22. Градиентный метод с масштабированием переменных.
- •23. Эвристические схемы градиентного метода.
- •26. Теорема Куна-Таккера,доказательство достаточности (без доказательства).
- •Теорема Куна–Таккера
- •27. Теорема Куна-Таккера,доказательство необходимости (без доказательства).
- •Теорема Куна–Таккера
- •28. Развитие и обобщение метода Лагpанжа,общая теоpема математического пpогpаммиpования.
- •29. Общая теорема математического пpогpаммиpования,условия оптимальности для задач квадратичного пpогpаммиpования.
- •30. Метод (де)Била.
- •Полный алгоритм метода Била
- •31. Условия оптимальности для задач квадратичного пpогpаммиpования. Метод Вулфа.
- •Метод Вулфа
- •32. Метод кусочно-линейной аппроксимации.
- •33. Метод проекции градиента.
- •34. Метод возможных направлений.
- •Алгоритм
- •35. Методы штрафных функций.
- •36. Постановка общей задачи линейного пpогpаммиpования,пpимеpы задач.
- •Определение
- •Пример задачи
- •37. Свойства pешений задач линейного пpогpаммиpования.
- •Теорема о существовании вершин многогранного множества
- •Теорема о существовании опрного плана
- •Теорема о существовании опорного решения
- •Теорема о разрешимости задачи линейного программирования
- •38. Двойственные задачи линейного программирования и их свойства.
- •39. Идея метода последовательного улучшения плана,признак оптимальности.
- •40. Алгебраическое обоснование метода последовательного улучшения плана.
- •41. Метод искусственного базиса.
- •Определение
- •Определение
- •Метод
- •49. Метод Форда-Фалкерсона для решения задачи о максимальном потоке в сети.
- •Определение (постановка задачи)
- •Алгоритм (Форда-Фалкерсона)
- •50. Линейная сетевая задача,метод потенциалов для ее решения.
- •Линейная сетевая задача
- •Метод потенциалов
- •51. Жордановы исключения. Геометрический метод pешения задач линейного пpогpаммиpования.
- •52. Задачи оптимального упpавления.Пpинцип оптимальности динамического пpогpаммиpования.
- •53. Метод динамического пpогpаммиpования для дискретных систем.
- •54. Метод динамического пpогpаммиpования для непpеpывных систем.
- •55. Решение задач pаспpеделения pесуpсов методом динамического пpогpаммиpования.

23. Эвристические схемы градиентного метода.
Первая эвристическая схема содержит два основных этапа. Оба этапа представляют собой
аналоги градиентного спуска с постоянным шагом. Только вместо градиента
используется вектор g(x), формируемый из координат , но на каждом из этапов по разным правилам.
(1 этап ) С переключением процедур поиска
1. Задаем некоторое , принудительно считаем частные производные
для
j, для которых в действительности выполняется соотношение ; в этом случае выбираем направление к дну оврага, движемся до зацикливания.
Таким образом, спуск производится лишь по тем переменным, в направлении которых производная целевой функции достаточно велика. Это позволяет быстро спуститься на «дно оврага». Мы спускаемся до тех пор, пока метод не зациклится, то есть до тех пор, пока каждая следующая итерация позволяет найти точку, в которой значение функции меньше, чем значение, найденное в предыдущей итерации. После этого переходим к
следующему этапу.
2. Задаем некоторое (намного (в 10 раз)), считаем
для j, для которых в
действительности выполняется соотношение двигаемся вдоль оврага.
Как и на первом этапе, спуск продолжается до тех пор, пока метод не зациклится.
После выполнения первого и второго этапов принимается решение о завершении работы или продолжении. Для этого сравнивается норма разности предыдущей точки, то есть
точки, которую мы имели до применения первого и второго этапов, с текущей точкой, то есть
полученной после применения с точностью решения задачи e1. Если эта норма меньше e1 и норма градиента в текущей точке меньше e3, то поиск заканчивается и последняя вычисленная точка принимается за приближенное решение задачи. Иначе для текущей точки вновь повторяем первый и второй этапы и т. д.

( - частная производная
, просто брал из другой статьи)
Метод Гельфанда (1966 гг.)
Пусть и
- две произвольные близкие точки. Из
совершают обычный градиентный спуск с постоянным шагом и после нескольких итераций с малым шагом a
попадем в точку . Тоже самое делаем для точки
, получая точку
. Две точки
лежат в
окрестности «дна оврага». Соединяя их прямой, делаем «большой шаг» в полученном
направлении, перемещаясь «вдоль дна оврага» (шаг называют овражным шагом). В
результате получаем точку . В ее окрестности выбираем точку
и повторяем процедуру.
Схема овражного метода 1
Шаг 1.
Вводятся начальное приближение х0, точность решения и
, шаг
для
градиентного спуска, начальное значение для овражного шага. Из точки
осуществляется градиентный спуск с постоянным шагом a на дно оврага. В результате получается точка
. Полагается к=0.

Шаг 2.
В окрестности берется точка
и из нее осуществляется градиентный спуск. В
результате получается точка Шаг 3.
Новая точка определяется следующим образом. По формуле
или
(штрих здесь не значит производная!!!)
вычисляется точка . Из нее осуществляется градиентный спуск и мы получаем точку
.
Если , то полагаем
и
Иначе уменьшаем овражный шаг l (например в 2 раза l=l/2)и повторяем шаг 3. Шаг 4.
Если , то полагаем:
и поиск минимума на этом заканчивается, иначе к=к+1 и переходим к шагу 2. Рассмотрим другую реализацию той же идеи.
Пусть и
– две произвольные близкие точки. Как и в предыдущем случае, из каждой точки осуществим градиентные спуски с постоянным шагом
. Получим точки
и
, лежащие в окрестности «дна оврага». Соединяя их прямой, делаем «большой шаг» l в полученном направлении. В результате получим точку
. Из этой точки осуществим градиентный спуск и получим точку
. А вот далее, для того чтобы осуществить «овражный шаг», берем
предпоследнюю точку u1. Соединяя прямой точки и
, делаем шаг
в полученном направлении и определяем х3. Дальше аналогичным образом вычисляются
.

Схема овражного метода 2
Шаг 1.
Задаются начальное приближение , точность решения
и
, шаг
для градиентного спуска, начальное значение
для овражного шага.
Из точки осуществляется градиентный спуск с постоянным шагом
на «дно оврага».
Врезультате получается точка .
Вокрестности берется точка
, из которой тоже осуществляется градиентный спуск
на «дно оврага». В результате получается точка . Полагается к=1. Если
, то
полагаем . Если
, то
.
Шаг 2.
Новая точка определяется следующим образом. По формуле:
вычисляется точка . Из нее осуществляется градиентный спуск и мы получаем точку
.
Если , то полагаем
.
Иначе уменьшаем овражный шаг (например в 2 раза
)и повторяем шаг 2.
Шаг 3.
Если и
то полагаем:
и поиск минимума на этом заканчивается, иначе к=к+1 и переходим к шагу 2.
24. Оптимизация многомерных функций методами второго порядка.
Эти методы быстрее чем градиентные.
1) Метод Ньютона: точки минимизирующей последовательности
(треугольник – это набла: матрица, обратная гессиану)

Метод любую квадратичную функцию с положительно определенной матрицей Гессе оптимизирует за 1 итерацию.
2) Если расстояние от до
большое, то возможно простаивание в методе Ньютона. Разработан метод Ньютона с регулировкой шага (Ньютона Рафсона, модифицированный метод Ньютона)
отыскивается оптимальной длины
Метод надежный, квадратичная скорость сходимости, обеспечивает
25. Метод сопряженных градиентов.
Такие методы обладают свойствами предыдущих методов – скорость сходимости как у методов второго порядка, а сам является первого порядка.
Метод Флетчера-Ривса 1964г.
Требуется, чтобы направление были взаимно сопряженными, должны выполняться выражения (соотношения):
выбирается оптимальной величины на каждой итерации:
для квадратичных функций можно воспользоваться формулой:

определяем оптимальную длину шага и направления затем осуществляем переход из
в
.
Выводы:
и
- взаимно ортогональны
- взаимно сопряжены относительно матрицы H умножим на матрицу H и прибавим к левой и правой части
:
значит

Алгоритм (по ебаной библии пирога):
1) 2)
3)
переходим к пункту 2 алгоритма
Для квадратичных функций с положительной определенностью метод дает точное решение, для более сложных функций нужно повторять пока не выполнится условие остановки.
Алгоритм (норм)
1) Задать: начальную точку -малые положительные числа, M –
предельное число итераций. Найти градиент . 2) Положить k=0.
3) Вычислить
4) Проверить выполнение критерия окончания
а) если критерий выполняется, , расчет окончен;
б) если нет, то перейти к шагу 5.

5) Проверить условие : |
|
а) если неравенство выполняется, то |
, расчет окончен; |
б) если нет, то при k = 0 перейти к шагу 6, а при перейти к шагу 7.
6) Определить 7) Определить
8) |
Определить |
9) |
Найти из условия |
10) Вычислить 11) Проверить выполнение условий
а) если выполняются оба условия в двух последовательных итерациях с номерами k и k-1, то расчет окончен, найдена точка ;
б) если не выполняется хотя бы одно из условий, то положить k = k + 1 и перейти к шагу 3.
Геометрическая интерпретация метода для n = 2 приведена на рисунке


Проанализируем полученную точку:
Функция |
есть |
квадратичная функция |
двух переменных, |
||
имеющая положительно определенную матрицу Гессе |
- |
матрицу |
вторых |
||
производных. Это позволяет сделать |
вывод о |
том, что |
функция |
строго |
выпукла, |