- •Содержание
- •Введение
- •1 Теоретическая часть
- •1.1 Градиентные методы
- •Метод градиентного спуска с дроблением шага
- •Метод наискорейшего спуска
- •Метод сопряженных направлений
- •Метод Ньютона
- •1.2 Постановка задачи оптимизации
- •1.3 Необходимые и достаточные условия экстремума
- •1.4 Характеристика класса задачи
- •1.5 Задачи многомерной безусловной минимизации
- •2 Расчётная часть
- •2.1 Аналитический метод решения
- •2.2 Алгоритм метода градиентного спуска
- •Заключение
- •Список используемой литературы
Метод Ньютона
Последовательное применение схемы квадратичной аппроксимации приводит к реализации оптимизационного метода Ньютона по формуле
xk +1 = xk - Ñ2 f(xk -1 ) Ñf(xk ).
Недостатком метода Ньютона является его недостаточная надежность при оптимизации не квадратичных целевых функций. Поэтому его часто модифицируют:
xk +1 = xk - ak Ñ2 f(xk -1 ) Ñf(xk ), где
ak - параметр, выбираемый таким образом, чтобы f(xk+1 ) ® min.
1.2 Постановка задачи оптимизации
Оптимизация – выбор предпочтительного варианта проекта по принятым критериям.
В основе оптимизации лежит функция цели Z(x,y), которая строиться на основе суммы двух других целевых функций
и
, и характеризует качество объекта.
1.3 Необходимые и достаточные условия экстремума
Необходимым условием экстремума функции в точке Хо является равенство нулю всех первых производных или равенство нулю градиента функции.
Достаточным условием минимума функции является положительная определенность G[F(X)] |x=xo условием максимума является отрицательная определенность G[F(X)] |x=xo ;
Матрица G[F(X)] положительно определенная, если все миноры главной диагонали от 1 до n положительны, тогда F(Xm)=minF(X). Если все миноры главной диагонали отрицательны, то F(Xm)=max F(X).
1.4 Характеристика класса задачи
Задача, представленная в курсовой работе, имеет два критерия оптимизации x и y, следовательно, она многокритериальная. Так же она является параметрической, так как область определения целевой функции Z(x,y) непрерывное множество точек. Будем считать, что функция унимодальна и имеет параметрические ограничения.
Представленная многокритериальная задача является многомерной, с ограничениями, и будет решаться с помощью нелинейного программирования.
Градиентный метод, в соответствии с нашей задачей, можно классифицировать как: многомерный, численный, поисковый, при ограничениях.
1.5 Задачи многомерной безусловной минимизации
Для
заданной функции решить задачу многомерной
безусловной минимизации f(x1,
x2),
x
X
(X
R)
и начальной точки x0.
Пусть f(x) = f(x1, x2, … ,xn) – действительная функция n переменных, определенная на множестве X Ì Rn. Точка x* Î X называется точкой локального минимума f(x) на множестве X, если существует такая
e-окрестность этой точки, что для всех x из этой окрестности, т. е., если
|| x - x*|| < e, выполняется условие f(x*) £ f(x).
Если выполняется условие f(x*) < f(x), то x* называется точкой строгого локального минимума. У функции может быть несколько локальных минимумов. Точка x*Î X называется точкой глобального минимума f(x) на множестве X, если для всех x Î X выполняется условие f(x*) £ f(x). Значение функции f(x*) называется минимальным значением f(x) на множестве X. Для нахождения глобального минимума необходимо найти все локальные минимумы и выбрать наименьшее значение. В дальнейшем будем рассматривать задачу нахождения локального минимума.
Теорема 1 (необходимое условие экстремума)
Пусть
есть точка локального минимума (максимума)
функции f(x)
на множестве
и она дифференцируема в точке х*. Тогда
градиент функции в точке х* равен нулю:
Теорема 2 (достаточное условие)
Пусть функция f(x) в точке х* дважды дифференцируема, ее градиент равен нулю, а матрица Гессе является положительно определенной (отрицательно определенной), т. е.
(
)
Тогда точка х* есть точка локального минимума (максимума) функции на множестве .
