Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Курсовой проект Белозеров.docx
Скачиваний:
4
Добавлен:
01.07.2025
Размер:
84.71 Кб
Скачать
      1. Метод Ньютона

Последовательное применение схемы квадратичной аппроксимации приводит к реализации оптимизационного метода Ньютона по формуле

xk +1 = xk - Ñ2 f(xk -1 ) Ñf(xk ).

Недостатком метода Ньютона является его недостаточная надежность при оптимизации не квадратичных целевых функций. Поэтому его часто модифицируют:

xk +1 = xk - ak Ñ2 f(xk -1 ) Ñf(xk ), где

ak - параметр, выбираемый таким образом, чтобы f(xk+1 ) ® min.

1.2 Постановка задачи оптимизации

Оптимизация – выбор предпочтительного варианта проекта по принятым критериям.

В основе оптимизации лежит функция цели Z(x,y), которая строиться на основе суммы двух других целевых функций

и

, и характеризует качество объекта.

1.3 Необходимые и достаточные условия экстремума

Необходимым условием экстремума функции в точке Хо является равенство нулю всех первых производных или равенство нулю градиента функции.

Достаточным условием минимума функции является положительная определенность G[F(X)] |x=xo условием максимума является отрицательная определенность G[F(X)] |x=xo ;

Матрица G[F(X)] положительно определенная, если все миноры главной диагонали от 1 до n положительны, тогда F(Xm)=minF(X). Если все миноры главной диагонали отрицательны, то F(Xm)=max F(X).

1.4 Характеристика класса задачи

Задача, представленная в курсовой работе, имеет два критерия оптимизации x и y, следовательно, она многокритериальная. Так же она является параметрической, так как область определения целевой функции Z(x,y) непрерывное множество точек. Будем считать, что функция унимодальна и имеет параметрические ограничения.

Представленная многокритериальная задача является многомерной, с ограничениями, и будет решаться с помощью нелинейного программирования.

Градиентный метод, в соответствии с нашей задачей, можно классифицировать как: многомерный, численный, поисковый, при ограничениях.

1.5 Задачи многомерной безусловной минимизации

Для заданной функции решить задачу многомерной безусловной минимизации f(x1, x2), x X (X R) и начальной точки x0.

Пусть f(x) = f(x1, x2, … ,xn) – действительная функция n переменных, определенная на множестве X Ì Rn. Точка x* Î X называется точкой локального минимума f(x) на множестве X, если существует такая

e-окрестность этой точки, что для всех x из этой окрестности, т. е., если

|| x - x*|| < e, выполняется условие f(x*) £ f(x).

Если выполняется условие f(x*) < f(x), то x* называется точкой строгого локального минимума. У функции может быть несколько локальных минимумов. Точка x*Î X называется точкой глобального минимума f(x) на множестве X, если для всех x Î X выполняется условие f(x*) £ f(x). Значение функции f(x*) называется минимальным значением f(x) на множестве X. Для нахождения глобального минимума необходимо найти все локальные минимумы и выбрать наименьшее значение. В дальнейшем будем рассматривать задачу нахождения локального минимума.

Теорема 1 (необходимое условие экстремума)

Пусть есть точка локального минимума (максимума) функции f(x) на множестве и она дифференцируема в точке х*. Тогда градиент функции в точке х* равен нулю:

Теорема 2 (достаточное условие)

Пусть функция f(x) в точке х* дважды дифференцируема, ее градиент равен нулю, а матрица Гессе является положительно определенной (отрицательно определенной), т. е.

( )

Тогда точка х* есть точка локального минимума (максимума) функции на множестве .