Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
недостающие.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
160.26 Кб
Скачать
  1. Нелинейные задачи мп, особенности поиска оптимальных решений.

Задача математического программирования называется нелинейной, если нелинейны ограничения или целевая функция.

Задачи нелинейного программирования бывают выпуклого и невыпуклого программирования, с ограничениями и без ограничений, с квадратичными или сепарабельными целевыми функциями. Задачи нелинейного программирования имеют множество экстремальных точек, и сложность решения заключается в выделении глобального оптимума, а не локального как это делается в большинстве классических методов.

  1. Методы решения нелинейных задач мп. Содержательное истолкование градиентных методов.

Методы нелинейного программирования могут быть охарактеризованы как многошаговые методы или методы последующего улучшения исходного решения. Нельзя сказать, какое число шагов гарантирует нахождение оптимального значения с заданной степенью точности. Выбор величины шага представляет серьезную проблему, от успешного решения которой во многом зависит эффективность применения того или иного метода. Разнообразие методов решения задач нелинейного программирования объясняется стремлением найти оптимальное решение за наименьшее число шагов.

Большинство методов нелинейного программирования используют идею движения в n-мерном пространстве в направлении оптимума. При этом из некоторого исходного или промежуточного состояния Uk осуществляется переход в следующее состояние Uk+1 изменением вектора Ukна величину DUk, называемую шагом , т.е. Uk+1=Uk+DUk 

Шаг ,т.е. его величина и направление определяется как некоторая функция состояния Uk: DUk=f(Uk

Функция исходного состояния Uk: Uk+1=Uk+f(Uk

DUK=f(Uk) ,Uk-1...,Uk-2 Uk+1=Uk+f(Uk),Uk-1...,Uk-2 

Выбор метода определяется сложностью объекта и решаемой задачей оптимизации.

Градиентные методы, в основе которых лежит свойство градиента функции в точке (вектора частных производных, вычисленного в точке) как указателя направления наибольшего роста функции в окрестности точки. В основу градиентных методов поиска оптимума положены вычисления и анализ производных целевой функции R(U). Если аналитический вид R(U) известен, то вычисление производных dR/dUj чаще всего не составляет особого труда. В противном случае единственным способом определения производных являются численные методы.

где DUj -величина приращения независимой переменной Uj. Точность приближения зависит от величины приращения DUj.

Процесс поиска оптимума в методе градиента также осуществляется в два этапа. На первом находятся значения частных производных по всем независимым переменным, которое и определяет направление градиента в рассматриваемой точке. На втором этапе осуществляется шаг в направлении, обратном направлению градиента, т.е. в направлении наискорейшего убывания целевой функции. Алгоритм градиентного поиска:

Применяется нормализованный вектор градиента, указывающий лишь направление наискорейшего изменения целевой функции, но он не указывает скорости изменения по этому направлению. При этом шаг поиска определяется величиной hk, стратегию изменения кот м\о строить независимо от абс. вел-ны градиента.

Недостатком градиентного метода является то, что при его использовании можно обнаружить только локальный минимум. Для того, чтобы найти у функции другие локальные минимумы, необходимо проводить поиск из других начальных точек. Таким образом, с помощью метода градиента каждый локальный минимум целевой функции можно охарактеризовать некоторой областью "притяжения", обладающей тем свойством, что при задании начального состояния U0 в границах этой области метод градиента всегда приводит в один и тот же локальный минимум.