Скачиваний:
71
Добавлен:
01.05.2014
Размер:
309.76 Кб
Скачать

Основные понятия.

1. X- множество вариантов или допустимое множество.

  1. f : XR1­ - целевая функция.

  2. Точка x*X - оптимальная, если выполняется f(x*)=min f(x), xX (­­*).

Если верно (*) для любого xX, то точка x- точка глобального минимума.

Если нет, но существует R1, >0 такое что:

f(x) f(x*), для любого x из - окрестности, то есть ||x-x*||< , то

x* - точка локального минимума.

Надо найти экстремумы функции f на множестве X.

Содержание курса состоит в поисках экстремумов.

Будем искать min f(x), xX , так как max f(x)= - min(-f(x)), xX.

Множество X бывает:

  1. Конечным (конечное множество элементов, например графы).

  2. Конечномерным (когда совпадает или является подмножеством множества евклидова пространства).

  3. Бесконечномерным (не вкладывается в евклидово пространство ,например множество непрерывных функций на отрезке).

Соответствие методов и множеств.

  1. Методы решения переборных задач (метод ветвей и границ, динамическое

программирование и др.)

  1. Методы решения задач математического программирования

(условная/безусловная минимизация, нелинейное, выпуклое и линейное

программирование).

  1. Методы вариационного исчисления и методы оптимального управления

(уравнение Эйлера-Лагранжа, принцип максимума).

  1. Безусловная оптимизация (многомерные функции).

min f(x), x = R­n, то есть минимизация на всем пространстве.

Определение:

Минимизация заданная неравенствами, равенствами и другими ограничениями называется условной.

Пусть:

  1. x = Rn (евклидово n-мерное пространство);

  2. Функция f дифференцируема хотя бы один раз,

тогда в точке минимума выполняется равенство:

f(x)=0, где

(вектор частных производных по каждому аргументу)

f(x)=

В большинстве случаев это приводит к решению системы нелинейных уравнений, что само по себе проблема. Существуют релаксационные методы, в основе которых лежит построение релаксационной последовательности со следующими свойствами:

  1. xiX,i;

  2. f(x0)>f(x1)>...;

  3. xix* = argmin f(x), i, xX.

Это методы нахождения локального минимума (т.е. корня уравнения f(x) =0). Все рассматриваемые методы делятся на несколько групп в зависимости от того, какой максимальный порядок производной функции f используется для вычисления последовательности. Если производные не используются, то методы нулевого порядка, затем -первого и так далее. Мы будем рассматривать порядок не выше второго.

Общая схема безусловной оптимизации

xRn

xk+1 = xk+ tkSk , где Sk -вектор, определяющий направление изменения xk

tk - скаляр, определяющий длину шага.

Sk может зависеть от xk: Sk = (xk), а может от xk-1. В зависимости от этого критические методы делятся на:

  • одношаговые ((xk));

  • двухшаговые ((xk, xk+1)).

Эти методы имеют основное распространение.

  1. Методы первого порядка (градиентные методы)

Для вычисления t и S используются значение функции и первая производная.

Известно, что градиент функции в точке дает направление наибольшего возрастания функции в точке. Направление наибольшего убывания - это направление антиградиента.

Пусть Sk = -f(xk), tk - длина шага.

Соседние файлы в папке Конспект по методам оптимизации в формате doc