Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
new_6.doc
Скачиваний:
13
Добавлен:
29.07.2019
Размер:
1.23 Mб
Скачать

§13. Методы оптимизации, основанные на классической математике

  1. Экстремум функции одной переменной

=>Находится Xопт

  1. Экстремум функции многих переменных

=> Находится Xопт

- матрица вторых производных.

Исследуем матрицу: если все элементы матрицы больше 0, то в точке наблюдается минимум.

  1. Метод замены переменных

Применим, когда ограничения имеют вид неравенств, и число ограничений меньше числа переменных (неизвестных).

Выражаем m первых переменных:

через остальные. Получаем систему уравнений.

Система решается, находятся xm+1,…,xn , тогда ЦФ зависит от меньшего числа переменных : .

Затем уже находятся все остальные переменные подстановкой.

Достоинства:

  1. позволяет избавиться от ограничений;

  2. позволяет понизить размерность задачи.

Недостатки:

  1. не всегда можно разрешить систему уравнений, относительно m - первых неизвестных (переменных).

  2. Необходимо, чтобы функция была дифференцируема.

  1. Метод неопределенных множителей Лагранжа.

Достоинства:

  1. Нет ограничения на условие, что количество переменных

Задача с ограничениями сводится к задаче без ограничений.

m

Составляется функция Лагранжа : Frame4

L

Frame5 Frame6 Frame7 Frame9 Frame10 Frame13 Frame14 Frame15 Frame18 Frame20 Frame21 Frame22 Frame25 Frame27 Frame30 Frame32 Frame33 Frame34 Frame36 ,

где - неопределенные множители Лагранжа.

Находим производные:

(1)

Находим производные по каждой из :

(2)

Решая системы уравнений (1) и (2) находим xii.

т.о. избавляемся от ограничений.

Недостатки:

  1. функция должна быть дифференцируема;

  2. трудность решения систем уравнений;

  3. повышена размерность задачи.

Пример: Спроектировать термостат цилиндрической формы, т.о., чтобы он имел минимальную поверхность при заданном объеме.

r, h - ?

§14. Нелинейное программирование

Особенности задач нелинейного программирования:

    1. Многошаговые итерационные процессы, в которых производится постепенное приближение к оптимальному решению. Точки друг от друга различаются на шаг.

,

где шаг, k - номер итерации, номер шага.

    1. Большую трудность вызывает выбор шага (если большой – рискуем проскочить оптимум, но с большой скоростью; если маленький – существует возможность «утонуть» в вычислениях).

    2. Заранее определить число шагов нельзя.

    3. Эффективность методов зависит от результата, полученного на предыдущем шаге.

    4. В алгоритме поиска необходимо иметь правило окончания работы. Оно заключается в достижении требуемой точности.

    5. Некоторые задачи могут не иметь решения, а иметь лишь особые точки.

Классификация методов нелинейного программирования:

  1. Градиентные методы:

- метод градиента и его модификации;

- метод релаксации;

- метод наискорейшего спуска;

- метод «тяжелого шарика» и др.

  1. Безградиентные методы:

- метод общего поиска;

- метод дихотомии;

- метод «золотого сечения»;

- метод чисел Фибоначчи;

- метод сканирования;

- симплексный метод и др.

  1. Методы случайного поиска:

- метод «слепого» поиска;

- метод случайных направлений и др.

Градиентные методы нелинейного программирования.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]