Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
МЭМС Численные МетодыТытюк.docx
Скачиваний:
29
Добавлен:
13.11.2019
Размер:
2.35 Mб
Скачать

Лекция 13. Решение оптимизационных задач.

13.1. Методы безусловной одномерной оптимизации

Ниже рассматривается решение наиболее простого типа задач оптимизации – поиска экстремума функций одной переменной без ограничений. Данная задача формулируется как нахождение такого значения вход-ной переменной объекта, которое соответствует наилучшему(минимальному или максимальному) значению целевой функции.

Хотя на практике задачи, в которых критерий задан функцией одной переменной, встречаются достаточно редко, анализ таких задач занимает достаточно важное место в оптимизационных исследованиях. Это объясняется тем, что многие многомерные методы используют на каждой итерации одномерные процедуры. Одномерные методы достаточно понятны, легко могут быть проиллюстрированы графически, что позволяет глубже понять сущность задач оптимизации и способствует приобретению навыков их решения.

Будут рассмотрены постановка задачи одномерной оптимизации, аналитический анализ функций и наиболее известные численные методы поиска экстремума: обратного переменного шага, квадратичной аппроксимации, половинного деления, золотого сечения.

13.1.1. Постановка задачи.

Одномерная оптимизация заключается в нахождении точки x*, в которой целевая функция f(x) принимает максимальное или минимальное значение. Часто в постановках задачи может быть задан отрезок[a, b], в котором находится оптимальное значение.

Функция f(x) имеет локальный минимум в точке x*, если при ε > 0 существует окрестность[x*- ε, x*+ ε] такая, что для всех значений x в этой окрестности f(x) больше f(x*)

Функция f(x) имеет глобальный минимум в точке x*, если для всех x справедливо неравенство f(x) > f(x*).

Целевая функция может иметь в заданной области несколько экстремумов. Поэтому различают задачи поиска локального и глобального максимумов. Ниже мы будем условно полагать, что в области поиска содержится единственный экстремум.

13.1.2 Метод обратного переменного шага.

Данный метод называют иногда методом сканирования.

Предположим, что произвольная точка x0 этого промежутка является исходной для поиска точки х* локального минимума и число ε– заданная точность нахождения х*.

Обозначим через Δ0 произвольное приращение аргумента х и, сделав один шаг от точки x0 , получим новое значение аргумента х1= x0+ Δ0.

Сравним значения функции у0= f(x0) и у1= f(x1) = f(x00). Возможны три различных продолжения в приближении к точке х *.

I. у1 < у0 - произошло уменьшение значения функции. Тогда примем в качестве нового стартового значения х0(1) = х1 , и сделаем шаг Δ0 от этой точки х0 (1) к точке х1 (1) , т.е. х1 (1) = х0 (1) + Δ0. Если окажется у1 (1) < у0 (1) , то снова сделаем шаг Δ0 от новой стартовой точки х0 (2) = х1 (1) и т.д. На некотором k-м шаге произойдет увеличение значения функции, т.е. у1(k)0(k), и если при этом|Δ0| < ε, то принимаем х * ≈ х0 (k). В противном случае полагаем, что точка x0 (k) является исходной для продолжения вычислений по следующей схеме.

II. у1> у0 - значение функции возросло. В этом случае полагаем, что начальной точкой вычислений является точка х0= х1, а меньшим шагом в продолжении счета– величина Δ1= - β Δ0, где β – некоторое положительное число, β< 1. Далее производим вычисления по схеме I или II, вплоть до достижения заданной точности.

Поиск минимума функции одной переменной указанным методом представляет собой колебательный процесс, совершающийся около точки х* локального минимума функции f(x) с непрерывно меняющейся амплитудой.

Пример 13.1. Поиск экстремума методом сканирования. В качестве исследуемой функции возьмем параболу y = 3x2+2, имеющую минимальное значение ymin=y(0)=2.

Ниже приведены исходные данные и графическое отображение как исследуемой функции так и процесса поиска минимума.