- •§ 1. Основные понятия
- •1. Определения.
- •2. Задачи оптимизации.
- •3. Пример постановки задачи.
- •§ 2. Одномерная оптимизация
- •Задачи на экстремум.
- •2. Методы поиска.
- •3. Метод золотого сечения.
- •4. Метод Ньютона.
- •§ 3. Многомерные задачи оптимизации
- •1. Минимум функции нескольких переменных.
- •Метод покоординатного спуска.
- •3. Метод градиентного спуска.
3. Метод золотого сечения.
При
построении процесса оптимизации
стараются сократить объем вычислений
и время поиска. Этого достигают обычно
путем сокращения количества вычислений
(или измерений — при проведении
эксперимента) значений целевой функции
/(х). Одним из наиболее эффективных
методов, в которых при ограниченном
количестве вычислений f(x) достигается
наилучшая точность, является метод
золотого сечения. Он
состоит в построении последовательности
отрезков [a0,bo]>[ab&i]>
• • • .стягивающихся к точке
минимума функции/(ж). На каждом шаге, за
исключением первого, вычисление значения
функции /(х) проводится лишь в одной
точке. Эта точка, называемая золотым
сечением, выбирается
специальным образом.
Пример:
Для
оценки сопротивления дороги движению
автомобиля при скорости г; км/ч можно
использовать эмпирическую формулу
(для
шоссе). Определить скорость, при которой
сопротивление будет минимальным.
Решение.
Это простейшая задача одномерной оптимизации. Здесь сопротивление f(v) — целевая функция, скорость v — проектный параметр. Данную задачу легко решить путем нахождения минимума с помощью вычисления производной, поскольку f(v) — функция дифференцируемая. Действительно,
Проиллюстрируем на этой простейшей задаче метод золотого сечения. Первоначально границы интервала неопределенности примем равными a = = 5, b = 20. Результаты вычислений представим в виде (табл. 6.1). Здесь обозначения аналогичны используемым в структурограмме (см. рис. 6.3). Расчеты проводятся в соответствии со структурограммой с погрешностью
П
риведем
решение для первого этапа:
Замечание. Согласно табл. 6.1 заданная точность е будет достигнута уже на третьем шаге:
Однако определить достижение заданной точности на третьем шаге можно только тогда, когда известно точное решение г; = 10 км/ч. Но в этом
случае вообще нет смысла в проведении численного расчета. Поэтому в реальном расчете нужно выполнить большее число шагов до выполнения условия (6.11).
Для рассмотренного выше примера (6.12) дает N = 6.
4. Метод Ньютона.
Задача одномерной оптимизации дифференцируемой функции f(x) сводится к нахождению критических точек этой функции, определяемых уравнением
Когда уравнение (6.13) нельзя решить аналитически, для его решения можно применить численные методы. В этом случае говорят о методе Ньютона решения задачи оптимизации.
Пример. Решим методом Ньютона задачу оптимизации из п. 3.
Решение. Заметим, что функция
является
к
вадратичной,
т.
е. ее разложение вида (6.15) представляет
собой точное равенство: f(v)
= φ(v). Поэтому
первая же итерация по методу Ньютона
и* = с\ при любом
начальном приближении C0 даст
точное решение задачи. Второе приближение
совпадет с первым: с2 = с1, поскольку f '
(c1)= 0.
Таким образом, после двух итераций будет
выполнено условие завершения итерационного
процесса.
§ 3. Многомерные задачи оптимизации
1. Минимум функции нескольких переменных.
Минимум дифференцируемой функции многих переменных и = f(x1, х2,,..., хп) можно найти, исследуя ее значения в критических точках, которые определяются из решения системы дифференциальных уравнений
Пример. Задача об определении оптимальных размеров контейнера объем которого равен 1 м3. Задача свелась к минимизации полной поверхности контейнера, которая в данном случае является целевой функцией
Решение. В соответствии с (6.16) получим систему
Таким образом, оптимальной формой контейнера в данном случае является куб, длина ребра которого равна 1 м.
Рассмотренный метод можно использовать лишь для дифференцируемой целевой функции. Но и в этом случае могут возникнуть серьезные трудности при решении системы нелинейных уравнений (6.16).
