- •Глава 4 математический аппарат
- •4.1. Общие сведения
- •4.2. Исследование операций
- •4.3. Случайные функции и процессы
- •4.4. Марковский случайный процесс
- •4.5. Потоки событий
- •4.6. Теория массового обслуживания
- •4.6.1. Многоканальная смо с отказами [38]
- •4.6.2. Одноканальная смо с неограниченной очередью [38]
- •4.7. Оптимизация. Методы оптимизации
- •4.7.1. Общие сведения. Терминология
- •4.7.2. Постановка и содержание задачи оптимизации
- •4.7.3. Методы оптимизации
- •4.7.4. Методы однопараметрической оптимизации
- •1. Метод общего поиска (равномерного поиска)
- •2. Метод деления интервала пополам (половинного разбиения)
- •3. Метод дихотомии
- •4. Метод «золотого сечения»
- •5. Метод Фибоначчи
- •4.7.5. Методы многомерного поиска
- •1. Метод неопределенных множителей Лагранжа
- •2. Метод линейного программирования
- •3. Метод Гаусса-Зейделя
- •4. Метод градиента
- •5. Метод наискорейшего спуска
- •6. Метод случайного поиска
5. Метод наискорейшего спуска
Метод представляет собой сочетание методов градиента и Гаусса-Зейделя. Направление движения из очередной точки берется по антиградиенту, а поворот осуществляется в точке, в которой достигается минимальное значение функции (частный экстремум).
Как правило, метод наискорейшего спуска требует вычисления градиента в меньшем количестве точек, чем градиентные методы с постоянным шагом или с шагом, пропорциональным модулю градиента F. Следует отметить, что этот метод предполагает регулярное проведение статистического анализа промежуточных результатов на пути к экстремуму.
После определения градиента в точке хh, производится движение по антиградиенту вдоль прямой
хh+1 = хh – l F(хh)
до точки, в которой достигается минимальное значение функции;
l – расстояние от точки h до точки h+1.
Направление F(хh) является касательным к линии (поверхности) уровня в точке хh+1.
Затем
в этой точке снова определяется градиент
Движение совершается по прямой согласно
нового антиградиента и т.д., пока не
будет достигнута точка, соответствующая
наименьшему значению функции
или не будет пересечена граница допустимой
области. Точка минимального значения
функции вдоль очередной прямой
определяется одним из однопараметрических
методов оптимизации.
Более просто находится экстремум, если целевая функция задана в явном виде. Для нахождения очередной точки поворота хh+1 записываются ее координаты

Координаты
предыдущей точки h
и составляющие градиента в этой точке
известны. Выражения для
подставляются в
формулу целевой функции. Теперь эта
функция будет зависеть от единственной
переменной l,
так как движение происходит по уже
выбранной прямой F(l).
Экстремум функции
по этому направлению и есть экстремум
F(l)
среди всех положительных l.
Находим
![]()
Отсюда определяем lмакс. Координаты точки поворота будут
и т.д.
Если
функция
не дифференцируемая, то составляющие
градиента определяются путем 2п
пробных шагов возле очередной точки
поворота.
Н
y1
< y2
<
… < y5

Рисунок 4.30.
6. Метод случайного поиска
Характерная
черта метода – случайный выбор направления
движения на каждом шаге. Так, если
изображающая точка после i-го
шага занимает
положение
в факторном пространстве, то следующий
рабочий шаг будет совершен лишь после
выполнения пробного эксперимента в
точке
![]()
где
– случайный вектор определенной длины
(рис. 4.31).
Значения
функций
и
сравниваются, и производится (i+1)-й
рабочий шаг вдоль вектора
по направлению к экстремуму. Как правило,
длина рабочего шага превышает длину
пробного.
Критерием выхода в область экстремума целевой функции является возрастание числа неудачных шагов, т.е. многократного повторения положения, когда
>
.
y1
< y2
<
… < y5
Рисунок 4.31.
Метод прост, однако он применим лишь для очень простых ситуаций.
Основной недостаток метода – большая трудоемкость и длительность поиска экстремума.
Вопросы для самоконтроля
Какие модели используются в большой системе, их особенности.
Что такое наука «Исследования операций» (ИО).
Какие задачи решает наука «Исследования операций».
Методологические особенности ИО.
Основные этапы операционного исследования.
Что такое случайная функция.
Что характеризует автокорреляционная функция.
Что характеризует взаимная корреляционная функция.
Что такое случайный процесс.
Что такое марковский случайный процесс.
Как представляется и рассчитывается марковский процесс.
Правило составления дифференциальных уравнений.
Как решаются дифференциальные уравнения.
Что такое поток событий.
Свойства простейшего потока событий.
Какие потоки событий Вам известны.
Что такое теория массового обслуживания.
Как классифицируются системы массового обслуживания (СМО).
Какие показатели характеризуют многоканальную СМО с отказами.
Какие показатели характеризуют одноканальную СМО с неограниченной очередью.
Что такое оптимизация.
Задачи оптимизации при конструировании и в технологии.
Что такое функция отклика и поверхность отклика.
Какие существуют экстремумы.
Две задачи оптимизации.
Этапы оптимизации.
Постановка задачи оптимизации.
Когда возникает задача оптимизации.
Методы оптимизации.
Отличие численных методов оптимизации от аналитических.
Основной недостаток численных методов оптимизации.
Как классифицируются численные методы оптимизации.
Методы однопараметрической оптимизации.
В чем состоят методы общего поиска, половинного разбиения и дихотомии.
Особенности методов золотого сечения и Фибоначчи.
Метод множителей Лагранжа, его применение.
Метод линейного программирования, его применение и способы осуществления.
Метод Гаусса-Зейделя.
Метод градиента.
Метод наискорейшего спуска.
Метод случайного поиска.
