
- •§5. Методы оптимального проектирования 9
- •§2. Качество сложной системы.
- •§3. Жизненный цикл сложной системы.
- •§4. Структура конструкции эва и их математические модели.
- •§5. Параметры конструкции эва и отклонение параметров.
- •§5. Методы оптимального проектирования
- •§6. Математическая формулировка задачи оптимального проектирования.
- •§7. Целевая функция
- •§8. Модели и моделирование как основы оптимизации.
- •§9. Методы решения задач оптимального проектирования
- •§10. Методы оптимизации, основанные на классической математике.
- •§11. Нелинейное программирование
- •3. Метод случайных направлений
- •4. Комбинированный метод
- •§12. Надежность. Основные понятия.
- •§13. Показатели надежности невосстанавливаемых элементов и систем
- •§14. Основные законы надежности
- •§15. Классификация аппаратуры по требованиям к надежности
- •§16 Факторы, влияющие на надежность эва
- •§17. Обеспечение надежности резервированием эва
- •§18. Общие принципы обеспечения надежности эва.
- •§18. Расчеты надежности эва
- •§19. Методы прогнозирования состояния и качества эвс.
§11. Нелинейное программирование
Особенности задач нелинейного программирования:
Многошаговые интеграционные процессы, в которых производится постепенное сведение к оптимальному решению. Точки друг от друга различаются на шаг.
,
где
шаг,k
- номер интеграции, номер шага.
Большую трудность вызывает выбор шага (если большой – рискуем пройти оптимум, но с большой скоростью; если маленький – существует возможность «утонуть» в вычислениях).
Заранее определить число шагов нельзя.
Эффективность методов зависит от результата, полученного в предыдущем шаге.
В алгоритме поиска необходимо иметь правило окончания работы. Оно заключается в достижении требуемой точности.
Некоторые задачи могут не иметь решения, а иметь лишь особые точки.
Классификация методов нелинейного программирования:
Градиентные методы:
- метод градиента и его модификаций;
- метод релаксации;
- метод наискорейшего спуска;
- метод тяжелого шарика;
Безградиентный способ:
- метод общего поиска;
- метод дихотомии;
- метод золотого сечения;
- метод чисел Фибоначчи;
- метод сканирования;
- симплексный метод;
Группа случайного поиска:
- метод «слепого» поиска;
- метод случайных направлений.
Градиентные методы нелинейного программирования.
Метод релаксации.
Применяется в задачах, где трудно или невозможно отыскать оптимум в аналитической форме.
Исходная задача разбивается на ряд подзадач.
В области определения
выбирается точка
и составляется
функция вида:
Все переменные оставляем const, а x освобождаем
Находим производную:
=0
=>x1(1)=const
Значение подставляется
в функцию
:
Дальше таким же образом берется производная и находится:
и т.д.
т. е. за
шагов вычисляем
,
производим сравнение
и
Сравнивая
,…,
выбираютmax
и min
значения.
После сравнения выбираются максимальное и минимальное значение функции, которые и дают наиболее оптимальные значения
– оптимальное значение.
Достоинства:
Простота и наглядность.
Недостатки:
Долгий путь решения задачи.
Необходимо иметь аналитические выражения целевой функции по всем параметрам.
Метод градиента.
Исключает недостатки предыдущего метода и использует основное свойство градиента: вектор градиента всегда направлен в сторону наибольшего изменения функции.
Требование: Функция должна быть дифференцируема, унимодальная (иметь 1 экстремум) на определенном промежутке.
Метод наискорейшего спуска (метод Коши).
Величина шага выбирается из использования максимизации или минимизации целевой функции при движении в направлении градиента.
Используется информация о неведении первых производных.
Отсюда малая сходимость метода.
Метод Ньютона.
Производится квадратическая аппроксимация целевой функции, что позволяет использовать информацию о поведении вторых производных. Это позволяет менять шаг в зависимости от расстояния до оптимума. Увеличивается шаг, где градиент меняется медленно и наоборот.
Достоинства:
Лучшая сходимость относительно первой производной чем у метода градиента;
Не нужно знать аналитические значения производных, а только их численные значения.
Недостаток: Нужно 2 раза дифференцировать.
Поисковые методы
Безградиентные методы.
Используются для поиска экстремума в унимодальных функциях.
Не надо искать производные, нужно лишь знать значения целевой функции в определенных точках.
Все методы многошаговые (итерационные).
Они имеют разную сходимость.
К ним относятся:
Методы общего поиска,
Метод дихотомии.
Метод золотого сечения.
Метод чисел Фибоначчи
Метод общего поиска
а) Метод покоординатного поиска (метод Гаусса-Зейделя).
Все переменные, кроме одной, фиксируются, а одна, нефиксированная – изменяется, пока не достигнет наилучшего результата целевой функции (max или min), затем она фиксируется и идет переборка остальных переменных по одной.
Недостатки:
малая сходимость из-за большого числа шагов;
слабо используется информация, полученная на предыдущем шаге;
малая точность метода при одинаковом шаге.
Достоинства:
Целевая функция может зависеть от нескольких переменных.
б) Покоординатный поиск с циклическим изменением координат.
Все переменные, кроме одной фиксируются, а одна изменяется следующим образом: делается один шаг в одну сторону и два шага в обратную. Во всех трех точках вычисляется значения целевой функции, из них выбирается наилучшее (точка, которая наиболее близка к оптимуму).
Достоинства:
Сходимость немного лучше.
Недостатки:
Те же.
в) Метод комбинированный.
Вначале используется покоординатный поиск, а вблизи экстремума используется метод б) с переменным шагом.
Достоинства:
Сходимость и точность стали лучше.
Метод дихотомии
Метод работает для одной переменной
Отрезок ООФ делится пополам и одна из половинок снова делится пополам. Вычисляется значение в четырех точках. Сравниваются значения целевой функции и неудовлетворяющие значения отбрасываются.
Достоинства:
простота.
Недостатки:
небольшая сходимость;
ситуации неопределенности отбрасывании отрезка, когда одно значение равно другому;
исследуется функция, только от одной переменной.
Метод почти половинного деления.
Отрезок делится пополам от середины берутся еще 2 точки на одинаковом удалении . Отбрасывается участок без минимума.
Достоинства:
простота;
используется информация, полученная на предыдущем шаге;
лучшая сходимость.
Метод золотого сечения.
- Формула золотого
сечения
Приравниваем z=1
Составляем квадратичное уравнение z22=z1 = z-z2=(1-z1)2
z
z10.382
x20.618
Тогда отрезок делится в этом соотношении. Вычисляется значение функции, затем отбрасывается часть без минимума.
Метод чисел Фибоначчи.
Ряд чисел Фибоначчи:
- арифметическая прогрессия
Введем понятие интервала неопределенности, в котором находится экстремум после выполнения операции исключения отрезков.
Обычно
.
Алгоритм работы метода Фибоначчи:
Зная интервал поиска (Параметры а и b ) находим число Фибоначчи по соотношению:
По числу f находится из ряда ближайшее большее число F.
Пример:
f
= 38,
=55
=> n
= 10.
Интервал поиска делим на количество отрезков Fn+1. (Если 55, то делим на 89)
С двух сторон от а и b откладываем количество отрезков Fn+1.
Вычисляем значения в 4-х точках, ищем max
Далее все пункты повторяются
Полученный интервал будет удовлетворять условию обеспечения точности.
Достоинства:
эффективен;
эффективно используется информация, полученная на предыдущем шаге, за счет лучшего выбора точек.
Методы случайного поиска экстремума целевой функции
Идея методов заключается в том, что мы намеренно вводим элемент случайности (случайные направления, случайный шаг или и то и другое)
Применяются, когда по каким-то причинам нельзя применить предыдущие.
В области определения целевой функции берется произвольно точка. В ней вычисляется значение этой функции. Затем также берется вторая точка, вычисляется и сравнивается, наихудшее отбрасывается.
Наилучшее значение – оптимум
Достоинства:
Простота,
При большом количестве вычислений можно получить сколь угодную точность