- •15. Основные понятия методов нелинейного программирования.
- •16.Что положено в основу градиентных методов.
- •Понятие градиента
- •17. Сущность безградиентного метода поиска целевой функции.
- •18. Условие критерия окончания поиска оптимума целевой функции.
- •20. Метод сканирования и его достоинства.
- •21. Особенности и назначение метода случайного поиска в определении оптимума целевой функции.
- •22. Отличие градиентных и безградиентных методов и их особенности.
- •23. Сущность метода дихотомии.
- •24. Сущность метода итерации.
- •25. Блок – схема метода итерации.
- •27. Блок – схема метода Ньютона.
21. Особенности и назначение метода случайного поиска в определении оптимума целевой функции.
Алгоритм случайного поиска
Алгоритм случайного поиска относится к алгоритмам нелинейного математического программирования. Такие алгоритмы снискали себе широкую популярность при решении практических инженерных задач.
Простейший алгоритм – локальный неадаптивный алгоритм случайного поиска следующий (рис. 1).
Задаем начальную точку, представленную вектором X0, объявляем ее текущей и вычисляем в ней значений целевой функции.
Текущей точке придаем приращение в виде случайного вектора дельта X и вычисляется значение целевой функции.
Если значение целевой функции улучшилось, то данную точку делаем текущей.
Проверить условие останова. Если оно выполняется, то переходим на шаг 5, в противном случае на шаг 2.
Останов.
Рис. 1. Простой неадаптивный алгоритм случайного поиска локального оптимума
Достоинствами данного алгоритма являются его простота, устойчивость и интуитивная понятность. Недостатками – низкая скорость сходимости, а также неопределенность в выборе условия останова.
Существуют также адаптивные алгоритмы случайного поиска локального экстремума, обладающие более высокой скоростью сходимости.
Гораздо более эффективными и хорошо зарекомендовавшими себя практике являются адаптивные алгоритмы случайного поиска глобального экстремума. Их основная идея заключается в том, что поиск ведется не из какой-то одной начальной точки, а по всей области, и в процессе его выполнения изменяется закон распределения генерации вектора рабочих параметров (точек, в которых вычисляется значений целевой функции). Обычно на начальных этапах распределение является равномерным, а затем плотность вероятности увеличивается в районе предполагаемого оптимума (рис. 2). Следует заметить, что многие из этих алгоритмов хорошо зарекомендовали себя при решении задач как непрерывной, так и дискретной и дискретно-непрерывной оптимизации, а, следовательно, может использоваться при параметрическом, структурном и структурно-параметрическом синтезе объектов.
Рис. 2. Иллюстрация изменения плотности распределения вероятности для алгоритма случайного поиска (одномерный случай)
Существует огромное разнообразие алгоритмов случайного поиска, и все они с успехом применяются на практике ввиду их простоты, устойчивой работы, отсутствия необходимости вычисления производных, наглядности и удовлетворительной и хорошей сходимости, особенно на задачах большой размерности (иногда превышающей несколько тысяч, а то и десятки тысяч).
22. Отличие градиентных и безградиентных методов и их особенности.
Основные поисковые методы многомерной оптимизации можно разделить на безградиентные и градиентные.
1. Безградиентные методы:
покоординатный метод Гаусса-Зейделя;
метод случайного поиска;
метод симплексов.
2. Градиентные методы:
метод градиента;
метод наискорейшего спуска;
метод крутого восхождения.
Ряд методов могут реализоваться как численные при условии выполнения двух основных требований: наличия вычисляемой целевой функции и известного алгоритма для расчёта значений критерия оптимальности при заданных значениях факторов. К таким методам относятся покоординатный спуск, случайный поиск, метод симплексов.