Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
shpory_po_OPR.docx
Скачиваний:
30
Добавлен:
04.03.2016
Размер:
1.74 Mб
Скачать

В.9 Метод последовательного перебора (перебора по сетке):

  1. Задаётся начальная точка х0, выбирается шаг h и погрешность ε.

  2. В точке х0 вычисляется х1=х0 и у1=f(x1) – ЦФ

  3. Запоминается вычисленная точка x0=x1 и у0=y1

  4. x1=x0+h, y1=f(x1) – вычисляем значение ЦФ в следующей точке.

  5. Если функция убывает, т.е. y1<y0, то переходим к шагу 2, иначе 6.

  6. Уменьшаем шаг h =-h/4 и изменяем направление движения (-).

В точке х1 функция оказалась больше чем в точке х0, следовательно мы перешагнули точку минимума. И организуем спуск в обратном направлении.

  1. Если функция не убывает, то к шагу 2, иначе 8.

  2. КонецF(x1,x2)->min

В.10 Метод Монте-Карло- один из методов случайного поиска.

Сущность метода. Требуется найти значение α некоторой изучаемой величины. Для этого выбирают такую случайную величину х, математическое ожидание которой равно а.М(х)=АПроизводится n испытаний и получается n возможных значений числа х. Вычисляем их среднеарифметическое и применяем его в качестве оценки (приближенного значения) числа А.

Недостаток: невозможно достигнуть высокой точности вычислений. Не может заменить аналитические методы при расчете существенно новых явлений, где прежде всего необходимо раскрытие качества закономерности, т.к. метод является численным.

Преимущества: универсальный, способен срабатывать там, где отказываются другие методы.

Нужно многократно смоделировать независимые случайные варианты решений из допустимой области с координатами. Вычислить в каждом из вариантов значение заданной функции.Выбрать вариант с минимальным значением функции.

Основной недостаток метода заключается в необходимости проведения большого числа испытаний для получения решения, достаточно близкого к оптимальному.

В.11 Метод Хука-Дживсаотносится к методам спуска и перебора направления.

Выбирается базисная точка и шаг, просчитывается точка +h, оценивается целевая функция и просчитывается точка слева от базисной точки -h, оценивается их значение. Если значение одинаково, то меняем направление.

Поиск состоит из последовательности шагов вокруг базисной точки, за которой в случае успеха следует поиск по образцу.

Процедура поиска по образцу:

А. Выбрать начальную базисную точку x0 и шаг h для каждой переменной.

Б. Вычислить у(х) в базисной точке b1 с целью получения сведений о локальном поведении функции у(х). Эти сведения будут использоваться для нахождения перспективного направления поиска по образцу, с помощью которого можно достичь большего убывания значения функции.

Поиск в базисной точке b1 проводится следующим образом:

1. Вычисляется значение функции y(b1) в базисной точке b1.

2. Каждая переменная по очереди изменяется прибавлением длины шага. Таким образом, вычисляем значение функции y(b1+h1e1), где e1 – единичный вектор в направлении оси x1. Если это приводит к уменьшению значения функции, то b1 заменяется на b1+h1e1. В противном случае вычисляется значение функции у(b1-h1e1), и если ее значение уменьшилось, то b1 заменяем на b1-h1e1. Если ни один из проделанных шагов не приводит к уменьшению значения функции, то точка b1 остается неизменной, и рассматриваются изменения в направлении оси х2, т.е. находится значение функции у(b1+h2e2) и у(b1-h2e2). Когда будут рассмотрены все n переменных, то получим базисную точку b2.

3. Если b2=b1, т.е. уменьшение функции не было достигнуто, то исследование повторяется вокруг той же базисной точки b1, но с уменьшенной длиной шага. Применяется уменьшение шага в десять раз от начальной длины.

4. Если y(b2)<y(b1), то производится поиск по образцу, т.е. поиск в направлении, заданном минимальным значением функции.

В.12 Методы штрафных функций. С помощью штрафных функций задача условной оптимизации преобразуется в задачу безусловной оптимизации.

Штраф Ω определяется так, чтобы допустимые точки задачи имели преимущества перед недопустимыми. Штраф создаёт вдоль границы допустимой области барьер из бесконечно больших значений функции Р.

На штраф накладываются требования: 1)Решение подзадач должны стремится к решению исходной задачи нелинейного программирования.2)Сложность оптимизационной функции и штрафа должна быть такого же порядка, что и для целевой функции.

Если h- равенство, то на него накладывается квадратичный штраф.Если g - неравенство, то: метод квадратичной срезки, бесконечный штраф, логарифмический штраф, штраф обратной функции.

Идея метода заключается в образовании составной целевой функции

,

где m – число ограничений;- штрафная функция, учитывающая ограничения в виде неравенств;Y(x) – рассматриваемая функция;fj(x) – функциональные и параметрические ограничения;r – принимает значения от 3 до 5; должна быть равна нулю в допустимой области и на границах ее и стремиться к увеличению при нарушении ограничений, т.е. налагать штраф.

Квадратичный штраф: Ω=R*(h(x))^2. Нач значение R выбирается и корректируется после каждой подзадачи =10.

Логарифмический: Ω=-R*ln(g(x)). Нач значение R уменьшается до 0. Барьерная функция.

Штраф обратной функции: Ω=R*[1/g(x)]. Итерации следует начинать с начальной допустимой точки при положительномR.

Штраф квадрата срезки: Ω=R*(g(x))^2, g(x)=g(x), g(x)<=0

0, g(x)>0После решения каждой подзадачи R надо увеличивать.

Бесконечный штраф: Ω=10^20*k, k=1, g(x)<=0

0, g(x)>0

В.13 Основная проблема постановки задачи оптимальности - формулировка целевой функции (ЦФ). Все выходные параметры являются функциями внутренних параметров и, следовательно, не могут изменяться независимо друг от друга. Среди них всегда можно найти такие параметры, что улучшение одного из них приводит к ухудшению другого. Такие параметры называются конфликтными.

Если среди выходных параметров можно выделить параметр, наиболее важный и наиболее полно характеризующий свойства объекта, то это ЦФ - частный критерий. Остальные выходные параметры относят к ограничениям.

Однако в большинстве случаев отдать предпочтение одной величине довольно трудно, поэтому прибегают к построению комплексного критерия.

Мультипликативные критерии (отсутствуют условия типа равенства и выходные параметры не могут принимать нулевые значения. ЦФ, подлежащая максимизации, имеет вид:

, где: ‘+' - ограничения, при которых необходимо максимальное увеличение функции;

‘-' - ограничения, при которых необходимо минимизировать функцию).

Аддитивные критерии (целевая функция образуется путем сложения выходных параметров.Это осуществляется с помощью введения нормирующих множителей - весовых коэффициентов. ЦФ имеет вид:

где ωj - весовой коэффициент, определяемый самим инженером или группой экспертов).

Статистические критерии (оптимизация имеет целью получения максимальной вероятности выполнения условий работоспособности.Эту вероятность и принимают в качестве ЦФ).

В.14Методы устранения многокритериальности:

1)Выделение главного критерия (назначает один критерий главным, а остальные выводятся в состав ограничений).

2)Лексикографическая оптимизация (критерии, составляющие векторный критерий K, могут быть упорядочены на основе отношения абсолютной предпочтительности).

3)Метод Последовательных уступок (для каждого из проранжированных по важности критериев назначается допустимое отклонение значения критерия от наилучшего).

4)Агрегирование (если требуется обеспечить равномерное подтягивание всех показателей к наилучшему уровню).

5)Свертывания векторного критерия в скалярный.

Способы выбора критерия оптимальности.

Используется метод весовых коэффициентов:Вектор w=(w1, …, wn) wi>0 ∑wi=1. Величина wi определяет возможность (вес) i-го критерия оптимальности. Весовые коэффициенты задает эксперт.

Процедуры оценки весовых коэффициентов:

Метод ε-ограничений:1) выбирается одна из целевых функций как основная; 2) остальные записываются в виде ограничений; 3) добавляются свои ограничения.

Позволяет определить количество неухудшаемых решений. Проблемой остается подходящий выбор ε, хотя ограничения ставятся в жесткой форме и более определенно, чем в методе весовых коэффициентов.

В.15Экстремальные задачи - означает максимум или минимум некоторой функции (наилучшее или оптимальное значение того или иного показателя: наивысшая производительность труда).

Экстремальные задачи классифицируются как:1)дискретные, 2)комбинаторные; 3)целочисленные; 4)булевы; 5)вещественные; 6)бесконечномерные.

Максимум и минимум — наибольшее и наименьшее значения функции по сравнению с ее значениями в достаточно близких точках. Точки максимума и минимума называются точками экстремума(крайними).

Теорию решения задач на отыскание наибольших и наименьших величин называют теорией экстремальных задач или теорией оптимизации

Минимакс — правило в теории принятия решений для минимизации возможных потерь. Критерий минимакса первоначально был сформулирован в теории игр для игры двух лиц с нулевой суммой в случаях последовательных и одновременных ходов, впоследствии получил развитие в более сложных играх и при принятии решений в условиях неопределённости. С понятием минимакса связано понятие максимина (значение минимакса не меньше значения соответствующего максимина).

Максимин- выбирается вариант с наилучшим из наихудших исходов; его использование характерно для субъектов, избегающих риска; означает, что нижняя цена игры определяет минимальный выигрыш участника. Минимакс означает, что верхняя цена игры определяет максимальный проигрыш участника

В.16Раздел математическогопрограммир. В отличие от статических, не зависящих от времени, динамические модели описывают производственные процессы или системы движений в зависимости от временных периодов, учитывая те периоды, которые прошли ранее и произойдут в будущем.Динамические модели позволяют прогнозировать развитие процесса на будущее и соответствующим образом реагировать на определенные изменения.Динамические модели представляют собой многошаговый процесс. Каждый текущий шаг получает результаты предыдущего шага.

Основателем динамического программированиястал Беллман. Он предложил специальный метод решения задач ДП на основе принципа оптимальности. Согласно данному принципу оптимальное решение задачи находится путем разбиения на n-этапов, каждый из которых представляет собой подзадачу относительно одной переменой. Вычисление выполняется таким образом, что оптимальный результат одной подзадачи есть начальное решение для следующей подзадачи. Результат последней задачи есть результат всей задачи.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]