- •Двусторонние шпоры по файзу
- •Печатай прямо этот файл
- •Теория принятия решений [3, 4]
- •1. Классы задач принятия решений, системный анализ и характеристика его этапов.
- •2. Графы и показатели эффективности смо с простейшими потоками.
- •6. Замкнутые смо.
- •3. Принятие решений в условиях риска, неопределенности и конфликты.
- •4. Основы линейного программирования. Область применения. Постановка задачи
- •Каноническая форма задач лп
- •Стандартная форма задачи лп
- •Основные понятия лп. Свойства задач лп
- •Методы решения задач лп
- •Симплекс-метод. Характеристика метода
- •М одифицированный алгоритм симплекс-метода
- •Модели управления транспортными потоками.
- •Простейшая транспортная задача (т-задача)
- •Транспортная задача с ограниченными пропускными способностями (Td - задача)
- •Задачи с неоднородным грузом
- •Многоиндексные задачи
- •Транспортные задачи по критерию времени
- •6. Оптимизация транспортных потоков. Метод потенциалов
- •Построение начального плана перевозок
- •Правило северо-западного угла
- •Переход от одного плана перевозок к другому
- •Признак оптимальности
- •Алгоритм метода потенциалов
- •7. Методы управления проектом.
- •8. Двойственность задач оптимизации. Двойственность задач лп
- •Интерпретация двойственной задачи
- •Запись двойственной задачи в общем случае
- •Теоремы двойственности
- •Двойственный симплекс-метод
- •9. Декомпозиция задач планирования большой размерности.
- •Метод декомпозиции Данцига - Вулфа
- •10. Методы определения целочисленных решений.
- •Метод отсечений
- •Метод ветвей и границ
- •Аддитивный алгоритм
- •11. Основы динамического программирования. Достоинства и недостатки метода.
- •Работа метода дп
- •Функциональное уравнение дп
- •Многомерные задачи динамического программирования
- •Снижение размерности с помощью множителей Лагранжа
- •12. Оптимизация надежности технических систем, систем распределения ресурсов.
- •4.2.3. Сбалансированная транспортная задача
- •13. Классы задач нелинейного программирования и методы их решения. Х арактеристика задач
- •Условия оптимальности
- •Методы решения задач нп
- •14. Задачи нелинейного программирования, сводящиеся к линейным. Квадратичное программирование
- •Сепарабельное программирование (сп)
- •Задачи дробно-линейного программирования
- •15. Классификация и характеристика методов «спуска».
- •Методы одномерной минимизации. Метод деления шага пополам
- •Квадратичная аппроксимация
- •Метод деления интервала пополам
- •Метод золотого сечения
- •Метод Фибоначчи
- •Метод первого порядка
- •Методы второго порядка
- •Многомерный поиск безусловного минимума Метод Гаусса-Зейделя (покоординатного спуска)
- •Метод Хука-Дживса (метод конфигураций)
- •Симплексный метод
- •Градиентные методы
- •Метод Ньютона
- •М етоды сопряженных направлений
- •Методы условной оптимизации
- •Метод проектирования градиента
- •Метод штрафных функций
- •Метод барьерных функций
- •16. Методы случайного поиска и генетические алгоритмы.
- •8.8.7. Методы случайного поиска
- •Алгоритм с возвратом при неудачном шаге
- •Алгоритм с обратным шагом
- •Алгоритм наилучшей пробы
- •Алгоритм статистического градиента
- •8.8.8. Генетические алгоритмы
- •17. Особенности принятия решений при многих критериях.
- •18. Методы свертки и целевого программирования в принятии решений по многим критериям.
- •10.2.1.4. Линейная свертка
- •10.2.1.5. Максиминная свертка
- •10.2.1.7. Целевое программирование (цп)
- •19. Интерактивные методы принятия решений
Квадратичная аппроксимация
Исходная
функция аппроксимируется функцией:
,
(35), где х0
– точка отсчета, e
- точность. Для определения коэффициентов,
входящих в функцию (35), выбираются 3 точки
и в них вычисляется значение функции f
(x1,
x2=x1+Δx,
x3=x2+Δx,f(x1),
f(x2),
f(x3)).
По 3 точкам находим a, b,
c.
Стационарная точка функции (35) вычисляется
из равенства ее производной нулю:
xa=x0-b/2a.
(36) Она используется в условии останова
и как новая точка для аппроксимации.
Min(f(x1),
f(x2),
f(x3))=f(xm).
Проверяются условия: |f(xm)-f(xa)|<=ey,
|xm-xa|<=ex,
если условия выполняются min(f(xm),f(xa)),
иначе 3 точки (x1,
xa,
x3).
Метод деления интервала пополам
Предполагается,
что точка минимума находится на заданном
интервале [a,b].
Т
очки
выбираются так, что делят интервал на
4 равные части:
xm=(a+b)/2, x1=(a+ xm)/2, x2=(xm+b)/2.
Функция вычисляется в этих точках и после сравнения ее значений интервал сокращается в 2 раза. С новым интервалом действия повторяются.
Метод золотого сечения
Отрезок
АВ делится точкой С в отношении золотого
сечения, если
.(37)
Эти отношения используются для выбора
двух точек внутри интервала неопределенности.
Каждая из точек делит интервал [a,
b]
в отношении золотого сечения.
В
этих точках вычисляется функция. Если
f(x1)
> f(x2),
то отбрасывается часть интервала [a,
x1],
если f(x1)
< f(x2),
то отсекается часть [x2,
b],
а при равенстве значений функции –
любая из них. Оставшаяся часть интервала
равна
от величины исходного. Сокращение
интервала продолжается до достижения
заданной точности.
Метод Фибоначчи
Схема
метода почти полностью совпадает с
методом золотого сечения. Отличие в
том, что вместо золотого сечения
используется отношение чисел Фибоначчи:
на k-й
итерации доли малого и большого отрезков
интервала равны
и
соответственно.
Метод первого порядка
Он применим к дифференцируемым функциям в случаях, когда первая производная может вычисляться с высокой точностью. Метод средней точки. Определяется средняя точка интервала c=(a+b)/2 и вычисляется в ней производная. Если f '(c) < 0, полагают а = с, при f '(c) > 0, принимают b = с. Условия окончания поиска: ((b-a)< ) (| f '(c) | < 1). Эффективность метода зависит от трудоемкости вычисления производной. Задаваемая точность 1 не должна быть выше точности вычисления производной.
Методы второго порядка
Методы
применимы к дважды дифференцируемым
функциям. При этом предъявляются высокие
требования к точности вычисления
производных. Метод
Ньютона – Рафсона.
Основан на линейной аппроксимации в
окрестности текущей точки xk:
В стационарной точке аппроксимации,
которая принимается за очередное
приближение xk+1,
производная равна нулю:
.
Отсюда следует рекуррентная формула:
(41)
при
для каждого k.
Условия окончания поиска: | f
'(xk)
| < 1
и/или |xk+1-xk
| < .
Если начальная точка достаточно близка к стационарной, то метод сходится.
Многомерный поиск безусловного минимума Метод Гаусса-Зейделя (покоординатного спуска)
Процедура поиска сводится к решению последовательности задач одномерной минимизации по каждой переменной.
Начальная
точка
.
Зафиксируем все переменные, кроме
первой, на начальных значениях и решаем
задачу
одним из одномерных методов, находим
x1’.
Приходим к очередной одномерной задаче
.
Аналогично строятся и решаются последующие
одномерные задачи. Эти n
задач составляют один цикл. Его результатом
является точка X1.
Она принимается за начальную точку для
следующего аналогичного цикла. Условия
окончания поиска:
.
x2
Недостатки.
Эффективность зависит от направления
осей координат относительно линий
уровня. Метод неэффективен в условиях
оврага. Если функция не дифференцируема
в отдельных точках, поиск может
остановиться, не достигнув окрестности
минимума.
