
- •1.Сис анализ в совр исследований
- •2. Сис описание задачи оптимизации
- •3.Сис анализ транспортных моделей. М. Потенциалов
- •4. Алгоритм решения транспортной задачи при получении максзначц.Ф
- •5. Решение транспортных задач методом Фогеля
- •6. Оптимизация назначений максимальное и минимальное значение функции
- •7. Динамическое программирование принцип оптимальности Беллмана
- •8. Постановка задачи распределения инвестиций и алгоритм ее решения методом динамического программирования
- •9. Постановка задачи о бинарном рюкзаке и алгоритм ее решения методом динамического программирования.
- •10. Постановка задачи о рюкзаке с неограниченным количеством элементов и алгоритм ее решения методом динамического программирования.
- •11. Постановка задачи о замене оборудования и алгоритм ее решения методом динамического программирования.
- •12. Принятие решений на основе расчета функции полезности.
- •13. Экспертные методы в процессе прогнозирования и разработки управленческих решений.
- •14. Метод ранжирования мнений экспертов.
- •15.Методы определения согласованности и экспертов
- •16. Метод Паттерн
- •17Методы групповой экспертной оценки:
- •18.Метод "Дельфи"
- •19.Принятие решении в условиях неопределенности
- •20. Охарактеризуйте критериев пессимизма - оптимизма(гурвица) и критериев минимального риска (севиджа).
- •21. Методы выбора альтернатив в условиях риска( дерево решений)
- •22 Пассивный метод поиска минимума функции одной переменной
- •23 Метод дихотомии(половинного деления) как метод оптимизации унимодальной функции
- •24 Численный метод оптимизации функции одной переменной -метод Фибоначчи
- •25. Численный метод оптимизации функции одной переменной – метод «золотого сечения»
- •26. Градиентный метод оптимизации – метод с дроблением шага
- •27.Градиентный метод оптимизации – метод наискорейшего спуска.
- •28. Градиентный метод оптимизации – метод Ньютона
- •29.Понятие нечеткого множества и операции над ними.
- •30.Функции принадлежности элементов нечеткого множества их назначение и виды
- •31 Нечеткие отношения. Понятия и принципы композиции нечетких отношений
- •32Понятие лингвистической переменной. Метод Мамдани
- •32 Метод оптимизации – метод штрафных функций
- •33 Модель черного ящика
- •34 Структуризация конечной цели в виде дерева целей
- •35 Проектирование систем с исследованием системных принципов
- •36 Выбор рациональной стратегии с использованием многих критериев
- •37 Метод функционально стоимостного анализа
- •38 Современные тенденции в области системного анализа
25. Численный метод оптимизации функции одной переменной – метод «золотого сечения»
Тебуется
найти безусловный минимум функции f(x)
одной переменной, т.е. такую точку ,
что
.
При построении конкретного метода одномерной оптимизации, работающего по принципу сокращения интервала неопределенности, следует определиться с правилом выбора на каждой итерации двух внутренних точек, при этом желательно, чтобы одна из них всегда использовалась в качестве внутренней для следующего интервала. В этом случае число вычислений функции сократится вдвое, и новая итерация потребует расчета только одного нового значения функции. В методе золотого сечения в качестве внутренних точек выбираются точки золотого сечения.
Определение. Точка производит «золотое сечение» отрезка, если отношение длины всего отрезка к большей части равно отношению большей части к меньшей.
Метод относится к последовательным стратегиям. Задается начальный интервал неопределенности и требуемая точность. Алгоритм основан на анализе величин функции в двух точках. В качестве точек вычисления функции выбираются точки золотого сечения. Тогда учетом свойств золотого сечения на каждой итерации, кроме первой, требуется только одно новое вычисление функции. Поиск заканчивается, когда длина текущего интервала неопределенности оказывается меньше установленной величины.
Алгоритм.
1. Задать
начальный интервал
неопределенности и
требуемую точность
.
2. Положить
k=0.
3. Вычислить
точки ,
.
4. вычислить
значения :
,
5. Сравнить
значения и
:
а) если
,
исключить интервал
,
положить
.
Перейти
к шагу 6.
б) если >
,
то исключить интервал
,
положить
.Перейти
к шагу 6.
6. Вычислить
а) если
,
то поиск завершен
.
В качестве приближения можно взять
середину этого интервала
.
б) если
то
положить k=k+1 и перейти к шагу 4.
26. Градиентный метод оптимизации – метод с дроблением шага
В этом варианте градиентного метода величина шага αn на каждой итерации выбирается из условия выполнения неравенства
f(xn+1) = f(xn – αnf ′(xn)) ≤ f(xn) – εαn||f ′(xn)||2, |
(11) |
где ε ∈ (0, 1) — некоторая заранее выбранная константа. Условие (11) гарантирует (если, конечно, такие αn удастся найти), что получающаяся последовательность будет релаксационной. Процедуру нахождения такого αn обычно оформляют так. Выбирается число δ ∈ (0, 1) и некоторый начальный шаг α0. Теперь для каждого n полагают αn = α0 и делают шаг градиентного метода. Если с таким αn условие (11) выполняется, то переходят к следующему n. Если же (11) не выполняется, то умножают αn на δ ("дробят шаг") и повторяют эту процедуру до тех пор пока неравенство
f ′(xn) = |
∫ |
1 0 |
f ′′[x* + s(xn – x*)](xn – x*) ds |
не будет выполняться.
27.Градиентный метод оптимизации – метод наискорейшего спуска.
В
данном случае на каждой интеграции шаг
выбирается из условия минимума функции
f(x)
в направлении движения. Т.е.
,
где
Алгоритм метода:
1.Задаются
;
вычисляются
полагается k=1
2.
определяется
3.вычисляются
4.проверяется
условие окончания вычислений
Если
оно выполняется, то полагается
,
и вычисления завершаются.
28. Градиентный метод оптимизации – метод Ньютона
Метод
Ньютона так же как и градиентные методы,
относится к методам спуска, т.е.
предназначены для численного решения
задач безусловной минимизации. Метод
Ньютона основан на идее замены
минимизируемой функции f(x)
в окрестности точки
квадратичной частью
ee
разложения в ряд Тейлора
Суть
метода: в методе Ньютона очередная точка
в последовательности
…приближений
к точке минимума
выбирается по правилу:
,
где
-матрица,
обратная матрице А. Таким образом, метод
Ньютона является методом второго
порядка.
Алгоритм метода:
1.Задаются
Задаются
;
вычисляются
полагается k=1
2.вычисляется
3.определяется
4.вычисляются
,
5.проверяется
условие окончания вычислений
.
Если оно выполняется, то полагается
,
и вычисления завершаются.