- •Зав. Кафедрой иксу, к.Т.Н., доцент _________________ а. В. Лиепиньш
- •Краткие теоретические сведения.
- •О численных методах многомерной оптимизации.
- •1.2. Методы прямого поиска.
- •Общая характеристика.
- •1.2.2. Метод конфигураций (метод Хука и Дживса).
- •1.2.3 Метод симплекса.
- •1.5.4. Метод деформируемого симплекса (метод Нелдера – Мида).
- •Поиск экстремума функции нескольких переменных в Матлаб
- •5. Программа работы
- •6. Варианты заданий
- •7 Содержание отчета
- •8 Список литературы
- •Безусловная многомерная оптимизация (прямые методы)
МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ
ФЕДЕРАЦИИ
Федеральное государственное бюджетное образовательное учреждение
высшего профессионального образования
«НАЦИОНАЛЬНЫЙ ИССЛЕДОВАТЕЛЬСКИЙ
ТОМСКИЙ ПОЛИТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ
УТВЕРЖДАЮД
Д
зам. директора ИК по учебной работе
____________ С. А. Гайворонский
“____”_______________2013 г.
БЕЗУСЛОВНАЯ МНОГОМЕРНАЯ ОПТИМИЗАЦИЯ
(ПРЯМЫЕ МЕТОДЫ)
Методические указания по выполнению лабораторных
работ по курсу «Математическое программирование и оптимизация систем» для студентов направления 657900 – Автоматизация технологических процессов и производств (в нефтегазовой отрасли)
Томск 2013
УДК 681.5
Безусловная многомерная оптимизация (прямые методы). Методические указания по выполнению лабораторных работ по курсу «Математическое программирование и оптимизация систем» для студентов направления 657900 – Автоматизация технологических процессов и производств (в нефтегазовой отрасли) – Томск: Изд. ТПУ, 2013. – 14 с.
Составитель: Воронин А. В.
Рецензент: доцент кафедры ИКСУ ТПУ Громаков Е.И.
Методические указания рассмотрены и рекомендованы к изданию методическим семинаром кафедры интегрированных компьютерных систем управления “____” ______________ 2013 г.
Зав. Кафедрой иксу, к.Т.Н., доцент _________________ а. В. Лиепиньш
Цель работы: знакомство с оптимизационными задачами, изучение прямых методов многомерной оптимизации и сравнение эффективности их применения для конкретных целевых функций.
Краткие теоретические сведения.
О численных методах многомерной оптимизации.
Задача многомерной безусловной оптимизации формулируется в виде:
,
где
– точка в
-мерном
пространстве
,
целевая
функция
аргументов.
Так
же как и в первой лабораторной работе,
мы рассматриваем задачу минимизации.
Численные методы отыскания минимума,
как правило, состоят в построении
последовательности точек
,
удовлетворяющих условию
.
Методы построения таких последовательностей
называются методами спуска. В этих
методах точки последовательности
вычисляются по формуле:
где
– направление спуска,
– длина шага в этом направлении.
Различные методы спуска отличаются друг от друга способами выбора направления спуска и длины шага вдоль этого направления.
Алгоритмы безусловной минимизации принято делить на классы, в зависимости от максимального порядка производных минимизируемой функции, вычисление которых предполагается. Так, методы, использующие только значения самой целевой функции, относят к методам нулевого порядка (иногда их называют также методами прямого поиска). Если, кроме того, требуется вычисление первых производных минимизируемой функции, то мы имеем дело с методами первого порядка; если же дополнительно используются вторые производные, то это методы второго порядка и т. д.
1.2. Методы прямого поиска.
Общая характеристика.
Методы прямого поиска – это методы, в которых используются только значения целевой функции (методы нулевого порядка). Рассмотрим следующие методы, основанные на эвристических соображениях. Эти методы довольно часто применяются на практике, позволяя в ряде случаев получить удовлетворительные решения.
Основное достоинство методов нулевого порядка состоит в том, что они не требуют непрерывности целевой функции и существования производных.
1.2.2. Метод конфигураций (метод Хука и Дживса).
Алгоритм включает в себя два основных этапа поиска:
в начале, обследуется окрестность выбранной точки (базисной точки), в результате находится приемлемое направление спуска;
затем, в этом направлении находится точка с наименьшим значением целевой функции. Таким образом, находится новая базисная точка.
Эта процедура продолжается пока в окрестностях базисных точек удается находить приемлемые направления спуска.
Схема алгоритма
Шаг 1.
Задаются
начальное приближение (первая базисная
точка)
,
начальный шаг
для поиска направления спуска, точность
решения
(предельное значение для шага
).
Присваивается
.
В результате, в начальный момент,
.
Шаг 2. (Первый этап).
Определяется
направление минимизации целевой функции
в базисной точке
.
Для этого последовательно дают приращение
переменным
в точке
.
Присвоим
.
Циклически даем приращение переменным
и формируем
,
если
,
если
же нет, то
,
если
,
иначе
.
И
так для всех
.
Шаг 3.
Если
,
то есть не определилось подходящее
направление, то обследование окрестности
базисной точки
повторяется, но с меньшим шагом
(например,
).
Если
,
то перейти к шагу 2, то есть повторить
обследование точки
.
Если
,
то поиск заканчивается, то есть достигнуто
предельное значение для шага
и найти приемлемое направление спуска
не удается. В этом случае полагается
.
Шаг 4. (Второй этап).
Если
,
то требуется найти новую базисную точку
в направлении вектора
,
где
- коэффициент «ускорения поиска».
Определяется
такое значение
,
при котором достигается наименьшее
значение целевой функции в выбранном
направлении, то есть функции
.
В
зависимости от способа выбора
возможны варианты метода:
а)
постоянная для всех итераций;
б)
задается начальное
,
а далее
,
если
,
иначе дробим
,
пока не выполнится это условие;
в)
определяется решением задачи одномерной
минимизации функции
.
Таким
образом, определяется новая базисная
точка
.
Полагаем
и поиск оптимального решения повторяется
с шага 2.
В лабораторной работе принять постоянной для всех итераций. Значение выбрать самостоятельно.
