Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Курсовой проект.docx
Скачиваний:
27
Добавлен:
05.09.2014
Размер:
184.74 Кб
Скачать

Федеральное агентство по образованию

Санкт-Петербургский государственный

электротехнический университет «ЛЭТИ»

Кафедра САПР

Курсовой проект по учебной дисциплине

«МЕТОДЫ ОПТИМИЗАЦИИ» на

тему «Пакет программ оптимизации»

Выполнил:

Группа:

Проверил:

(Ф.И.О.)

Санкт-Петербург

2012

Оглавление

Задание на проектирование 2

Введение 2

Методы решения оптимизационной задачи 3

Метод Свенна 3

Метод Ньютона 3

Метод дихотомии 4

Метод золотого сечения 4

Метод квадратичной интерполяции – экстраполяции 5

Метод Фибоначчи 6

Метод Давидона 7

Блок-схемы 8

Метод Свенна 8

Метод ЗС-1 9

Метод Фибоначчи-1 10

Метод квадратичной интерполяции – экстраполяции 11

Метод Давидона 12

Текст программ на языке С++ 13

Исследование методов одномерного поиска минимума унимодальной функции 13

Исследование методов полиномиальной интерполяции для поиска минимума целевых функций 16

Исследование методов линейного поиска 20

Заключение 23

Задание на проектирование

Необходимо разработать пакет программ, позволяющих находить оптимальные решения различных функций. Они должны содержать различные методы оптимизации. Рассматриваемые методы – Свенна, Золотого сечения-1, квадратичной интерполяции – экстраполяции, Ньютона, Фибоначчи, Давидона.

Введение

Одним из важнейших направлений оптимизации является задача поиска оптимального решения различных функций многих переменных. Поэтому целью курсового проекта является изучение методов. Курсовой проект предполагает разработку программы поиска оптимального решения с использованием процедур, написанных и отлаженных самостоятельно.

Для реализации курсового проекта наиболее подходящим и рекомендуемым является алгоритмический язык С++.

Методы решения оптимизационной задачи

В этом разделе представлены краткие описание методов оптимизации и применяемых математических формул.

Метод Свенна

Метод Свенна организует начальную локализацию минимума унимодальной функции, т.е. простой одномерный поиск с удвоением шага, критерием окончания которого является появление признака возрастания функции.

Начальный этап.

  1. задать произвольную начальную точку x0Rn

  2. выбрать начальный шаг h=x=0,01

Основной этап

Шаг 1. Установить направление убывания функции. Для этого взять x2=x1+h. Если f(x1) <f(x2), то поменять направление движения: h1=-h1 и взять x2=x1+h1.

Шаг 2. Вычислить fk в точках xk+1=xk+hk, где k=2,3,4,…,m-1; hk=2hk-1 – движение с удвоением шага, до тех пор, пока не придём в точку xm такую, что f(xm)<f(xm-1).

Шаг 3. Установить начальный интервал локализации минимума

a1=xm-2

b1=xm

Метод Ньютона

Если f(x) является дважды дифференци­руемой в Rn, то эффективность процесса поиска точки х* ее минимума можно повысить, используя информацию не толь­ко о градиенте этой функции, но и о ее матрице Гecce H(x). Алгоритмы такого поиска обычно относят к ме­тоду Ньютона. В простейшем варианте алгоритма на каждой k-й итерации целевая функция аппроксимируется в окрестно­сти точки xk-1 (на первой итерации в окрестности начальной точки х0) квадратичной функцией и затем определяется точка xk минимума функции. На следующей, (k+1)-й итерации строится новая квадратичная аппроксимация уже в окрестности точки xk.

Начальный этап:

Выбрать x0, , k=1.

Основной этап

Шаг 1

(1) Строится Ньютоновское направление:- градиент в заданной точке, H – матрица Гессе

(2) Найти как результат решения системы уравнений

(3)

(4)

Шаг 3

Проверить КОП: если , то, иначе на Шаг 1.

Соседние файлы в предмете Методы оптимизации