Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
МЕТОДЫ ОПТИМИЗАЦИИ.doc
Скачиваний:
61
Добавлен:
01.05.2014
Размер:
2.4 Mб
Скачать

3.2 Контрольные вопросы

1. Поясните организацию линейного поиска на основе методов золотого сечения, Фибоначчи и Пауэлла.

2. Найти производную в точке x1=(1,0)tпо направлению p1=(1,1)tдля функции f(x) = x12- x1x2+ 2x22- 2x1.

3. Как изменится процедура минимизации методами Больцано, дихотомии, ДСК, Дэвидона при переходе от поиска на числовой прямой к поиску на плоскости R2?

4. Что является направлением наискорейшего спуска в точке x = (1,1)tдля целевой функции y(x) = x12+ 2x22

5. Приведите 2 способа аналитического решения задачи для Вашего варианта задания.

6. Найдите минимум y(x) = x12- x1x2+ 2x22- 2x1+ ex1+x2, двигаясь из точки x = (0,0) в направлении наискорейшего спуска.

7. Найти шаг a1, доставляющий минимум в точку x2 = x1+ a1p для функции y(x)= x12+ 2x22и направления антиградиента в точке x1=(1,0)t.

3.3 Содержание отчета

  1. Цель работы и требования задания.

  2. Краткое описание метода оптимизации на основании материала лекционного курса и описание схемы пошагового выполнения вычислительного алгоритма.

  3. Блок-схема программы с пояснением основных ее частей.

  4. Спецификация программы, раскрывающая смысл входных и выходных данных, основных переменных и функций.

  5. Текст программы с детальными комментариями ведущих операторов программы.

  6. Результаты тестирования программы на наборе целевых функций с указанием числа итераций и числа вычислений функций. Таблица, иллюстрирующая вычислительный процесс и изменение ключевых переменных.

  7. Результаты сравнения по числу итераций заданных методов оптимизации при использовании различных критериев окончания поиска, при выборе разных начальных точек x1и при задании различных значений погрешности локализации минимума.

  8. Ответы на контрольные вопросы.

  9. Выводы по работе.

Лабораторная работа 4. Исследование градиентных методов

4.1 Требования задания

Целью работы является разработка программы многомерной минимизации целевых функций на основе применения градиентных методов поиска.

Методы оптимизации:

М1 - метод Коши;

M2 - релаксационный метод Гаусса-Зейделя;

M3 - овражный метод;

M4 - метод параллельных касательных;

M5 - метод циклического покоординатного спуска;

M6 - метод циклического покоординатного спуска с ускоряющим шагом;

М7 - метод Хука-Дживса с одномерной минимизацией;

М8 - метод Гаусса-Зейделя с ускоряющим шагом.

Таблица тестовых функций

Функция y(x)

Начальная точка (x1) t

Значение минимума (x*)t

(19)

100(x2-x12)2+ (1 -x1)2

( -1.2 ; 1)

( 1.5 ; 2 )

( -2 ; -2)

( 1 ; 1)

(20)

(x1- 1)2+ (x2- 3)2+ 4(x3+ 5)2

( 4 ; -1 ; 2 )

( 1 ; 3 ; -5)

(21)

8x12+ 4x1x2+ 5x22

( 10 ; 10)

( 0 ; 0)

(22)

4(x1-5)2+ (x2- 6)2

( 8 ; 9)

( 0 ; 0)

( 5 ; 6)

(23)

(x2–x12)2+ (1 -x1)2

( 1.5 ; 2)

( 0 ; 0 )

(-1.2 ; 1 )

( 1 ; 1)

(24)

(x2-x12)2+ 100(1 –x12)2

( 1.5 ; 2)

( 1 ; 2 )

( 1 ; 1)

(25)

3(x1- 4)2+ 5(x2+3)2+ 7(2x3+1)2

( 2 ; -2 ; -2 )

( 0 ; 0; 0 )

( 4 ; -3 ; -0.5 )

(26)

x13+x22- 3x1- 2x2+2

( 0 ; 0)

( -1 ; -1 )

( 1 ; 1)

Варианты задания

Вариант

1

2

3

4

5

6

7

8

Метод

М1

М2

М3

М4

М5

М6

М7

М8

Тестовая функция

(19)

(20)

(21)

(22)

(23)

(24)

(25)

(26)