Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
чм.doc
Скачиваний:
23
Добавлен:
09.02.2015
Размер:
2.48 Mб
Скачать

3.2. Контрольные вопросы

  1. Пояснить организацию линейного поиска на основе методов золотого сечения, Фибоначчи и Пауэлла.

  2. Аналитически найти производную в точке x1 = (1; 0)tпо направлениюp1 = (1; 1)tдля функцииy(x) =x12x1x2+ 2x22– 2x1

  3. Как изменится процедура минимизации методами Больцано, дихотомии, ДСК, Дэвидона при переходе от поиска на числовой прямой к поиску на плоскости R2?

  4. Что является направлением наискорейшего спуска в точке x1= (1; 1)tдля целевой функцииy(x) =x12+ 2x22?

  5. Привести 2 способа аналитического решения задачи для Вашего варианта задания.

  6. Найти минимум y(x) =x12x1x2+ 2x22– 2x1+ex1 + x2, двигаясь из точкиx1= (0; 0)tв направлении наискорейшего спуска.

  7. Найти шаг α*, доставляющий минимум в точкуx2=x1+ αp для функцииy(x) =x12+ 2x22и направления антиградиента в точкеx1= (1; 0)t.

3.3. Содержание отчета

  1. Цель работы и требования задания.

  2. Краткое описание метода оптимизации на основании материала лекционного курса и описание схемы пошагового выполнения вычислительного алгоритма.

  3. Укрупненнаяблок-схема программы с пояснением основных ее частей.

  4. Спецификация программы, раскрывающая смысл входных и выходных данных, основных переменных и функций.

  5. Текст программы с детальными комментариямиведущих операторов программы.

  6. Результаты тестирования программы на наборе целевых функций с указанием числа итераций и количества вычислений функций. Таблица, иллюстрирующая вычислительный процесс и изменение ключевых переменных.

  7. Таблица, содержащая результаты сравнения заданных методов оптимизации по числу итераций при использовании различных критериев окончания поиска, при выборе разных начальных шагов метода Свенна и при задании различных значений погрешности локализации минимума ε.

  8. Ответы на контрольные вопросы.

  9. Выводы по работе.

Практическое занятие 4. Исследование градиентных методов

4.1. Требования задания

Цель работы– разработка программы многомерной минимизации целевых функций на основе применения простых градиентных методов поиска.

Методы многомерной оптимизации:

М1 – метод Коши;

M2 – релаксационный метод Гаусса–Зейделя;

M3 – овражный метод;

M4 – метод параллельных касательных Партан-1;

M5 – метод параллельных касательных Партан-2;

M6 – метод циклического покоординатного спуска;

M7 – метод циклического покоординатного спуска с ускоряющим шагом;

М8 – метод Хука–Дживса с одномерной минимизацией;

М9 – метод Гаусса–Зейделя с ускоряющим шагом.

Таблица тестовых функций

Функция y(x)

Начальная точка (x1)t

Значение минимума (x*)t

(19)

100(x2x12)2+ (1 –x1)2

(–1.2; 1)

(1.5; 2)

(–2; –2)

(1; 1)

(20)

(x1– 1)2+ (x2– 3)2+ 4(x3+ 5)2

(4; –1; 2)

(1; 3; –5)

(21)

8x12+ 4x1x2+ 5x22

(10; 10)

(0; 0)

(22)

4(x1– 5)2+ (x2– 6)2

(8; 9)

(0; 0)

(5; 6)

(23)

(x2x12)2+ (1 –x1)2

(1.5; 2)

(0; 0)

(–1.2; 1)

(1; 1)

(24)

(x2x12)2+ 100(1 –x12)2

(1.5; 2)

(1; 2)

(1; 1)

(25)

3(x1– 4)2+ 5(x2+ 3)2+ 7(2x3+ 1)2

(2; –2; –2)

(0; 0; 0)

(4; –3; –0.5)

(26)

x13+x22– 3x1– 2x2+ 2

(0; 0)

(–1; –1)

(1; 1)

Варианты задания

Вариант

1

2

3

4

5

6

7

8

9

Метод

М1

М2

М3

М4

М5

М6

М7

М8

М9

Тестовая функция

(19)

(20)

(21)

(22)

(23)

(24)

(25)

(26)

(19)

Тут вы можете оставить комментарий к выбранному абзацу или сообщить об ошибке.

Оставленные комментарии видны всем.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]