Шпоры ГОС / МО-1
.doc|
15. MO - Варианты градиентных методов на примере одного из методов: Марквардта, Флетчера-Ривза, Поллака-Рибьера. Метод Флетчера-Ривза Флетчер и Ривз расширили метод сопряженных градиентов (МГС) для квадратичных функций на случай произвольных функций. В применении к квадратичным функциям он становится равносильным методу сопряженных градиентов. К достоинствам данного метода можно отнести: малый объем памяти (необходимо хранить 3 n-мерных вектора); скорость сходимости значительно выше классических градиентных методов. Данный метод полезен для решения задач большой размерности. Алгоритм Флетчера-Ривза:
Шаг 1. Задаем
начальную точку x0
положить
Шаг 2. Выбрать значение λk, минимизирующее значение функции g(λ)=f(xk+λdk)
Положить: xk+1=xk+
λkdk
,
Шаг 3. Проверка критерия останова:
Да:
Таким образом,
на каждом этапе требуется хранить в
памяти лишь три n-мерных
вектора:
|
17. MO - Сравнение эффективности одномерных методов оптимизации. С помощью теоретических выкладок можно показать, что такие методы точного оценивания, как метод Пауэлла, метод поиска с использованием кубической аппроксимации и производных существенно эффективнее методов исключения интервалов, среди которых выделяется метод золотого сечения. Данный вывод справедлив лишь в предположении, что интервалы сходимости сравнимы между собой, а исследуемая функция является достаточно гладкой и унимодальной. 1. Если необходимо получить решение с очень высокой степенью точности, то лучшими оказываются методы на основе полиномиальной аппроксимации. 2. Если важно добиться надежной работы алгоритма, то целесообразно выбрать метод золотого сечения. 3. Поисковые методы типа метода Пауэлла следует использовать совместно с МЗС, когда возникают затруднения с реализацией соответствующих итераций на ЭВМ. Для оценки эффективности методов обычно используются три характеристики: - время, затраченное на получение решения; - точность решения; - чувствительность к изменениям параметра сходимости. МЗС обладает высокой вычислительной эффективностью и простотой реализации. Методы точечного оценивания позволяют определить точки экстремума с помощью квадратичной и кубической аппроксимации целевой функции. Если интервалы сходимости сравнимы между собой, а целевая функция гладкая и унимодальная, о методы точечного оценивания сходятся значительно быстрее, чем методы исключения интервалов. Однако при исследовании мультимодальных или быстроизменяющихся функций (типа min f(x)=sink(x), которая, обладает узкими впадинами вблизи точки минимума) наиболее надежным оказывается метод «золотого сечения».
|
|
18. MO - Методы полиномиальной аппроксимации. Основная идея рассматриваемых методов связана с возможностью аппроксимации гладкой функции полиномом и последующего использования этого полинома для оценивания координаты точки экстремума. Необходимые условия эффективной реализации такого подхода – унимодальность и непрерывность исследуемой функции. Квадратичная аппоксимация. Простейший вариант полиномиальной аппроксимации основан на факте, что функция f(x) имеет экстремум во внутренней точке интервала и должна быть по крайней мере квадратичной. Линейная функция достигает экстремума в двух граничных точках интервала. Если задана последовательность x1, x2, x3 и известны соответствующие этим последовательностям значения функции f1, f2, f3, то можно определить константы a0, a1, a2 таким образом, что значения квадратичной функции:
Если точность
аппроксимации исследуемой функции
высока на интервале от x1
до x2
то построенный полином можно
использовать для оценивания координаты
точки экстремума. В данном случае из
уравнения
Т.к. f(x)
и аппроксимирующий полином унимодальный
на рассматриваемом интервале, то
|
20. MO - Сравнение многомерных методов оптимизации. Сравнение методов безусловной оптимизации
Предполагается,
что выполняются следующие условия:
f(x)
дважды дифференцируема; гессиан
Для ускоренного
метода второго порядка имеем
λm2
- второе
наибольшее собственное значение
При p=n (размерность производства) имеем суперлинейную сходимость. Но при этом на каждой итерации требуется применение (n+1) одномерных минимизаций. В таком случае метод становится эквивалентным методу сопряженного градиента.
|
|
|
|
|
|
|
|
|
|
|
19. MO - Связь методов оптимизации и поиска нулей функции. Критерии останова. Численная аппроксимация градиента. Поиск нулей функции f(x) широко используется в методах оптимизации. Например, такая необходимость возникает при определении стационарной точки f‘(x)=0 или решении системы нелинейных уравнений df/dxi=0, i=1,n, как в методе Ньютона. Кроме широко известных методов поиска нулей функции таких как, например, метод золотого сечения, Фибоначчи, дихотомии, Ньютона (метод касательных), метод хорд, существуют следующие методы:
Этот метод имеет
вид:
К достоинствам этого метода следует отнести простоту его реализации и возможность обобщения на системы уравнений, а к недостаткам - более медленную по сравнению с методом Ньютона сходимость.
|
16. MO - Приближенные методы решения ЗЛП на примере транспортной задачи. Метод северо-западного угла. При этом методе на каждом шаге построения первого опорного плана заполняется левая верхняя клетка (северо-западный угол) оставшейся части таблицы. При таком методе заполнение таблицы начинается с левого верхнего угла, двигаясь далее или по строке вправо, или по столбцу вниз. В клетку (1,1) заносится меньшее из чисел a1 и b1, т.е. x11=min{a1,b1}. Если a1>b1, то x11=b1 и первый столбец «закрыт», т.е. потребности первого потребителя удовлетворены полностью. Двигаемся далее по первой строке, записывая в соседнюю клетку (1,2) меньшее из чисел a1-b1 и b2, т.е. x12=min{a1- b1,b1}. Если b1>a1, то x11=a1, то аналогично «закрывается» первая строка и далее переходим к заполнению соседней клетки (2,1), куда заносим . x21=min{a1,b1-a1}.. Будем продолжать этот процесс до тех пор, пока на каком-то этапе не исчерпаются ресурсы ap и потребности bq. Метод наименьшей стоимости. Суть метода заключается в том, что из всей таблицы стоимостей выбирают наименьшую и в клетку, которая ей соответствует, помещают min{ai,bj}. Затем из рассмотрения исключают либо строку, соответствующую поставщику, запасы которого полностью израсходованы, либо столбец, соответствующий потребителю, потребности которого полностью удовлетворены. Либо и строку, и столбец, если израсходованы запасы поставщика и удовлетворены потребности потребителя. Из оставшейся части таблицы стоимостей снова выбирают наименьшую стоимость, и процесс распределения запасов продолжают, пока все запасы не будут распределены, а потребности удовлетворены. Метод Фогеля. В распределительной таблице по строкам и столбцам определяется разность между двумя наименьшими тарифами. Отмечается наибольшая разность. Далее в строке (столбце) с наибольшей разностью заполняется клетка с наименьшим тарифом. Строки (столбцы) с нулевым остатком в дальнейшем в расчет не принимаются.
|
|
20. MO - Сравнение многомерных методов оптимизации. Продолжение Метод Ньютона. Обладает квадратичной локальной сходимостью. На практике глобальная сходимость не гарантируется.
Методы
сопряженных направлений (относительно
метода Флетчера-Ривза).
Доказано, что
Если
К
Преимущества квазиньют-ких мет. по сравнению с методами сопряженных градиентов: требуют в n раз меньше этапов (шагов), т.е. в n раз меньше числа одномерных минимизаций. Сходимость для одного и того же поведения - квадратичная или суперлинейная. Недостатки. загрузка памяти пропорциональна n2; объем вычислений пропорционален n2. Выводы: метод Коши+дихотомия – обеспечивает нахождение наиболее точного значения ЦФ, но требует больших затрат машинного времени; метод Б-Ф-Г-Ш с использованием кубичной аппроксимации – самый эффективный по количеству вычислений функции.
|
Продолжение 18. MO - Методы полиномиальной аппроксимации. Метод Пауэлла. Этот метод основан на последовательном применении процедуры оценивания с использованием квадратичной аппроксимации. Схема алгоритма Пауэлла: пусть x1 – начальная точка; Δx – выбранная величина шага по оси x. Шаг 1: Вычислить x1=x2+Δx Шаг 2: Вычислить f(x1) и f(x2) Шаг 3: Если f(x1) > f(x2), положить x3=x1+2Δx, если f(x1) ≤ f(x2), то x3=x1-Δx Шаг 4: Вычислить f(x3). Найти Fmin=min{f1,f2,f3}, xmin равно точке xi, которая соответствует Fmin
Шаг 5: Вычислить
Шаг 6: Проверка на окончание поиска.
Проверить:
является ли разность |Fmin-f(z)|≤ε;
является ли разность |Xmin-
Шаг 7: Выбрать
«наилучшую» точку (Xmin
или
После 5-го шага
необходимо провести дополнительную
поверку, т.к. точка
|
|
|
|
|
|
|
|
|
|


,
где λmax,
λmin
- соответственно наибольшее и
наименьшее собственные значения
матрицы Гессе
,

