Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы_МО.docx
Скачиваний:
0
Добавлен:
01.03.2025
Размер:
5 Mб
Скачать

5.12. Когда говорят, что сильно выпуклая функция f(X) имеет овражный характер? Какие задачи минимизации называются хорошо обусловленными, а какие − плохо обусловленными?

μ=L/l – число обусловленности функции, где L и l – наибольшее и наименьшее собственные значения матрицы. Если μ велико, то линии уровня сильно вытянуты и говорят, что функция имеет овражный характер, т.е. резко меняется по одним направлениям и слабо − по другим. В этих случаях задачу минимизации называют плохо обусловленной. Если же число μ близко к единице, то линии уровня близки к окружностям и задача минимизации является хорошо обусловленной.

5.13. В чем состоят преимущества и недостатки метода наискорейшего спуска по сравнению с методом градиентного спуска?

В методе наискорейшего спуска градиент вычисляется гораздо реже, поскольку это происходит только при смене направлений движения, что существенно уменьшает трудоёмкость метода.

5.14. Каков главный недостаток градиентных методов?

Градиентные методы оказываются очень медленным при движении вдоль оврага.

5.15. В чем состоит идея метода сопряженных градиентов? Чем этот метод отличается от методов градиентного и наискорейшего спуска?

Идея методов сопряжённых градиентов заключается в нахождении локального экстремума минимума функции, основываясь на информации о её значении и её градиенте (направлении антиградиента pk=-gradf(xk)). От других методов отличается тем, что в них не используется информация о направлении спуска на предыдущем шаге.

5.16. Какова скорость сходимости метода Ньютона для дважды дифференцируемой выпуклой функции f(x) многих переменных? Какова трудоемкость этого метода?

При выборе достаточно хорошего начального приближения x0ϵ En, минимизирующая последовательность {xk} для сильно выпуклой дважды дифференцируемой функции f(x) сходится к точке минимума с квадратичной скоростью ρ(xk,x*)≤[cρ(x0,x*)]2 . Если точка x0 выбрана недостаточно близко к точке x* , то последовательность может расходиться. Метод Ньютона трудоёмок, что обусловлено необходимостью вычисления и обращения на каждом шаге матрицы вторых производных минимизируемой функции.

5.17. Чем отличаются классический и обобщенный методы Ньютона для сильновыпуклой дважды дифференцируемой функции многих переменных?

Даже сходящаяся последовательность {xk} метода Ньютона не всегда обеспечивает монотонное убывание f(x), т.е. неравенство f(xk+1)<f(xk) для некоторых k=0,1,… может нарушаться. Этот недостаток устранен в обобщенном методе Ньютона:

xk+1=xk- αkH-1(xk)gradf(xk), где величина αk >0 находится на каждом шаге из условия исчерпывающего спуска по направлению pk=-H-1(xk)gradf(xk).

5.18. Сформулировать общий принцип построения квазиньютоновских методов. Какую скорость сходимости следует ожидать от квазиньютоновских методов? Оценить их трудоемкость.

Квазиньютоновские методы – это методы оптимизации, основанные на накоплении информации о кривизне целевой функции по наблюдениям за изменением градиента, чем принципиально отличаются от ньютоновских методов. Класс квазиньютоновских методов исключает явное формирование матрицы Гессе, заменяя её некоторым приближением. Так как квазиньютоновские методы объединяют достоинства метода наискорейшего спуска и метода Ньютона, они сочетают высокую (квадратичную) скорость сходимости с невысокой трудоемкостью итерации (поскольку не нужно инвертировать матрицу Гессе).

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]