- •1. Множество. Функция. Скалярные и векторные функции.
- •2. Поле, пространство. Виды пространств.
- •3. Критические точки. Стационарные точки. Лемма Ферма. Связь оптимизации и поиска корня.
- •Вопрос 6. Чем выпуклая функция упрощает задачу оптимизации?
- •Вопрос 7. Если функция имеет одинаковые минимальные значения в двух точках, можно ли говорить о двух глобальных минимумах?
- •Вопрос 8. Как критерии максимума связаны с критериями минимума?
- •4. Градиент. Матрица Гессе. Ряд Тейлора.
- •5. Квадратичная форма. Квадратичная функция. Связь знакоопределенности и собственных чисел матрицы.
- •6. Квадратичная форма. Квадратичная функция. Критерии минимума (максимума) квадратичной формы.
- •7. Условия Вульфа. Их геометрическая интерпретация. Правило Армихо.
- •8. Метод дихотомии. Запрограммировать, показать работу на функциях.
- •9. Метод трехточечного деления. Запрограммировать, показать работу на функциях.
- •10. Метод золотого сечения. Запрограммировать, показать работу на функциях.
- •11. Метод Фибоначчи. Запрограммировать, показать работу на функциях.
- •12. Метод Ньютона одномерный. Запрограммировать, показать работу на функциях.
- •13. Метод секущих. Запрограммировать, показать работу на функциях.
- •14. Метод Мюллера. Запрограммировать, показать работу на функциях.
- •15. Метод обратной параболической интерполяции. Запрограммировать, показать работу на функциях.
- •16. Запрограммировать метод градиентного спуска. Показать его работу на функциях.
- •17. Запрограммировать метод наискорейшего спуска. Показать его работу на функциях.
- •19. Запрограммировать метод Ньютона многомерный. Показать его работу на функциях.
- •20. Запрограммировать метод Левенберга-Марквардта. Показать его работу на функциях.
- •21. Запрограммировать метод Нестерова-Немировского. Показать его работу на функциях.
- •22. Запрограммировать метод Барзилая-Борвейна 1. Показать его работу на функциях.
- •23. Запрограммировать метод Барзилая-Борвейна 2. Показать его работу на функциях.
- •28. Запрограммировать метод Армихо. Показать его работу на функциях.
- •29. Запрограммировать метод dfp. Показать его работу на функциях.
- •30. Запрограммировать метод bfgs. Показать его работу на функциях.
- •31. Запрограммировать метод l- bfgs. Показать его работу на функциях.
- •32. Запрограммировать метод доверительных областей. Показать его работу на функциях.
Вопрос 6. Чем выпуклая функция упрощает задачу оптимизации?
Ответ: У выпуклой функции любая стационарная точка является глобальным минимумом, поэтому не нужно проверять локальные экстремумы. Для невыпуклой функции приходится учитывать все локальные минимумы.
Вопрос 7. Если функция имеет одинаковые минимальные значения в двух точках, можно ли говорить о двух глобальных минимумах?
Ответ: Да, если для всех других точек значения функции больше, то обе точки являются глобальными минимумами, даже если их несколько.
Вопрос 8. Как критерии максимума связаны с критериями минимума?
Ответ: Критерий максимума можно получить через противоположную функцию: x∗ – максимум f(x) ⇔ x∗ – минимум −f(x). Все условия для минимума применяются к −f(x).
Вопрос 9. Можно ли определить математически точку максимума на функции с шумом, как в f(t) = F(t) + ε(t)?
Ответ: Нет, если ε(t) ≠ 0, т.к. шум делает функцию недифференцируемой или случайной в данной точке, и критерии стационарной точки неприменимы. Если ε(t) = 0, функция гладкая, тогда можно определить максимум строго математически, используя производные.
Вопрос 10. Почему стационарные точки важны для задач оптимизации без ограничений?
Ответ: Потому что они задают кандидатов на экстремумы. Любая локальная или глобальная точка минимума/максимума должна быть стационарной точкой (при гладкой функции).
4. Градиент. Матрица Гессе. Ряд Тейлора.
Вопрос 1. Почему градиент функции указывает направление наибольшего возрастания функции? Ответ: Градиент – это вектор частных производных. Каждая компонента показывает скорость изменения функции по соответствующему направлению. Вектор градиента суммарно указывает направление, в котором функция увеличивается быстрее всего.
Вопрос 2. Чем матрица Гессе отличается от градиента и зачем она нужна? Ответ: Градиент – это вектор первой производной (направление возрастания). Матрица Гессе – это матрица вторых производных, которая показывает кривизну функции и позволяет определить характер стационарной точки (минимум, максимум или седловая точка).
Вопрос 3. Почему ряд Тейлора используется для аппроксимации функций многомерного аргумента? Ответ: Ряд Тейлора позволяет заменить сложную функцию локально полиномом, зависящим от градиента и матрицы Гессе, что упрощает анализ и поиск экстремумов.
Вопрос 4. Как связаны ряд Тейлора второго порядка и параболоид, касательный к функции в точке? Ответ: Ряд Тейлора второго порядка описывает функцию с использованием значения функции, градиента и матрицы Гессе в точке x₀. Геометрически это соответствует параболоиду, который «касается» поверхности функции в этой точке и повторяет локальную кривизну.
Вопрос 5. Почему в многомерной оптимизации важно использовать ряд Тейлора второго порядка, а не только градиент? Ответ: Градиент указывает направление возрастания, но не учитывает кривизну. Второй порядок (матрица Гессе) позволяет определить, насколько быстро функция меняется в разных направлениях, что важно для корректного шага оптимизации (например, в методах Ньютона).
Вопрос 6. Что такое ряд Маклорена и чем он отличается от ряда Тейлора? Ответ: Ряд Маклорена – это частный случай ряда Тейлора, разложение которого выполняется в окрестности точки 0 (x₀ = 0). По сути, это ряд Тейлора с x₀ = 0.
Вопрос 7. Как можно использовать матрицу Гессе для классификации стационарных точек? Ответ: Если матрица Гессе положительно определена в стационарной точке, это локальный минимум; отрицательно определена – локальный максимум; если она имеет как положительные, так и отрицательные собственные значения – точка седловая.
Вопрос 8. Почему аппроксимация функции рядом Тейлора полезна для численных методов оптимизации? Ответ: Она позволяет заменить сложную функцию квадратичной моделью, на которой проще найти шаг оптимизации или проверить условия экстремума, не вычисляя функцию во всех точках.
Вопрос 9. Как визуально можно интерпретировать градиент и матрицу Гессе на примере функции яркости или функции Химмельблау? Ответ: Градиент – вектор направления наибольшего возрастания (стрелка на графике). Гессе – форма поверхности вокруг точки (вогнутость/выпуклость), определяющая локальный изгиб параболоида, касательного к функции.
Вопрос 10. Если функция многомерная и гладкая, можно ли аппроксимировать её только линейной функцией (градиентом)? Почему иногда этого недостаточно? Ответ: Можно для локального приближения (первый порядок Тейлора), но для оптимизации этого часто недостаточно, так как линейная аппроксимация не учитывает кривизну функции и может дать неверное направление шага.
