- •1. Источники и виды погрешностей. Абсолютная и относительная погрешности. Вычислительная погрешность и погрешность функции.
- •3. Решение систем линейных алгебраических уравнений. Правило Крамера и обратная матрица. Вычислительная сложность.
- •4. Решение систем линейных уравнений. Метод исключения Гаусса с верхней и нижней треугольной матрицами. Методы прямой и обратной подстановки. Решение линейных систем алгебраических уравнений
- •Метод исключения Гаусса без перестановки строк
- •5. Решение систем линейных уравнений с симметричными и положительно определенными матрицами. Разложение Холесского с внутренним произведением.
- •6. Разложение Холесского с внешним произведением и с поблочным вычислением матриц.
- •Доказательство теоремы Халецкого
- •7. Метод исключения Гаусса и lu-разложение. Понятие эквивалентности систем уравнений, понятие и состав элементарных операций.
- •8. Алгоритм исключения Гаусса без перестановки строк. Lu- и ldv-разложения.
- •9. Алгоритм исключения Гаусса при наличии вырожденных главных подматриц. Алгоритм с перестановкой строк или с выбором главного элемента.
- •10. Свойства и определения матричных и векторных норм. Теорема Коши – Шварца. Число обусловленности системы линейных уравнений. Геометрический смысл числа обусловленности. Матричная норма
- •Геометрический смысл плохо обусловленных и хорошо обусловленных матриц
- •11. Задачи приближения и интерполяции функций и эмпирических данных.
- •13. Формулы численного дифференцирования интерполяционным методом.
- •14. Формулы численного дифференцирования методом неопределенных коэффициентов.
- •15. Наиболее распространенные формулы численного дифференцирования.
- •16. Задачи и методы численного интегрирования. Квадратурные формулы.
- •Элементарные квадратурные формулы, полученные методом интерполяции
- •17. Численное интегрирование интерполяционными методами.
- •18. Численное интегрирование методом неопределенных коэффициентов.
- •Частные случаи
- •19. Квадратурные формулы Ньютона – Котеса.
- •20. Формулы прямоугольника, трапеций и Симпсона.
- •21. Ортогональные и ортонормальные системы функций и многочленов. Скалярное произведение. Ортогонализация произвольной системы линейно независимых функций. Формула Грама – Шмидта.
- •22. Квадратурные формулы Гаусса. Наиболее распространенные формулы.
- •23. Интегрирование быстро осциллирующих функций. Интегрирование функций на больших интервалах изменения аргумента.
- •24. Тригонометрическая интерполяция и дискретное преобразование Фурье.
- •25. Быстрое преобразование Фурье.
- •26. Задача наименьших квадратов. Прямой метод решения.
- •27. Задача наименьших квадратов. Решение методом qr-разложения.
- •28. Алгоритм qr-разложения. Ортогональные матрицы и матрицы плоского вращения.
- •29. Задача численного решения обыкновенных дифференциальных уравнений. Задача Коши и граничные задачи.
- •30. Решение задачи Коши с помощью формулы Тейлора.
- •31. Методы Рунге – Кутта. Формулы Эйлера и Адамса.
- •32.Конечно-разностные методы решения задачи Коши.
- •33. Явные формулы Адамса.
- •34. Решение задачи Коши методом неопределенных коэффициентов.
- •35. Решение систем обыкновенных дифференциальных уравнений методом Эйлера.
- •36. Определение градиента функции нескольких переменных.
- •Метод градиента
- •37. Матрица Якоби системы функций нескольких переменных.
- •38. Решение нелинейных уравнений методом простой итерации.
- •39. Решение нелинейных уравнений методом Ньютона.
- •46. Необходимые и достаточные условия минимума и максимума функции многих переменных. Необходимые и достаточные условия экстремума функции нескольких (двух) переменных
- •47. Форма функции многих переменных в окрестности точки седла.
- •48. Градиентный метод минимизации функции многих переменных.
- •49. Минимизация функции многих переменных методом Ньютона.
- •Применительно к задачам оптимизации
- •50. Формула и множители Лагранжа в задаче оптимизации
- •Описание метода
- •51. Производная по направлению и возможное направление спуска.
- •52. Обратные и некорректные задачи.
47. Форма функции многих переменных в окрестности точки седла.
Седловая точка функции (обозначена красным) , седловая точка точка центр "восьмерки".
Седловая точка в математическом анализе — такая точка из области определения функции, которая является стационарной для данной функции, однако не является её локальным экстремумом. В такой точке, если рассматривается функция двух переменных, образованная графиком функции поверхность обычно напоминает по форме седло или горный перевал - выпуклая в одном направлении и вогнутая в другом. На карте высот седловая точка может быть в общем случае обнаружена в месте пересечения изолиний. Например, два холма, между которыми находится высокий перевал, образуют седловую точку в вершине этого перевала: на карте высот это будет выглядеть как центр "восьмерки", образованной соответствующими изолиниями.
Седловая точка в математическом анализе
Проверить, является ли данная стационарная точка функции F(x,y) двух переменных седловой, можно, вычислив матрицу Гессе функции в этой точке: если гессиан будет неопределенной квадратичной формой, то данная точка - седловая. Например, составив матрицу Гессе функции z = x2 − y2 в стационарной точке (0,0) получим матрицу:
которая является неопределенной. Поэтому, точка (0,0) данной функции - седловая. Однако вышеприведенный критерий предоставляет только достаточное условие наличия седловой точки. Например, (0,0) является седловой точкой функции z = x4 − y4, но матрица Гессе в данном случае будет нулевой матрицей, которую, по определению, нельзя назвать неопределенной.
В общем случае, седловой точкой гладкой функции (чей график изображает кривую, поверхность или гиперповерхность) называется такая стационарная точка, в окрестности которой данная кривая/поверхность/гиперповерхность не лежит полностью на одной стороне касательного пространства в данной точке.
В случае функции одной переменной, седловая точка - такая точка, которая одновременно и стационарная точка, и точка перегиба (точка перегиба не является локальным экстремумом).Термин «седловая точка» также используется для обозначения элемента матрицы, который является наименьшим элементом в своем ряду и наибольшим в своем столбце (или же наоборот, то есть наибольший в ряду и наименьший в столбцеНапример, матрицаимеет одну седловую точку — «4» в первом ряду третьем столбце меньше, чем элементы в первом ряду матрицы («5», «6», «5»), и больше, чем элементы в третьем столбце («3», «-2»). Матрица содержит 4 седловых точки — «2» в первом и втором ряду, первом и четвёртом столбце. Данный пример показывает, что матрица может иметь любое количество седловых точек. Так, в матрице, состоящей из одного и того же числа, все элементы являются седловыми. Матрица не имеет седловой точки.
48. Градиентный метод минимизации функции многих переменных.
Градиентный спуск — метод нахождения локального минимума (максимума) функции с помощью движения вдоль градиента. Для минимизации функции в направлении градиента используются методы одномерной оптимизации, например, метод золотого сечения. Также можно искать не наилучшую точку в направлении градиента, а какую-либо лучше текущей.
Сходимость метода градиентного спуска зависит от отношения максимального и минимального собственных чисел матрицы Гессе в окрестности минимума (максимума). Чем больше это отношение, тем хуже сходимость метода.
Описание
Иллюстрация последовательных приближений к точке экстремума в направлении наискорейшего спуска (красн.) в случае дробного шага. Синим отмечены линии уровня.
Пусть целевая функция имеет вид:
-
.
-
И задача оптимизации задана следующим образом:
-
-
Основная идея метода заключается в том, чтобы идти в направлении наискорейшего спуска, а это направление задаётся антиградиентом :
-
где λ[j] выбирается
-
постоянной, в этом случае метод может расходиться;
-
дробным шагом, т.е. длина шага в процессе спуска делится на некое число;
-
наискорейшим спуском:
Алгоритм Задают начальное приближение и точность расчёта
-
Рассчитывают , где
-
Проверяют условие остановки:
-
Если или (выбирают одно из условий), то j = j + 1 и переход к шагу 2.
-
Иначе и останов.