- •1. Источники и виды погрешностей. Абсолютная и относительная погрешности. Вычислительная погрешность и погрешность функции.
- •3. Решение систем линейных алгебраических уравнений. Правило Крамера и обратная матрица. Вычислительная сложность.
- •4. Решение систем линейных уравнений. Метод исключения Гаусса с верхней и нижней треугольной матрицами. Методы прямой и обратной подстановки. Решение линейных систем алгебраических уравнений
- •Метод исключения Гаусса без перестановки строк
- •5. Решение систем линейных уравнений с симметричными и положительно определенными матрицами. Разложение Холесского с внутренним произведением.
- •6. Разложение Холесского с внешним произведением и с поблочным вычислением матриц.
- •Доказательство теоремы Халецкого
- •7. Метод исключения Гаусса и lu-разложение. Понятие эквивалентности систем уравнений, понятие и состав элементарных операций.
- •8. Алгоритм исключения Гаусса без перестановки строк. Lu- и ldv-разложения.
- •9. Алгоритм исключения Гаусса при наличии вырожденных главных подматриц. Алгоритм с перестановкой строк или с выбором главного элемента.
- •10. Свойства и определения матричных и векторных норм. Теорема Коши – Шварца. Число обусловленности системы линейных уравнений. Геометрический смысл числа обусловленности. Матричная норма
- •Геометрический смысл плохо обусловленных и хорошо обусловленных матриц
- •11. Задачи приближения и интерполяции функций и эмпирических данных.
- •13. Формулы численного дифференцирования интерполяционным методом.
- •14. Формулы численного дифференцирования методом неопределенных коэффициентов.
- •15. Наиболее распространенные формулы численного дифференцирования.
- •16. Задачи и методы численного интегрирования. Квадратурные формулы.
- •Элементарные квадратурные формулы, полученные методом интерполяции
- •17. Численное интегрирование интерполяционными методами.
- •18. Численное интегрирование методом неопределенных коэффициентов.
- •Частные случаи
- •19. Квадратурные формулы Ньютона – Котеса.
- •20. Формулы прямоугольника, трапеций и Симпсона.
- •21. Ортогональные и ортонормальные системы функций и многочленов. Скалярное произведение. Ортогонализация произвольной системы линейно независимых функций. Формула Грама – Шмидта.
- •22. Квадратурные формулы Гаусса. Наиболее распространенные формулы.
- •23. Интегрирование быстро осциллирующих функций. Интегрирование функций на больших интервалах изменения аргумента.
- •24. Тригонометрическая интерполяция и дискретное преобразование Фурье.
- •25. Быстрое преобразование Фурье.
- •26. Задача наименьших квадратов. Прямой метод решения.
- •27. Задача наименьших квадратов. Решение методом qr-разложения.
- •28. Алгоритм qr-разложения. Ортогональные матрицы и матрицы плоского вращения.
- •29. Задача численного решения обыкновенных дифференциальных уравнений. Задача Коши и граничные задачи.
- •30. Решение задачи Коши с помощью формулы Тейлора.
- •31. Методы Рунге – Кутта. Формулы Эйлера и Адамса.
- •32.Конечно-разностные методы решения задачи Коши.
- •33. Явные формулы Адамса.
- •34. Решение задачи Коши методом неопределенных коэффициентов.
- •35. Решение систем обыкновенных дифференциальных уравнений методом Эйлера.
- •36. Определение градиента функции нескольких переменных.
- •Метод градиента
- •37. Матрица Якоби системы функций нескольких переменных.
- •38. Решение нелинейных уравнений методом простой итерации.
- •39. Решение нелинейных уравнений методом Ньютона.
- •46. Необходимые и достаточные условия минимума и максимума функции многих переменных. Необходимые и достаточные условия экстремума функции нескольких (двух) переменных
- •47. Форма функции многих переменных в окрестности точки седла.
- •48. Градиентный метод минимизации функции многих переменных.
- •49. Минимизация функции многих переменных методом Ньютона.
- •Применительно к задачам оптимизации
- •50. Формула и множители Лагранжа в задаче оптимизации
- •Описание метода
- •51. Производная по направлению и возможное направление спуска.
- •52. Обратные и некорректные задачи.
35. Решение систем обыкновенных дифференциальных уравнений методом Эйлера.
Метод Эйлера представляет собой аппроксимации производной разделенной разностью первого порядка.
Отсюда получим разностное уравнение:
– интервал интегрирования дифференциального уравнения.
Уравнение Эйлера и формулы Адамса определяется посредством приближения интеграла в интегральном уравнении, эквивалентном дифференциальному уравнению, с помощью соответствующих квадратурных формул.
Дифференциальное уравнение может быть представлено эквивалентным интегральным уравнением:
Задача заключается в построении квадратурной формулы для этого интервала.
Простейшая формула – формула прямоугольника.
Формула прямоугольника на интервале :
В этом случае имеет место формула Эйлера.
Точность формулы Эйлера имеет величину, пропорциональную квадрату шага дискретизации.
Более точная формула получится с помощью формулы трапеции:
Тогда расчетная формула принимает вид:
Эта формула является нелинейной по искомому значению функции в конце интервала.
Точность этой формулы имеет величину второго порядка .
На практике, чтобы преодолеть эту сложность, значение в конце интервала в правой части уравнения заменяется на значение функции по формуле Эйлера.
При этом, алгоритм решения задачи принимает вид:
цикл
Второй подход к решению этой проблемы основывается на итерациях по значению функции в конце интервалов.
цикл
На практике:
36. Определение градиента функции нескольких переменных.
Разложение функции нескольких переменных в ряд Тейлора
Введем вектор первых частных производных:
Этот вектор называется градиентом функции.
Введем матрицу вторых частных производных:
– матрица Гесса
Тогда ряд Тейлора в матричной форме можно записать в виде:
Вектор градиента в каждой точке x направлен по нормали к множеству уровня функции f, проходящего через эту точку.
Множеством уровня называется область значений x, при которых функция f(x) принимает некоторое значение.
В случае двух переменных множество уровня является кривой на плоскости.
Вектор градиента направлен в сторону возрастания функции.
Оптимизация заключается в нахождении максимального и минимального значения функции.
Задача минимизации стандартно записывается в виде:
Решение этой задачи:
Задача нахождения максимума:
Минимизируемая функция называется целевой функцией.
Точки минимума и максимума называются экстремальными точками.
Необходимое условие минимума гладкой функции без ограничения является равенство нулю ее градиента.
Имеет место система уравнений:
Решений может быть несколько, а могут и отсутствовать.
В точке минимума целевой функции матрица Гесса должна быть положительно определенной.
Матрица Гесса в точке x называется положительно определенной, если величина
Метод градиента
В этом методе используется итерационный алгоритм, в котором каждая новая точка
В этом случае на каждом шаге осуществляется движение в направлении антиградиента в точке, предшествующей точке.
Коэффициент называется шагом итерационного алгоритма.
В ряде случаев этот коэффициент уменьшается с номером роста числа итераций, а в ряде случаев представляет собой фиксированную постоянную величина.
Основное условие:
При малой величине шага велико число итераций или, по-другому, итерационный алгоритм имеет низкую скорость сходимости.
При большой величине шага итерационный алгоритм может оказаться неустойчивым, при этом он не сходится к решению задачи.
Другая проблема применения градиентного метода возникает в случае, если целевая функция имеет овражный тип (если множество ее уровней имеет вытянутый характер).
Чтобы устранить этот недостаток используем алгоритмы, представляющие:
Вектор должен принадлежать множеству направления убывания функции.
При выборе шага, как в градиентом методе, так и в методе возможных направлений используется одномерная задача минимизации. Осуществляется задача минимизации целевой функции:
Одномерная минимизация – метод золотого сечения, метод Фибоначчи.