- •Тема 1. Математические модели и численные методы 17
- •Тема 2. Задачи линейной алгебры 23
- •Тема 7. Методы оптимизации 59
- •Общие сведения Сведения об эумк
- •Методические рекомендации по изучению дисциплины
- •Рабочая учебная программа
- •Пояснительная записка Цель преподавания дисциплины
- •Задачи изучения дисциплины
- •1. Содержание дисциплины
- •2. Индивидуальные практические работы, их характеристика
- •3. Контрольные работы, их характеристика
- •Литература
- •4.1. Основная
- •4.2. Дополнительная
- •5. Перечень компьютерных программ, наглядных и других пособий, методических указаний и материалов и технических средств обучения
- •Протокол согласования учЕбной программы по изучаемой учебной дисциплине с другими дисциплинами специальности
- •1.2. Как исследуются физические явления и решаются задачи
- •1.3. Погрешность вычислений
- •1.4. Источники возникновения погрешности расчетов
- •1.5. Итерационные методы решения задач
- •Тема 2. Задачи линейной алгебры
- •2.1. Основные понятия и определения
- •2.2. Прямые методы решения слау
- •2.2.1. Метод Гаусса
- •2.2.2. Метод прогонки
- •2.2.3. Метод квадратного корня
- •2.3. Итерационные методы решения слау
- •2.3.1. Метод простой итерации
- •2.3.2. Метод Зейделя
- •2.3.3. Понятие релаксации
- •2.4. Нахождение обратных матриц
- •2.5. Собственные значения и собственные векторы матриц
- •2.5.1. Интерполяционный метод
- •2.5.2. Метод вращений Якоби
- •2.5.3. Итерационный метод
- •Контрольные вопросы
- •Тема 3. Аппроксимация функций
- •3.1. Зачем нужна аппроксимация функций?
- •3.2. Интерполяция
- •3.3. Многочлены и способы интерполяции
- •3.3.1. Интерполяционный многочлен Ньютона
- •3.3.2. Линейная и квадратичная интерполяции
- •3.3.3. Интерполяционный многочлен Лагранжа
- •3.3.4. Интерполяция общего вида
- •3.4. Среднеквадратичная аппроксимация
- •3.4.1. Метод наименьших квадратов
- •Контрольные вопросы
- •Тема 4. Вычисление производных и интегралов
- •4.1. Формулы численного дифференцирования
- •4.2. Формулы численного интегрирования
- •4.2.1. Формула средних
- •4.2.2. Формула трапеций
- •4.2.3. Формула Симпсона
- •4.2.4. Формулы Гаусса
- •Контрольные вопросы
- •Тема 5. Методы решения нелинейных уравнений
- •5.1. Как решаются нелинейные уравнения
- •5.2. Итерационные методы уточнения корней
- •5.2.1. Метод простой итерации
- •5.2.2. Метод Ньютона
- •5.2.3. Метод секущих
- •5.2.4. Метод Вегстейна
- •5.2.5. Метод парабол
- •5.2.6. Метод деления отрезка пополам
- •Контрольные вопросы
- •Тема 6. Решение обыкновенных дифференциальных уравнений
- •6.1. Задачи для обыкновенных дифференциальных уравнений
- •6.2. Основные положения метода сеток для решения задачи Коши
- •6.2.1. Явная схема 1-го порядка (метод Эйлера)
- •6.2.2. Неявная схема 1-го порядка
- •6.2.3. Неявная схема 2-го порядка
- •6.2.4. Схема Рунге – Кутта 2-го порядка
- •6.2.5. Схема Рунге – Кутта 4-го порядка
- •6.3. Многошаговые схемы Адамса
- •6.3.1. Явная экстраполяционная схема Адамса 2-го порядка
- •6.3.2. Явная экстраполяционная схема Адамса 3-го порядка
- •6.3.3. Неявная схема Адамса 3-го порядка
- •6.4. Краевая (граничная) задача
- •6.5. Численные методы решения краевых задач
- •6.5.1. Метод стрельбы
- •6.5.2. Метод конечных разностей
- •Контрольные вопросы
- •Методы оптимизации многопараметрических функций Тема 7. Методы оптимизации
- •7.1. Постановка задач оптимизации, их классификация
- •7.2. Методы нахождения минимума функции одной переменной
- •7.2.1. Метод деления отрезка пополам
- •7.2.2. Метод золотого сечения
- •7.2.3. Метод Фибоначчи
- •7.2.4. Метод последовательного перебора
- •7.2.5. Метод квадратичной параболы
- •7.2.6. Метод кубической параболы
- •7.3. Методы нахождения безусловного минимума функции нескольких переменных
- •7.3.1. Классификация методов
- •7.4. Методы нулевого порядка
- •7.4.1. Метод покоординатного спуска
- •7.4.2. Метод Хука – Дживса
- •7.4.3. Метод Нелдера – Мида
- •7.5. Методы первого порядка
- •7.5.1. Метод наискорейшего спуска
- •7.5.2. Метод сопряженных градиентов Флетчера – Ривса
- •7.6. Методы второго порядка
- •7.6.1. Обобщенный метод Ньютона – Рафсона
- •7.7. Методы переменной метрики
- •7.7.1. Метод Дэвидона – Флэтчера – Пауэлла
- •7.8. Методы условной минимизации функций
- •7.8.1. Метод штрафных функций
- •7.8.2. Метод барьерных функций
- •Контрольные вопросы
- •Литература
- •Практический раздел Контрольные работы
- •Контрольная работа №1
- •Тема 1. Методы решения систем линейных алгебраических уравнений. Нахождение обратных матриц
- •Тема 2. Аппроксимация функций
- •Тема 3. Вычисление производных и определенных интегралов
- •Тема 4. Собственные значения и собственные векторы
- •Тема 5. Методы решения нелинейных уравнений
- •Тема 6. Решение задачи Коши для обыкновенных дифференциальных уравнений
- •Контрольная работа №2
- •Тема 7. Методы нахождения безусловного минимума
- •Тема 8. Методы нахождения условного минимума
2.5. Собственные значения и собственные векторы матриц
Собственными значениями квадратной матрицы A называют числа , удовлетворяющие соотношению
Ax=x, где x=[x1, x2, …, xn]T – вектор – столбец. (2.16)
Это соотношение может быть представлено в виде (A-E)x=0, где E – единичная матрица. Матрица
D=A-E =
,
называется характеристической матрицей матрицы A.
Собственные значения матрицы A находят как корни характеристического уравнения
det D=0, (2.17)
которое является алгебраическим уравнением n-го порядка.
Вектор x={x1, x2, ... ,xn}, соответствующий некоторому собственному значению и удовлетворяющий системе уравнений (2.16) называется собственным вектором матрицы A.
2.5.1. Интерполяционный метод
В области расположения собственных значений задается n+1 произвольное значение 0, 1, ..., n. В каждой из выбранных точек i вычисляется определитель f()=det D=det (A-E). По таблице i, f(i) строится интерполяционный полином Pn(), который в силу единственности будет характеристическим. Теперь для нахождения собственных значений необходимо найти n корней алгебраического уравнения Pn()=0, что можно сделать одним из методов нахождения корней нелинейных уравнений. В этом случае метод не требует вычисления определителя на каждой итерации. Однако здесь задача усложнена тем, что среди собственных значений часто встречаются кратные.
Отметим некоторые свойства собcтвенных значений для частных типов исходной матрицы.
1. Все собственные значения симметричной матрицы действительны.
2. Если собственные значения матрицы действительны и различны, то соответствующие им собственные векторы ортогональны и образуют базис рассматриваемого пространства. Следовательно, любой вектор в данном пространстве можно выразить через совокупность линейно независимых собственных векторов.
3. Если две матрицы A и B подобны, т. е. они связаны соотношением
B=P-1AP (2.18)
то их собственные значения совпадают. Преобразование подобия (2.18) можно использовать для упрощения исходной матрицы, а задачу о вычислении ее собственных значений свести к аналогичной задаче для более простой матрицы. Очевидно, самым лучшим упрощением исходной матрицы A было бы приведение ее к треугольному виду. Определитель треугольной матрицы равен произведению ее диагональных элементов, поэтому характеристический многочлен в этом случае имеет вид
(b11 - ) (b22 - ) ... (bnn - )=0.
Таким образом, собственные значения треугольной матрицы равны ее диагональным элементам. То же самое относится и к диагональной матрице.
2.5.2. Метод вращений Якоби
Метод вращений Якоби применяется только для симметричных матриц A (A=AT) и решает полную проблему собственных значений и собственных векторов таких матриц. Метод основан на приведении действительной симметричной матрицы A к диагональной D путем преобразования подобия D=T-1AT, где T-1 – обратная матрица, а поскольку для симметричных матриц A матрица преобразования подобия T является ортогональной (T-1=TT), то D=TTAT, где TT – транспонированная матрица. Диагональные элементы матрицы D будут собственными значениями исходной матрицы A, а столбцы матрицы T будут являться соответственно собственными векторами. Матрица T находится как предел бесконечного произведения элементарных матриц вращения T=T1T2T3 ... . Алгоритм метода следующий:
Для известной на s-й итерации матрицы A(s) (A(0)=A) выбирается максимальный по модулю недиагональный элемент akm(s) матрицы A(s) (akm(s)=max|aij(s)|, i<j). Находится такая ортогональная матрица T(s), чтобы в результате преобразования подобия A(s+1)=T(s)TA(s)T(s) произошло обнуление элемента akm(s+1) матрицы A(s+1). В качестве ортогональной матрицы выбирается матрица вращения T(s) представляющую собой единичную матрицу в которой элементы tkm(s)=–sinφ(s), tmk(s)=sinφ(s), tkk(s)=cosφ(s), tmm(s)=cosφ(s), где угол вращения φ(s) определяется из условия akm(s+1)=0:
φ(s)=1/2*arctg(2akm(s)/(akk(s)–amm(s))), если akk(s)≠amm(s),
φ(s)=π/4, если akk(s)=amm(s).
Затем вычисляется матрица A(s+1)=T(s)TA(s)T(s). Процесс продолжается до тех пор, пока все недиагональные элементы матрицы A не станут по модулю меньше заданной точности ε:|aij| < ε, i < j. Отметим, что на каждой итерации выполняется соотношение a2kk(s+1)+a2mm(s+1)=a2kk(s)+a2mm(s)+2akm(s), т. е. сумма квадратов диагональных элементов на каждой итерации увеличивается. Соответственно на эту же величину уменьшается и сумма квадратов недиагональных элементов, откуда и следует сходимость к диагональной матрице. Элементы, которые однажды обратились в нуль, при последующих итерациях могут стать ненулевыми.
