![](/user_photo/2706_HbeT2.jpg)
- •Общие сведения Сведения об эумк
- •Методические рекомендации по изучению дисциплины
- •Рабочая учебная программа Учреждение образования «Белорусский государственный университет информатики и радиоэлектроники»
- •Пояснительная записка
- •Содержание дисциплины
- •1. Название тем лекционных занятий, их содержание, объем в часах Наименование тем, их содержание
- •2. Перечень тем ипр
- •Перечень тем контрольных работ
- •4. Литература
- •4.1 Основная
- •4.2 Дополнительная
- •5. Перечень компьютерных программ, наглядных и других пособий, методических указаний и материалов и технических средств обучения
- •6. Учебно-методическая карта дисциплины содержание дисциплины
- •Теоретический раздел Вступление
- •Дискретная и вычислительная математика
- •Часть 1. Вычислительная математика Математическое моделирование и вычислительный эксперимент
- •1 Решение систем линейных алгебраических уравнений
- •1.1 Точные методы
- •1.1.1 Метод Гаусса
- •1.1.2 Связь метода Гаусса с разложением матрицы на множители. Теорема об lu разложении
- •Теорема об lu разложении
- •1.1.3 Метод Гаусса с выбором главного элемента
- •1.1.4 Метод Холецкого (метод квадратных корней)
- •1.2 Итерационные методы решений систем алгебраических уравнений
- •1.2.1 Метод Якоби (простых итераций)
- •1.2.2 Метод Зейделя
- •1.2.3 Матричная запись методов Якоби и Зейделя
- •1.2.4 Метод Ричардсона
- •1.2.5 Метод верхней релаксации (обобщённый метод Зейделя)
- •1.2.6 Сходимость итерационных методов
- •2 Плохо обусловленные системы линейных алгебраических уравнений
- •2.1 Метод регуляризации для решения плохо обусловленных систем
- •2.2 Метод вращения (Гивенса)
- •3 Решение нелинейных уравнений
- •3.1 Метод простых итераций
- •3.1.1 Условия сходимости метода
- •3.1.2 Оценка погрешности
- •3.2 Метод Ньютона
- •3.2.1 Сходимость метода
- •4 Решение проблемы собственных значений
- •4.1 Прямые методы
- •4.1.1 Метод Леверрье
- •4.1.2 Усовершенствованный метод Фадеева
- •4.1.3 Метод Данилевского
- •4.1.4 Метод итераций определения первого собственного числа матрицы
- •5 Задача приближения функции
- •5.1 Интерполяционный многочлен Лагранжа
- •5.1.1 Оценка погрешности интерполяционного многочлена
- •5.2 Интерполяционные полиномы Ньютона
- •5.2.1 Интерполяционный многочлен Ньютона для равноотстоящих узлов
- •5.2.2 Вторая интерполяционная формула Ньютона
- •5.3 Интерполирование сплайнами
- •5.3.1 Построение кубического сплайна
- •5.3.2 Сходимость процесса интерполирования кубическими сплайнами
- •5.4 Аппроксимация функций методом наименьших квадратов
- •6 Численные методы решения задачи Коши для обыкновенных дифференциальных уравнений и систем дифференциальных уравнений
- •6.1 Семейство одношаговых методов решения задачи Коши
- •6.1.1 Метод Эйлера (частный случай метода Рунге-Кутта)
- •6.1.2 Методы Рунге-Кутта
- •6.2 Многошаговые разностные методы решения задачи Коши для обыкновенных дифференциальных уравнений
- •6.2.1 Задача подбора числовых коэффициентов aк , bк
- •6.2.2 Устойчивость и сходимость многошаговых разностных методов
- •6.2.3 Примеры m-шаговых разностных методов Адамса для различных m
- •6.3 Численное интегрирование жестких систем обыкновенных дифференциальных уравнений
- •6.3.1 Понятие жесткой системы оду
- •6.3.2 Некоторые сведения о других методах решения жестких систем
- •6.3.2.1 Методы Гира
- •6.3.2.2 Метод Ракитского(матричной экспоненты) решения систем оду
- •6.4 Краевые задачи для обыкновенных дифференциальных уравнений
- •6.5 Решение линейной краевой задачи
- •6.6 Решение двухточечной краевой задачи для линейного уравнения второго порядка сведением к задаче Коши
- •6.7 Методы численного решения двухточечной краевой задачи для линейного уравнения второго порядка
- •6.7.1 Метод конечных разностей
- •6.7.2 Метод прогонки (одна из модификаций метода Гаусса)
- •7 Приближенное решение дифференциальных уравнений в частных производных
- •7.1 Метод сеток для решения смешанной задачи для уравнения параболического типа (уравнения теплопроводности)
- •7.2 Решение задачи Дирихле для уравнения Лапласа методом сеток
- •7.3 Решение смешанной задачи для уравнения гиперболического типа методом сеток
- •Часть 2. Дискретная математика
- •1. Основные Элементы теории множеств
- •1.1 Элементы и множества
- •1.2 Задание множеств. Парадокс Рассела
- •1.3 Операции над множествами
- •1.4 Булеан множества
- •1.5 Представление множеств в эвм
- •Разбиения и покрытия
- •2 Отношения и функции
- •2.1 Прямое произведение множеств
- •Элементы комбинаторики
- •Теория конфигураций и теория перечисления
- •Размещения
- •Сочетания
- •3.1 Перестановки и подстановки
- •4 Элементы математической логики
- •5 Конечные графы и сети Основные определения
- •5.1 Матрицы графов
- •Матрица смежности Списки инцидентности
- •5.2 Достижимость и связность
- •5.3 Эйлеровы и гамильтоновы графы
- •5.4 Деревья и циклы
- •5.5 Алгоритмы поиска пути
- •Двунаправленный поиск
- •Поиск по первому наилучшему совпадению
- •Алгоритм Дейкстры
- •АлгоритмА*
- •Остовное дерево
- •Матрица Кирхгофа
- •5.6 Конечные автоматы
- •5.6 Элементы топологии
- •5.7 Метрическое пространство
- •Указания по выбору варианта
- •Контрольная работа № 2 Общие сведения
- •Квадратурная формула Гаусса
- •Указания по выбору варианта
- •Индивидуальные практические работы Индивидуальная практическая работа № 1 Общие сведения
- •Интерполяционный полином Лагранжа
- •Аппроксимация функций с помощью кубического сплайна
- •Приближение формулами Ньютона
- •Аппроксимация функций методом наименьших квадратов
- •Индивидуальная практическая работа № 2
1.2.4 Метод Ричардсона
Явный метод с переменным параметром t:
,
(1.21а)
называется методом Ричардсона.
1.2.5 Метод верхней релаксации (обобщённый метод Зейделя)
,
(1.21б)
где - числовой параметр.
Если матрица А - симметричная и положительно определена, то последний метод сходится при (0 < < 2). Последнюю формулу запишем в следующем виде:
,
(1.22)
где Е - единичная матрица.
Тогда для вычисления неизвестных хi (i= ) можно записать итерационную процедуру в виде:
.
(1.23)
Например, для х1 это будет такое выражение:
.
1.2.6 Сходимость итерационных методов
Рассмотрим систему Ax=B, где А – невырожденная действительная матрица.
Для решения системы рассмотрим одношаговый стационарный метод
,
(1.24)
при n=0,1,2….
Предположим, что задан начальный вектор решения. Тогда метод (1.24) сходится, если норма вектора
Теорема. Условие сходимости итерационного метода
Пусть А - симметричная положительно определенная матрица и выполнено условие D - 0.5tA > 0 (где t > 0). Тогда метод (1.24) сходится.
Следствие 1. Пусть А – симметричная и положительно определенная матрица с диагональным преобладанием, то есть:
,
при j=1,2,…,m. Тогда метод Якоби сходится.
Следствие 2. Пусть А - симметричная и положительно определенная матрица с диагональным преобладанием, тогда метод верхней релаксации сходится при (0< <2).
Проверяется, при каком - метод достигает заданной точности быстрее. В частности, при =1 метод верхней релаксации превращается в метод Зейделя, следовательно, при =1 метод Зейделя сходится.
Теорема. Итерационный метод (1.24) сходится при любом начальном векторе x0 тогда и только тогда, когда все собственные значения матрицы
по модулю меньше единицы.
2 Плохо обусловленные системы линейных алгебраических уравнений
Дана система линейных алгебраических уравнений
Ах=В. (2.1)
Если система плохо обусловлена, то это значит, что погрешности коэффициентов матрицы А и правых частей B или же погрешности их округления сильно искажают решение системы. В качестве примера рассмотрим систему
Решение этой системы
x1 1.981
x2 0.4735.
Оценим влияние погрешности правых частей на результат. Рассмотрим “возмущенную” систему с правой частью b* = (2.505 , 2.415) и решим эту систему:
x1* 2.877
x2* -0.4629.
Относительная погрешность правой части (в) = 0.005/2.51 0.28% привела к относительной погрешности решения (x*) =0.9364/1.981 47.3%.
Погрешность возросла примерно в 237 раз. Число обусловленности системы (2.1) приблизительно равна 237.
Подобные системы называются плохо обусловленными.
х1
а) х1
б)
х1
с)
1)
2)
3)
х2
х2 х2
Рисунок 2
а) система имеет единственное решение;
б) система не имеет решения;
с) система плохо обусловлена.
В случае с) малейшее возмущение системы сильно меняет положение точки пересечения прямых. Встаёт задача – какими методами можно решать эти системы.
Для оценки обусловленности системы вводят число обусловленности MА
.
Чем больше MА, тем система хуже обусловлена.
Свойства числа обусловленности:
1) МЕ =1;
2) MА 1;
3)
MА
,
где мах,
min
- соответственно максимальное и
минимальное собственные числа матрицы
А;
4) MАВ MА * MВ;
5) Число обусловленности матрицы А не меняется при умножении матрицы на произвольное число 0.
Найдем выражение для полной оценки погрешности решения системы.
Пусть в системе (2.1) возмущены коэффициенты матрицы А и правая часть В, т.е.
,
,
.
Теорема.
Пусть матрица
имеет обратную матрицу, и выполняется
условие
.
Тогда матрица
имеет обратную и справедлива следующая
оценка относительной погрешности:
.