- •Численные методы решения задач строительства
- •Часть 1
- •Предисловие
- •В ведение
- •Общие сведения о вычислительном эксперименте и математическом моделировании
- •Численные методы.
- •Погрешности вычислений
- •Понятия точности, устойчивости и сходимости при численном решении
- •Глава 1 Основные понятия матричного исчисления
- •1.1. Матрицы и векторы.
- •1.2. Матрицы специального вида
- •1.3. Действия над матрицами
- •1.4. Нормы матрицы и вектора
- •1.5. Функции ms Excel для операций над матрицами
- •Контрольные вопросы
- •Г лава 2. Численные методы решения нелинейных уравнений
- •2.1. Первый этап. Отделение корней
- •Второй этап. Этап уточнения корня
- •Iteration (итерация)- повторение, ре-зультат повторного применения какой-либо математической операции.
- •Метод половинного деления (бисекции)
- •Метод хорд
- •Метод Ньютона (метод касательных)
- •Модифицированный метод Ньютона
- •Реализация численных методов решения нелинейных уравнений средствами приложения ms Excel
- •Последовательность действий:
- •2.3.1. Решение нелинейных уравнений с использованием надстройки «Подбор параметра»
- •Последовательность действий
- •Контрольные вопросы
- •3.2. Прямые методы решения систем линейных алгебраических уравнений
- •3.2.1. Метод Гаусса
- •3.2.2. Метод прогонки
- •Алгоритм метода прогонки
- •3.3. Итерационные методы решения систем линейных алгебраических уравнений
- •3.3.1. Метод Якоби (простых итераций)
- •3.3.2. Метод Гаусса – Зейделя.
- •3.3.3. Условия сходимости итерационного процесса
- •3.5. Устойчивость решения слау относительно исходных данных (или обусловленность задач и вычислений)
- •3.6. Примеры решения слау с использованием электронных таблиц ms Excel
- •3.6.1. Реализация метода Гаусса
- •Последовательность действий
- •Прямой ход метода Гаусса.
- •3.6.2. Решение слау с помощью надстройки «Поиск решения»
- •Последовательность действий:
- •3.6.3. Реализация метода Якоби средствами приложения ms Excel
- •Последовательность действий
- •3.6.4. Реализация метода прогонки средствами приложения Excel
- •Последовательность действий
- •Контрольные вопросы
- •Г лава 4. Численное интегрирование
- •Алгоритм метода половинного шага.
- •4.1. Квадратурные формулы прямоугольников
- •4.2. Квадратурная формула трапеций
- •4.3. Квадратурная формула Симпсона
- •4.4. Реализация методов численного интегрирования средствами приложения Ms Excel
- •Последовательность действий:
- •Контрольные вопросы
- •Г лава 5. Аппроксимация
- •5.1. Задачи аппроксимации
- •5.2. Интерполирование функций
- •5.2.1. Постановка задачи интерполирования
- •5.2.2. Интерполяционная формула Лагранжа
- •5.3. Среднеквадратичное приближение функций
- •5.3.1. Постановка задачи
- •5.3.2. Метод наименьших квадратов
- •5.3.3. Линейная эмпирическая формула (линейная регрессия)
- •5.3.4. Коэффициент корреляции
- •5.3.5. Квадратичное (параболическое) приближение
- •5.3.6. Эмпирические формулы с двумя параметрами (метод выравнивания)
- •5.4. Решение задач аппроксимации с помощью электронных таблиц Excel
- •5.4.1. Построение уравнений регрессии методом наименьших квадратов с использованием надстройки «Поиск решения»
- •Последовательность действий
- •5.4.2. Построение линейной эмпирической формулы с использованием встроенных функций линейн и тенденция
- •Последовательность действий
- •Последовательность действий
- •Контрольные вопросы
- •Глава 6. Численные методы оптимизации
- •6.1. Общие сведения
- •6.1.1. Математическая модель задачи оптимизации
- •6.1.2. Классификация задач математического программирования
- •6.2. Постановка задачи оптимального проектирования
- •6.3. Задачи линейного программирования
- •6.3.1. Общая постановка задачи
- •6.3.2. Геометрический смысл системы линейных неравенств
- •Случай n проектных параметров.
- •6.3.3. Геометрический метод решения задач линейного программирования
- •Последовательность действий:
- •6.3.4. Симплекс-метод решения задач линейного программирования
- •Примеры задач линейного программирования в сфере проектирования и управления строительным производством
- •6.4.1. Задача об оптимальном плане выпуска продукции
- •6.4.2. Задача об оптимальном раскрое материалов (о минимизации отходов)
- •6.4.3. Задача о планировании смен на предприятии
- •6.4.4. Задача о покрытии местности при строительстве объектов
- •6.4.5. Транспортная задача
- •Задача о назначениях (проблема выбора)
- •6.5. Решение задач оптимизации с помощью ms Excel
- •6.5.1. Решение задачи планирования производства
- •Последовательность действий:
- •6.5.2. Решение транспортной задачи
- •Последовательность действий:
- •Контрольные вопросы
- •Литература
- •Глава 1 16
- •Глава 2. 27
- •Глава 3. 51
- •Глава 4. 86
- •Глава 5. 100
- •Глава 6. 125
3.5. Устойчивость решения слау относительно исходных данных (или обусловленность задач и вычислений)
Рассмотрим систему линейных алгебраических уравнений
,
Будем
считать, что det
A
0,
.
Матрица А и вектор правой части во многих случаях задаются приближенно. Они получены либо в процессе эксперимента, либо в процессе каких-то промежуточных расчетов, содержащих соответственно погрешности эксперимента либо погрешности округления.
Естественно встает вопрос, как эти погрешности (возмущения) исходных данных влияют на точность решения. Чтобы на него ответить, надо познакомиться с особой характеристикой матриц, которую называют обусловленностью [3].
Таким образом, обусловленность характеризует устойчивость решения системы относительно исходных данных
Введем еще одно определение: задача решения СЛАУ является корректной, если решение существует, единственно (detA0) и непрерывно зависит от исходных данных (матриц А и В), т.е. малым изменениям исходных данных соответствуют малые изменения решения задачи.
Прежде всего, оговорим различие между плохо обусловленной задачей и плохо обусловленными вычислениями.
Если задача плохо обусловлена, то никакие усилия, потраченные на организацию изощренных вычислений, не могут дать правильный ответ, исключая случайность. С плохо обусловленными задачами можно столкнуться при расчетах стержневых систем методами строительной механики, например,
при расчете рам методом перемещений, если два узла соединены очень жесткой частью конструкции;
или при расчете конструкции методом сил, если выбрать основную систему так, что перемещение в устраняемой связи, соответствующее приложенной в ней паре нагрузок, равно или меньше перемещений в других устраненных связях от этой же нагрузки.
Все плохо обусловленные вычисления являются результатом применения численно неустойчивых алгоритмов. Например, метод исключения Гаусса без выбора главного элемента может обладать таким недостатком.
У плохо обусловленной матрицы обратная матрица является неустойчивой, т.е. элементы обратной матрицы значительно изменяются при малом изменении элементов исходной матрицы.
Пример 3.7. Рассмотрим плохо обусловленную систему, записанную в матричном виде:
Решение этой системы х1=х2=х3=х4=1.
Если изменить правые части на 0,1 и принять их равными
то получим решение
.
Если
принять величину 1-го коэффициента в
1-ом уравнении равной 4,99 вместо 5, то
получим решение
.
Существенно изменится при этом и обратная матрица.
Следует отметить, что чем больше порядок системы, тем сильнее сказывается влияние небольших возмущений коэффициентов системы на ее решение.
Обусловленность матрицы (системы) является качественной характеристикой, хотя мы будем стараться оценить ее количественно. Существует несколько способов оценки обусловленности.
Например, обусловленность матрицы (системы) можно оценить с помощью величины, называемой мерой обусловленности (A):
где
–
норма матрицы А;
– норма обратной матрицы.
Число (A), часто обозначаемое cond A (от английского слова conditioned - «обусловленный»), служит также коэффициентом роста относительных погрешностей при неточном задании элементов матрицы А.
Чем больше (A) ,тем сильнее сказываются возмущения в исходных данных на решении системы линейных уравнений. Если число (A) велико, то система считается плохо обусловленной. Говорить о том, «что такое хорошо, а что такое плохо» в отрыве от контекста решаемой задачи почти бессмысленно, так как здесь могут играть роль размерность задачи, точность, с которой должно быть найдено ее решение, точность представления чисел в ЭВМ и т.п. Однако можно дать оценку снизу меры обусловленности. Число обусловленности (A) не может быть меньше 1. Матрица, а соответственно и система, будет хорошо обусловленной, если (A) стремится к единице.
Пример 3.8. Оценим обусловленность матриц А и В:
A
=
Решение:
Обратные матрицы равны:
=
Вычислим меры обусловленности. Для этого найдем нормы матрицы А:
Мера обусловленности (A) = 120,292=4,506 невелика и матрица А хорошо обусловлена.
Нормы матрицы В:
Мера обусловленности (B) = 218421=176841 очень большая и матрица В плохо обусловлена.
