- •Содержание
- •Введение
- •Глава 1 методы оценки погрешностей
- •Этапы решения прикладной задачи и классификация ошибок
- •Погрешности
- •Оценка погрешностей результатов при выполнении операций над приближенными числами
- •Источники погрешностей
- •Практическая работа №1
- •Глава 2 методы решения систем линейных уравнений
- •Общая характеристика методов решения линейных систем
- •Прямые методы решения систем линейных уравнений
- •Метод обратной матрицы
- •Формулы Крамера
- •Метод Гаусса
- •Итерационные методы решения систем линейных алгебраических уравнений
- •Метод простых итераций
- •Метод Зейделя
- •Вопросы для самоконтроля:
- •Практическая работа № 2
- •Глава III приближенные методы решения нелинейных уравнений с одним неизвестным
- •Вводные замечания
- •Итерационные методы решения нелинейных уравнений Метод бисекции (метод половинного деления)
- •Метод хорд
- •Метод касательных (метод Ньютона)
- •Метод простой итерации
- •Методы решения систем нелинейных уравнений
- •Метод простой итерации
- •Метод Ньютона
- •Вопросы для самоконтроля:
- •Практическая работа №3
- •Глава IV интерполирование функций
- •Постановка задачи. Вводные замечания
- •Интерполяционный многочлен Лагранжа
- •Интерполяционные многочлены Ньютона
- •Точность интерполяции
- •Метод наименьших квадратов
- •Вопросы для самоконтроля:
- •Практическая работа № 4
- •Глава V численное дифференцирование и интегрирование
- •5.1 Аппроксимация производных
- •5.2 Численное интегрирование.Постановка задачи. Вводные замечания
- •5.3 Методы прямоугольников и трапеций
- •Формула Симпсона
- •Вопросы для самоконтроля:
- •Практическая работа №5
- •Глава VI численное решение задачи коши для дифференциальных уравнений первого порядка
- •6.1 Постановка задачи. Вводные замечания
- •6.2 Задача Коши.Метод Эйлера
- •Метод Рунге-Кутта
- •Вопросы для самоконтроля:
- •Практическая работа № 6
- •Глава VII методы оптимизации
- •7.1 Постановка задачи. Вводные замечания
- •7.1 Метод «Золотое сечение»
- •7.1 Многомерная оптимизация
- •Метод покоординатного спуска
- •Метод градиентного спуска
- •Вопросы для самоконтроля:
- •Практическая работа №7
- •Примерный итоговый тест по курсу Часть a
- •Примерная контрольная работа по курсу
- •Литература
Глава VII методы оптимизации
7.1 Постановка задачи. Вводные замечания
Оптимизация - процесс выбора наилучшего варианта из всех возможных. В процессе решения задачи оптимизации обычно необходимо найти оптимальные значения параметров, определяющих данную задачу. Их называют проектными параметрами. Выбор оптимального решения или сравнения двух альтернативных решений проводится с помощью некоторой зависимой величины, определяемой проектными параметрами. Эта величина называется целевой функцией. Если целевая функция зависит от одного проектного параметра, то мы имеем одномерную задачу оптимизации.
Цель одномерной оптимизации – определение минимума (или максимума) функции одной переменной, заданной на интервале изменения аргумента. Предположим, что функция на отрезке унимодальная, т. е. на данном отрезке она имеет только один минимум.
Процесс
решения задачи состоит в последовательном
сужении интервала изменения параметра,
называемого интервалом неопределенности.
В начале процесса оптимизации его длина
равна
,
а к концу она должна стать менее заданного
допустимого значения
.
7.1 Метод «Золотое сечение»
При
построении процесса оптимизации
стараются сократить объем вычислений
и время поиска. Одним из наиболее
эффективных методов является метод
золотого сечения. Он состоит в построении
последовательности отрезков
,
,
…, стягивающихся к точке минимума
функции. На каждом шаге, за исключением
первого, вычисление значения функции
производится один раз в точке, называемой
золотым сечением. Золотое сечение
интервала выбирается так, чтобы отношение
длины большего отрезка
к длине всего интервала
равнялось отношению длины меньшего
отрезка
к длине большего отрезка
:
,
Из этого соотношения можно найти точку деления:
Так как нас интересует только положительное решение, то
Отсюда
Поскольку заранее неизвестно в какой последовательности ( и или и ) делить интервал неопределенности, то рассматривают внутренние точки, соответствующие двум этим способам деления.
Точки и выбирают с учетом полученных значений частей отрезка. В данном случае:
После
первого шага оптимизации получается
новый интервал неопределенности
.
Точка
делит этот отрезок в требуемого отношении,
т. е.
Вторая точка выбирается на таком же расстоянии от левой границы отрезка, т.е.
И снова интервал неопределенности уменьшается до величины
Используя
полученные соотношения, можно записать
координаты точек деления
и
на отрезке
на
шаге:
При этом длина интервала неопределенности равна:
Процесс оптимизации заканчивается при выполнении условия
7.1 Многомерная оптимизация
В большинстве реальных задач оптимизации, целевая функция зависит от многих проектных параметров.
Метод покоординатного спуска
Пусть
требуется найти наименьшее значение
целевой функции u=f(x1,
x2,
…, xn).
В качестве начального приближения
выберем в n-мерном
пространстве некоторую точку M0с
координатами
.
Зафиксируем все координаты функции u,
кроме первой. Тогда
‑
функция одной переменной
.
Решая одномерную задачу оптимизации
для этой функции, мы от точки M0переходим
к точке
,
в которой функция u
принимает наименьшее значение по
координате
при фиксированных остальных координатах.
В этом состоит первый шаг процесса
оптимизации, состоящий в спуске по
координате
.
Зафиксируем
теперь все координаты, кроме
и рассмотрим функцию этой переменной
.
Снова решая одномерную оптимизацию,
находим ее наименьшее значение при
,
т.е. в точке
.
Аналогично проводится спуск по координатам
,
а затем процедура снова повторяется от
до
и т.д. в результате этого процесса
получается последовательность точек
в которой значения целевой функции
составляют монотонно убывающую
последовательность
.
На
любом k-шаге
этот процесс можно прервать, и значение
принять в качестве наименьшего значения
целевой функции. Таким образом, метод
покоординатного спуска сводит задачу
о нахождении наименьшего значения
функции многих переменных к многократному
решению одномерных задач оптимизации
по каждому проектному параметру.
Здесь важным является вопрос о сходимости процесса.
