
- •1. Решение слпу с трехдиагональной матрицей методом прогонки.
- •2. Решение нелинейного уравнения методом хорд и методом Ньютона.
- •3. Модификации метода Ньютона для решения нелинейного уравнения. Метод секущих для нелинейного уравнения.
- •Метод хорд для нелинейного уравнения.
- •Упрощенный метод Ньютона.
- •Модификация метода Ньютона для системы двух уравнений.
- •4. Определение действительных корней алгебраического уравнения.
- •5. Определение комплексных корней алгебраического уравнения методом Лина.
- •6.Решение системы нелинейных уравнений методом Ньютона.
- •10.Численное решение задачи Коши для обыкновенного дифференциального уравнения методом Милна.
- •11.Численное решение краевой задачи для обыкновенного дифференциального уравнения методом конечных разностей.
- •12. Численное решение краевой задачи для обыкновенного дифференциального уравнения методом прогонки.
- •13. Численное решение задачи Дирихле для уравнения Лапласа методом сеток.
- •14. Численное решение смешанной задачи для дифференциального уравнения параболического типа методом сеток.
- •15. Численное решение смешанной задачи для дифференциального уравнения гиперболического типа методом сеток.
- •16. Задачи оптимизации. Основные понятия (проектные параметры, целевая функция). Постановка задачи. Основные типы задач оптимизации.
- •17. Одномерная задача оптимизации. Аналитическое решение и решение методом золотого сечения.
- •18. Одномерная задача оптимизации. Решение и решение методом Фибоначчи.
- •Одномерная задача оптимизации. Решение методом Пауэлла
- •Метод пауэлла
- •21.Многомерная задача оптимизации. Аналитическое решение и решение методом покоординатного спуска.
- •Метод покоординатного спуска
- •22.Многомерная задача оптимизации. Решение методом градиентного спуска.
- •Метод градиентного спуска
- •23. Многомерная задача оптимизации. Решение методом наискорейшего спуска.
- •Метод наискорейшего спуска
- •24.Задачи математического программирования. Решение методом штрафных функций.
- •25. Линейное программирование. Постановка задачи. Решение геометрическим методом.
- •26. Линейное программирование. Решение задачи симплекс-методом.
- •27.Линейное программирование. Решение задачи методом потенциалов.
- •28. Решение интегрального уравнения методом замены ядра уравнения на вырожденное.
- •29. Решение интегрального уравнения Фредгольма II рода методом Крылова-Боголюбова.
- •30. Решение интегрального уравнения Фредгольма II рода методом Бубнова-Галеркина.
- •Основа метода
- •31.Решение интегрального уравнения Фредгольма I рода методом регуляризации Тихонова.
- •Метод регуляризации Тихонова
23. Многомерная задача оптимизации. Решение методом наискорейшего спуска.
Минимум функции нескольких переменных. В одномерных задачах оптимизации целевая функция зависит лишь от одного аргумента. Однако в большинстве реальных задач оптимизации, представляющих практический интерес, целевая функция зависит от многих проектных параметров.
Минимум дифференцируемой функции многих переменных u= f(x1,x2,…,xn) можно найти, исследуя ее значения в критических точках, которые определяются из решения системы дифференциальных уравнений
.
Метод наискорейшего спуска
Выбирают
,
где все производные вычисляются при
,
и уменьшают длину шага
по мере приближения к минимуму функцииF
.
Для
аналитических функций F
иfiмалых
значений тейлоровское разложение
позволяет
выбрать оптимальную величину шага
(5)
где все производные вычисляются при . Параболическая интерполяция функции может оказаться более удобной .
Алгоритм
Задаются начальное приближение и точность расчёта
Рассчитывают , где
Проверяют условие останова:
Если
, то и переход к шагу 2.
Иначе
и останов.
24.Задачи математического программирования. Решение методом штрафных функций.
Метод штрафных функций. Решение задач математического программирования значительно более трудоемко по сравнению с задачами безусловной оптимизации. Ограничения типа равенств или неравенств требуют их учета на каждом шаге оптимизации. Одним из направлений в методах решения задач математического программирования является сведение их к последовательности задач безусловной оптимизации. К этому направлению относится, в частности, метод штрафных функций.
Сущность метода
состоит в следующем. Пусть f(x1,x2,…,xn)
- целевая функция, для которой нужно
найти минимум т
в ограниченной области D(
).
Данную задачу заменяем задачей о
безусловной минимизации однопараметрического
семейства функций
.
(2)
При этом дополнительную
(штрафную)
функцию (x)
выберем таким образом, чтобы при
решение вспомогательной задачи стремилось
к решению исходной или, по крайней мере,
чтобы их минимумы совпадали:
при
.
Штрафная функция
(x)
должна учитывать ограничения, которые
задаются при постановке задачи
оптимизации. В частности, если имеются
ограничения-неравенства вида
(j
= 1,2,…, J),
то в качестве штрафной функции можно
взять функцию, которая: 1) равна нулю во
всех точках пространства проектирования,
удовлетворяющих заданным
ограничениям-неравенствам; 2) стремится
к бесконечности в тех точках, в которых
эти неравенства не выполняются. Таким
образом, при выполнении ограничений-неравенств
функции f(x)
и F(x,)
имеют один и тот же минимум. Если хотя
бы одно неравенство не выполнится, то
вспомогательная целевая функция F(x,)
получает бесконечно большие добавки.
И ее значения далеки от минимума функции
f(x).
Другими словами, при несоблюдении
ограничений-неравенств налагается
«штраф». Отсюда и термин «метод штрафных
функций».
Теперь рассмотрим случай, когда в задаче оптимизации заданы ограничения двух типов - равенства и неравенства:
(3)
В этом случае в качестве вспомогательной целевой функции, для которой формулируется задача безусловной оптимизации во всем п-мерном пространстве, принимают функцию
.
(4)
Здесь взята такая
штрафная функция, что при выполнении
условий (3) она обращается в нуль. Если
же эти условия нарушены (т. е.
,
hj(x)
< 0 и signhj(x)
= -1), то штрафная функция положительна.
Она увеличивает целевую функцию f(x)
тем больше, чем больше нарушаются
условия (3).
При малых значениях
параметра
вне области D
функция F(x,)
сильно возрастает. Поэтому ее минимум
может быть либо внутри D,
либо снаружи вблизи границ этой области.
В первом случае минимумы функций F(x,)
и f(x)
совпадают, поскольку дополнительные
члены в (4) равны нулю. Если минимум
функции F(x,)
находится вне D,
то минимум целевой функции f(x)
лежит на границе D.
Можно при этом построить последовательность
такую, что соответствующая последовательность
минимумов функции F(x,)
будет стремиться к минимуму функции
f(x).
Таким образом, задача оптимизации для целевой функции f(x) с ограничениями (3) свелась к последовательности задач безусловной оптимизации для вспомогательной функции (4), решение которых может быть проведено с помощью методов спуска. При этом строится итерационный процесс при 0.