
- •1. Решение слпу с трехдиагональной матрицей методом прогонки.
- •2. Решение нелинейного уравнения методом хорд и методом Ньютона.
- •3. Модификации метода Ньютона для решения нелинейного уравнения. Метод секущих для нелинейного уравнения.
- •Метод хорд для нелинейного уравнения.
- •Упрощенный метод Ньютона.
- •Модификация метода Ньютона для системы двух уравнений.
- •4. Определение действительных корней алгебраического уравнения.
- •5. Определение комплексных корней алгебраического уравнения методом Лина.
- •6.Решение системы нелинейных уравнений методом Ньютона.
- •10.Численное решение задачи Коши для обыкновенного дифференциального уравнения методом Милна.
- •11.Численное решение краевой задачи для обыкновенного дифференциального уравнения методом конечных разностей.
- •12. Численное решение краевой задачи для обыкновенного дифференциального уравнения методом прогонки.
- •13. Численное решение задачи Дирихле для уравнения Лапласа методом сеток.
- •14. Численное решение смешанной задачи для дифференциального уравнения параболического типа методом сеток.
- •15. Численное решение смешанной задачи для дифференциального уравнения гиперболического типа методом сеток.
- •16. Задачи оптимизации. Основные понятия (проектные параметры, целевая функция). Постановка задачи. Основные типы задач оптимизации.
- •17. Одномерная задача оптимизации. Аналитическое решение и решение методом золотого сечения.
- •18. Одномерная задача оптимизации. Решение и решение методом Фибоначчи.
- •Одномерная задача оптимизации. Решение методом Пауэлла
- •Метод пауэлла
- •21.Многомерная задача оптимизации. Аналитическое решение и решение методом покоординатного спуска.
- •Метод покоординатного спуска
- •22.Многомерная задача оптимизации. Решение методом градиентного спуска.
- •Метод градиентного спуска
- •23. Многомерная задача оптимизации. Решение методом наискорейшего спуска.
- •Метод наискорейшего спуска
- •24.Задачи математического программирования. Решение методом штрафных функций.
- •25. Линейное программирование. Постановка задачи. Решение геометрическим методом.
- •26. Линейное программирование. Решение задачи симплекс-методом.
- •27.Линейное программирование. Решение задачи методом потенциалов.
- •28. Решение интегрального уравнения методом замены ядра уравнения на вырожденное.
- •29. Решение интегрального уравнения Фредгольма II рода методом Крылова-Боголюбова.
- •30. Решение интегрального уравнения Фредгольма II рода методом Бубнова-Галеркина.
- •Основа метода
- •31.Решение интегрального уравнения Фредгольма I рода методом регуляризации Тихонова.
- •Метод регуляризации Тихонова
21.Многомерная задача оптимизации. Аналитическое решение и решение методом покоординатного спуска.
Минимум функции нескольких переменных. В одномерных задачах оптимизации целевая функция зависит лишь от одного аргумента. Однако в большинстве реальных задач оптимизации, представляющих практический интерес, целевая функция зависит от многих проектных параметров.
Минимум дифференцируемой функции многих переменных u= f(x1,x2,…,xn) можно найти, исследуя ее значения в критических точках, которые определяются из решения системы дифференциальных уравнений
.
Пример. При определении оптимальных размеров контейнера объемом 1 м3 задача свелась к минимизации его полной поверхности, которая в данном случае является целевой функцией
Решение. В соответствии с (1) получим систему
Отсюда находим x1 =x2 = 1 м, x3 = 1/(x1x2) = 1 м. Таким образом, оптимальной формой контейнера в данном случае является куб, длина ребра которого равна 1 м.
Метод покоординатного спуска
Пусть требуется
найти наименьшее значение целевой
функции u=
f(x1,x2,…,xn).
В качестве начального приближения
выберем в п-мерном
пространстве некоторую точку M0
с координатами
.
Зафиксируем все координаты функции и,
кроме первой. Тогда
-
функция одной переменной x1.
Решая одномерную задачу оптимизации
для этой функции, мы от точки M0
перейдем к точке
,
в которой функция и
принимает наименьшее значение по
координате x1
при фиксированных остальных координатах.
В этом состоит первый шаг процесса
оптимизации, состоящий в спуске по
координате x1.
Зафиксируем теперь
все координаты, кроме x2,
и рассмотрим функцию этой переменной
.
Снова решая одномерную задачу оптимизации,
находим ее наименьшее значение при
,
т.е. в точке
.
Аналогично проводится спуск по
координатамx3,x4,…,xn,
а затем процедура снова повторяется от
x1
до xn
и т.д. В результате этого процесса
получается последовательность точек
M0,M1,…,
в которых значения целевой функции
составляют монотонно убывающую
последовательность
.
На любом k-м
шаге этот процесс можно прервать, и
значение f(Mk)
принимается в качестве наименьшего
значения целевой функции в рассматриваемой
области.
Данный метод легко
проиллюстрировать геометрически для
случая функции двух переменныхz=f(x,y),
описывающей некоторую поверхность в
трехмерном пространстве. На рис. 1
нанесены линии уровня этой поверхности.
Процесс оптимизации в этом случае
проходит следующим образом. Точка
M0(x0,y0)
описывает начальное приближение. Проводя
спуск по координате х,
попадем в точку M1(x1,y0).
Далее, двигаясь параллельно оси ординат,
придем в точку M2(x1,y1)
и т.д.
Для функции двух переменных очевидно, что метод неприменим в случае наличия изломов в линиях уровня. Это соответствует так называемому оврагу на поверхности. Здесь возможен случай, когда спуск по одной координате приводит на «дно» оврага. Тогда любое движение вдоль любой координаты ведет к возрастанию функции, соответствующему подъему на «берег» оврага. Поскольку поверхности типа «оврага» встречаются в инженерной практике, то при использовании метода покоординатного спуска следует убедиться, что решаемая задача не имеет этого недостатка. Для гладких функций при удачно выбранном начальном приближении (в некоторой окрестности минимума) процесс сходится к минимуму.