
- •Понятие оптимизации.
- •Основные задачи оптимизации в электроэнергетике.
- •Степени свободы электроэнергетической системы.
- •Допустимый и оптимальный режимы.
- •Применение метода множителей Лагранжа при решении задач оптимизации в электроэнергетике.
- •6. 7. Определение оптимального распределения нагр-и между тэс методом множителей Лагранжа. Относительные приросты тэс
- •6. 7. Определение оптимального распределения нагрузки между тэс методом множителей Лагранжа. 7.Относительные пр-ты тэс
- •8. 9. Наивыгоднейшее распределение нагрузки между тэс без учета потерь активной мощности. 9. Физический смысл равенства относительных приростов
- •-10. 11. Определение оптимального распределение нагрузки в энергосистеме с гэс и тэс методом множителей Лагранжа
- •12. Размерность и физический смысл множителей Лагранжа в задачах оптимизации распределения нагрузки в энергосистеме.
- •13. Оптимальное распределение нагрузки при постоянном напоре гэс и структурная схема алгоритма поиска данного распределения.
- •-14.Оптимальное распределение нагрузки при переем. Напоре гэс
- •17. 18. Оптимизация режима с учетом потерь активной мощности при передаче. Метод линейных коэффициентов токораспред-я.
- •19. Формулировка задачи оптимизации режима энергосистемы с позиций нелинейного программирования.
- •20. Основные определения
- •21. 22. 23. 24. Применение методов возможных направлений для поиска экстремума целевой функции при решении задач оптимизации в электроэнергетике
- •21. 22. 23. 24. Применение методов возможных направлений для поиска экстремума целевой функции при решении задач оптимизации в электроэнергетике
- •25. Метод оптимизации при постоянной длине шага
- •26. Применение метода наискорейшего спуска при решении задач оптимизации в электроэнергетике
- •27. Способ вычисления оптимальной длины шага вдоль заданного направления спуска при решении задач оптимизации в электроэнергетике
- •28. 29. Применение метода покоординатной оптимизации в электроэнергетике. 29.Внешний и внутренний циклы метода
- •30. 31. 32.Применение градиентных методов оптимизации в электроэнергетике. 31.Критерии сходимости. 32.Градиентный метод в сочетании с методом наискорейшего спуска
- •2. 30. 31. 32.Применение градиентных методов оптимизации в электроэнергетике. 31.Критерии сходимости. 32.Градиентный метод в сочетании с методом наискорейшего спуска
- •32.Градиентный метод в сочетании с методом наискорейшего спуска.
- •33. Применение градиентных методов оптимизации в электроэнергетике.
- •34.Метод проектирования градиента
- •35. 36. Учет ограничений в форме равенств при решении задач оптимизации в электроэнергетике. 36. Приведенный градиент
- •2. 35. 36. Учет ограничений в форме равенств при решении задач оптимизации в электроэнергетике. 36. Приведенный градиент
- •37. Учет ограничений в форме неравенств при решении задач оптимизации в электроэнергетике.
- •38. Применение метода штрафных функций при решении задач оптимизации в электроэнергетике.
- •39. 40. 41.42 Оптимизация режима электроэнергетической системы методом Ньютона. 40. Матрица Гессе. 41. Геометрическая интерпритация аппроксимации целевой фун-ии.
- •2_39. 40. 41. 42. Оптимизация режима электроэнергетической системы методом Ньютона. 40. Матрица Гессе. 41. Геометрическая интерпритация аппроксимации целевой фун-ии.
- •3__39. 40. 41. 42. Оптимизация режима электроэнергетической системы методом Ньютона. 40. Матрица Гессе. 41. Геометрическая интерпритация аппроксимации целевой фун-ии.
- •43. Комплексная оптимизация режимов энергосистемы
- •43.2 Комплексная оптимизация режимов энергосистемы
- •1. Уравнение цели .
- •44. 45. Применение метода приведенного градиента для опт. Режима электрической сети. 45.Оптимизация модулей и фаз узловых напряжений при наличии ирм в нагрузочных узлах.
- •46.47.Применение метода приведенного градиента для оптим. Режима электрической сети. 47.Оптимизация коэффициента трансформации в центре питания распределительной сети.
38. Применение метода штрафных функций при решении задач оптимизации в электроэнергетике.
Для
решения задачи отыскания экстремума
целевой функции F
(x,y)
в допустимых областях Dy
и
Dz
рассматривается
новая функция
,
которая в отличие от F(x,у)
определена в пространстве зависимых
переменных при
и
(где
рассматриваются в виде переменных,
зависимых от x
и у). Это свойство новой функции и
достигается за счет введения штрафных
функций Ш(y)
и
Ш(z),
подчиняющихся
условиям:
.
Эти
условия означают следующее: если взята
некоторая точка хk
так,
что соответствующие ей зависимые
переменные yk
и zk
удовлетворяют
ограничениям
и
,
то штраф равен нулю, в противном случае
накладывается штраф в виде некоторой
положительной добавки к исходной
функции F(x,у).
Чем существенней отклонение от
допустимой области, тем больше величина
штрафа. А так как методы возможных
направлений в этом случае основываются
на построении такой траектории х°,
х1,...,
хk,
в которой Wk<Wk-1,
то
при надлежащем выборе функции штрафа
движение всегда будет происходить
в сторону допустимой области.
Штрафные
функции должны удовлетворять двум
условиям: 1) при их использовании не
должны появляться новые локальные
минимумы и абсолютный минимум функции
W
должен
совпадать с относительным минимумом
исходной целевой функции или быть
достаточно близким ему; 2) функция штрафа
должна возрастать при увеличении степени
нарушения ограничения. Способ задания
квадратичной штрафной функции вида
,
где
,
–
величины, характеризующие степень
нарушения соответствующих ограничений.
Коэффициенты
штрафа
и
имеют
смысл коэффициентов приведения штрафа
к размерности целевой функции. Выбор
коэффициента штрафа существенно влияет
на сходимость итерационного процесса
и точность отыскания минимума целевой
функции. Чем больше величина
,
тем круче растет функция W
вне
области D
и
тем заметнее функция W
приобретает
свойства «овражности». Чаще всего при
овражных функциях удовлетворительная
сходимость не обеспечивается. Коэффициент
штрафа влияет и на траекторию спуска.
39. 40. 41.42 Оптимизация режима электроэнергетической системы методом Ньютона. 40. Матрица Гессе. 41. Геометрическая интерпритация аппроксимации целевой фун-ии.
Преимущество
метода Ньютона заключается в том, что
количество итерационных шагов
невелико. Как и во всяком итерационном
методе, расчет начинается с задания
некоторой исходной точки
,
для которой можно вычислить значение
функции
.
Аппроксимируем в точке
зависимость f(x)
некоторой
другой функцией
путем разложения в ряд f(x)
и
сохранения членов, содержащих вторые
производные:
(1).
Т
акая
аппроксимация соответствует замене
исходной функции f(x)
параболой
,
совпадающей
в точке
по значениям первой и второй производных
(рис. 5-10). Если обозначить через
величину отклонения от
,
то вместо (1) можно записать
(2).
Найдем
такое значение приращения
,
которое
обращает в минимум
.
Для этого приравняем нулю производную
от (2):
,
откуда
.
Следовательно, точку
экстремума
можно
найти из условия
.
Если
в этой точке производная
существенно
отличается от нуля, то эту точку следует
рассматривать как исходную и повторить
вычисления. В общем виде рекуррентное
выражение итерационного процесса
можно представить как
.
Таким образом, суть метода заключается в том, что исходная функция заменяется полиномом второй степени – параболой – и затем отыскивается ее минимум. В новой точке аппроксимация повторяется, отыскивается ее минимум и т. д.