
- •4. Модели неидеальных потоков
- •Параметры моделей. Неидеальное через идеальное как метод моделирования неидеальных потоков.
- •Простейшие модели. Ячеечная модель.
- •Системы, близкие к ячеечной модели.
- •Секционирование, перегородки.
- •Флуктуации и возмущающие воздействия. Связь. Устойчивость стационарных режимов в хт.
- •Общие проблемы науки (нелинейность, обратные связи).
- •Автокатализ и устойчивость. Затравка в биотехнологии. Проблемы экологии и устойчивость.
- •Устойчивость экосистем.
- •5. Оптимизация Теоретические вопросы.
- •Параллельно работающие аппараты ис. Первый порядок, необратимо, проскок – это потеря.
- •Метод золотого сечения (0.382, 0.618). Правило выбора направления и интервала неопределённости. Отбрасывание «лишней» из 4 точек. Правило останова.
- •Метод градиента (Ньютона-Рафсона, крутого восхождения-спуска). Численные частные производные. Ход процесса. Управление шагом поиска. Правило останова.
- •Экспериментальный поиск оптимума. Влияние ошибок измерений на выбор шага поиска. Применение планов 1 и 2 порядка. Применение аппроксимации полиномами.
- •Понятие об идентифицируемости как возможности определения искомых параметров модели и характеристик полученных оценок: однозначности и точности.
Параллельно работающие аппараты ис. Первый порядок, необратимо, проскок – это потеря.
Оптимальное распределение потока по параллельно работающим аппаратам. Это одна из задач, возникающих при оптимальном управлении.
Рис. 7.3. Схема распределения потока по аппаратам
Реакция 1-го порядка А → В проводится в n параллельно соединенных реакторах идеального смешения (рис. 7.3). Как оптимально распределить поток между аппаратами? Будем считать, что в общем случае объемы аппаратов V1, V2, …, Vn разные и что константы скорости реакции в различных аппаратах k1, k2, …, kn тоже разные (например, вследствие неодинаковой активности катализатора).
Естественно принять за критерий оптимальности сумму потерь вещества А, т. е. считать наилучшим такое распределение, при котором потери вещества А вследствие неполноты реакции минимальны.
В каждом i-м аппарате при расходе vi эти потери в единицу времени составляют vi*cAi; тогда для всех аппаратов можно записать:
Обозначим kiVi = ai. Величина ai характеризует относительную производительность i-го аппарата: чем больше эта величина, тем больше продукта может получиться в нем в единицу времени. Теперь можно записать:
Прежде чем применить к целевой функции (7.12) условие (7.5), обратим внимание на существующее в этой задаче ограничение типа равенства: сумма расходов через все аппараты равна общему расходу через систему:
Учтем,
что частная производная от этого
выражения по любому vi
равна
–1, поскольку v
–
постоянная, а под знаком суммы от vi
зависит
только один член, а именно vi
,
и частные производные от всех
остальных
членов равны 0. Тогда по теореме о
производной функции от функции для
производной по любому vi
любой
функции f
от
vn
будем
иметь:
При оптимальном распределении расход через каждый аппарат пропорционален относительной производительности этого аппарата. Чем больше аi , тем больше vi . Простое преобразование формулы (7.18) дает
При оптимальном распределении потока концентрации вещества на выходе из всех аппаратов одинаковы. Условие (7.19) позволяет просто осуществлять оптимальное регулирование распределения потока: концентрация вещества А на выходе из всех аппаратов должны быть одинаковой; если в каком-то аппарате она больше, чем
в остальных, расход из этого аппарата следует уменьшить, и наоборот, если сА меньше средней, расход надо увеличить.
Оптимальный режим достигается при равных выходных концентрациях: простое управление при разных константах скорости (катализ, температура, объем).
Численные методы. Аналитическую производную трудно, а чаще невозможно вывести: дискретность, край области, алгоритмическое задание критерия, громоздкость. Поэтому превалируют численные методы.
Простой перебор (варианты, включая Монте-Карло).
Сканирование (непрерывные функции, но не только).
Узлы. Одномерное сканирование. Управление шагом. Выбор интервала неопределенности. Правило останова
Поиск оптимума численными методами
Численные методы поиска применяют, во-первых, когда в точке экстремума отсутствуют производные. Так, изменение целевой функции может носить дискретный характер, например при сравнении разных вариантов оформления процесса, когда F меняется не непрерывно, а скачком от одного варианта к другому. Но производные в точке экстремума могут отсутствовать и у непрерывной функции. Как правило, это происходит, если экстремум расположен на краю области допустимых значений. На рис. 7.1 максимум лежит на краю области, в этой точке производная отсутствует. Имеется «производная слева», но она не равна нулю. В задачах оптимизации такую точку рассматривают как «законный» экстремум (в данном случае – максимум). Часто бывает и так, что целевая функция в точке экстремума дифференцируема, но она задана таким образом, что продифференцировать ее в общем виде не удается, вследствие чего приходится
обращаться к численным методам. Это обычно связано с тем, что функция задана не формулой, а алгоритмом вычисления при заданных значениях аргументов (факторов). Если бы не было и алгоритма, функция была бы невычислимой и следовало бы применить экспериментальную оптимизацию (см. разд. 7.4).
Наконец, иногда имеется принципиальная возможность записать и решить систему (7.5), но соответствующие вычисления столь громоздки, что численный метод оказывается проще.
В наиболее общем виде численные методы сводятся к тому, что вычисляется ряд значений F при различных значениях аргументов; сопоставление этих значений показывает, в каком направлении нужно двигаться в пространстве факторов, чтобы приблизиться к оптимуму.
Оптимизация перебором применяется, если число возможных вариантов конечно. Тогда достаточно рассчитать целевую функцию для всех этих вариантов и выбрать наибольшее (или наименьшее) значение. Например, мы можем рассчитать F для случаев протекания
процесса в аппаратах всех стандартизованных размеров и выбрать лучший вариант. Перебор легко осуществляется на компьютере, причем все варианты (например, нормали) могут быть заранее записаны в памяти машины.
Несмотря на крайнюю простоту метода, он часто оказывается чрезвычайно эффективным, поскольку возможности перебора для машины неизмеримо выше, чем для человека. Применение перебора позволяет найти такие варианты, до которых без компьютера дойти
практические невозможно.
Сканирование – метод, близкий к перебору, но применяемый к непрерывным функциям. Рассмотрим для примера одномерное сканирование – случай, когда ищется максимум функции от одного фактора (как я уже говорил, поиск минимума осуществляется точно
так же). Будем считать, что мы задались пределами изменения фактора х от а до b. Здесь а и b – ограничения, которые можно установить в любой реальной задаче: никогда не бывает так, что мы может задать любые, ничем не ограниченные значения х.
Таким образом имеется интервал [а, b], на котором мы хотим отыскать экстремум целевой функции; его называют интервалом неопределенности. При этом практически нам не нужно определять точку экстремума абсолютно точно. Достаточно сильно сузить интервал неопределенности. Например, если мы узнаем, что оптимальная температура, соответствующая максимуму целевой функции, заключена в пределах от 380 до 381 К, то большая точность не нужна. В промышленных условиях вряд ли удастся регулировать температуру с точностью выше 1 К.
Итак, в одномерном случае задача поиска экстремума сводится к сужению интервала неопределенности. Методом сканирования эта задача решается следующим образом. Выбираем целое число q - число значений целевой функции, которое придется рассчитывать.
Находим интервал Δx :
Откладываем от точки а до точки b интервалы Δх (рис. 7.4). Концы каждого интервала назовем узлами; на рис. 7.4 каждый узел обозначен крестиком.
Рис. 7.4. Поиск экстремума сканированием: a, b – границы интервала неопределенности
В каждом узле рассчитываем F(х) (см. точки на рис. 7.4). Теперь мы можем принять за максимум наибольшее из полученных значений – на рисунке это 4-я точка слева. К концу расчета интервал неопределенности δ составит 2Δх: истинный максимум может лежать
либо справа, либо слева от полученной наилучшей точки (штрихи на рис. 7.4). Таким образом,
Формула (7.21) определяет эффективность метода. При сканировании для достижения достаточно малого значения δ величина q должна быть велика. Метод малоэффективен, но удобен для первоначального исследования функции, поскольку дает возможность представить ее вид на всем отрезке, установить число экстремумов и их локализацию.
Переменный шаг. Унимодальность. Более эффективно сканирование с переменным шагом: сократив интервал неопределенности, мы продолжаем поиск внутри этого интервала, уменьшая в свою очередь Δх. Например, двигаясь на рис. 7.4 от а к b и дойдя до 5-й слева точки, можно двинуться в обратном направлении меньшими шагами; затем эту процедуру можно продолжить, снова двигаясь вправо и снова уменьшив шаги и т.д. Такой вариант часто называют методом тяжелого шарика (если ищется минимум, то движение точек по кривой функции похоже на скатывание шарика в ложбину, когда он раз за разом проскакивает нижнее положение, колеблясь около него и постепенно приближаясь к нему).
Многомерное сканирование. Метод неэффективен, но универсален. Направленный поиск. Обучение алгоритма. Сканированием можно исследовать функции более чем одного фактора. Так, участок на плоскости (факторное пространство для двух факторов) можно покрыть сетью узлов и таким образом исследовать поведение функции на этом участке. В принципе это воз-
можно в любом n-мерном пространстве, но по мере увеличения n резко растет число необходимых расчетов и падает эффективность метода.
Другие методы поиска более эффективны, но не обладают той универсальностью, которой отличается сканирование. Их эффективность связана с тем, что это методы направленного поиска, в которых не просто исследуется область факторного пространства, а
происходит продвижение в этом пространстве в сторону искомого экстремума. Уже описанное выше сканирование с переменным шагом означает направленность поиска: вблизи экстремума прекращается дальнейшее движение вдоль оси х и начинается сгущение точек около экстремума.
Направленность поиска требует соблюдения некоторых условий, ограничивающих применимость методов. Прежде всего направленный поиск дает надежный результат, если функция унимодальна.
Наиболее просто (хотя и не вполне строго) унимодальную функцию можно определить так. В допустимой области она имеет только один экстремум нужного знака (один максимум, если ищем максимум, или один минимум в противном случае). Например, на рис. 7.5 функция 1 унимодальна. Функция 2 унимодальна, если ищем максимум, и неунимодальна при поиске минимума (два минимума: при х = а и при х = b). Функция 3 неунимодальна.
Рис. 7.5. Графики унимодальных и неунимодальных функций
Глобальность.
Одномерная
и многомерная оптимизация. Методы
направленного поиска способны привести
в точку одного из экстремумов, но не
позволяют установить, единственный ли
это экстремум, а если известно, что не
единственный, то в какой экстремум мы
попали: глобальный (экстремальный для
всей области) или локальный (другие
точки могут оказаться выше в случае
максимума
или ниже для минимума). Если при решении задачи оптимизации появится подозрение, что мы встретились с неунимодальностью, можно грубо исследовать функцию сканированием и выделить область глобального экстремума.
Еще одно важное свойство функции F, учитываемое при выборе метода поиска, – это число факторов. Здесь различаются два основных случая. Первый, когда F зависит только от одного фактора, F = F(x): тогда говорят об одномерном поиске. Второй, когда факторов больше одного, – многомерный поиск. Причем почти все методы многомерного поиска принципиально применимы при любом числе факторов n > 1, тогда как при n = 1 используются иные, одномерные, методы. Лишь немногие методы, как, например, сканирование, применимы и для одномерного, и для многомерного поиска
Локальная минимизация. Обратная задача моделирования как частный случай оптимизации. Идентификация структурная и параметрическая. Модель состояния и модель наблюдения. (какая-то жесть, думаю, это не столь важная инфа:D)
Философия применения модели наблюдения как оболочки структурной модели состояния.
Интервал неопределённости. Шаг поиска. Точность. Правила останова.
Одномерная (однофакторная) оптимизация. Требования к критерию оптимизации: численная непрерывность и дифференцируемость, унимодальность.
Метод дихотомии. Ход процесса. Правило выбора направления и интервала неопределенности. Правило останова. Сходимость. Правило останова, связь с вариационным исчислением. Интервал неопределенности. Эффективность и число шагов. Ознакомление
Как и при описании сканирования, будем искать максимум на отрезке [а, b], показанном на рис. 7.6. Для этого разделим отрезок пополам – на рисунке точка л (левая). Рассчитаем значение F(л) в этой точке. Пока еще ничего нельзя сказать об экстремуме, кроме того, что он принадлежит нашему отрезку.
Рис. 7.6. График поиска максимума методом дихотомии
Выберем малое приращение фактора, равное ε, и поставим на отрезке правую точку п = л + ε. Рассчитаем F(п). Поскольку F(л) > F(п), как изображено на рис. 7.6, можно утверждать, что если F(x) унимодальна, то максимум находится в левой половине отрезка.
Теперь отбросим правую половину отрезка (на ней максимума нет). Для этого правый конец (точку b) перенесем в точку л и обозначим ее буквой b (такая операция переименования не вполне привычна для традиционной математики, но в алгоритмических языках она чрезвычайно распространена). На рис. 7.6 этот перенос показан стрелкой. Разумеется, при F(л) < F(п) в точку л мы перенесли бы точку а. Можно перенести конец отрезка и в точку п, но так как л и п близки, то это почти одно и то же.
После того как правый конец отрезка перенесен, задача вернулась к исходным условиям: задан отрезок от а до b, на котором нужно найти максимум. Поэтому проводится следующий цикл расчета, ничем не отличающийся от предыдущего, кроме значения b. Снова делим пополам отрезок, ставим вспомогательную точку на расстоянии ε, переносим в середину либо правый, либо левый конец. Такой алгоритм (расчет слагается из одинаковых циклов, различающихся лишь начальными условиями) называют итерационным.
В принципе итерации можно проводить до бесконечности: делить пополам все меньшие отрезки. Поэтому в любом итерационном алгоритме нужно задать правило останова, определяющее, когда можно прекращать расчет, считая, что полученная точность уже достаточна.
Например, можно остановить итерации, когда интервал неопределенности окажется не больше ε: