- •4. Модели неидеальных потоков
- •Параметры моделей. Неидеальное через идеальное как метод моделирования неидеальных потоков.
- •Простейшие модели. Ячеечная модель.
- •Системы, близкие к ячеечной модели.
- •Секционирование, перегородки.
- •Флуктуации и возмущающие воздействия. Связь. Устойчивость стационарных режимов в хт.
- •Общие проблемы науки (нелинейность, обратные связи).
- •Автокатализ и устойчивость. Затравка в биотехнологии. Проблемы экологии и устойчивость.
- •Устойчивость экосистем.
- •5. Оптимизация Теоретические вопросы.
- •Параллельно работающие аппараты ис. Первый порядок, необратимо, проскок – это потеря.
- •Метод золотого сечения (0.382, 0.618). Правило выбора направления и интервала неопределённости. Отбрасывание «лишней» из 4 точек. Правило останова.
- •Метод градиента (Ньютона-Рафсона, крутого восхождения-спуска). Численные частные производные. Ход процесса. Управление шагом поиска. Правило останова.
- •Экспериментальный поиск оптимума. Влияние ошибок измерений на выбор шага поиска. Применение планов 1 и 2 порядка. Применение аппроксимации полиномами.
- •Понятие об идентифицируемости как возможности определения искомых параметров модели и характеристик полученных оценок: однозначности и точности.
Метод золотого сечения (0.382, 0.618). Правило выбора направления и интервала неопределённости. Отбрасывание «лишней» из 4 точек. Правило останова.
Пропорция золотого сечения (деления отрезка в среднем и крайнем отношении) определяется так. Отрезок длины l делится на две части m и l – m так, чтобы меньшая часть относилась большей, как большая ко всему отрезку:

Рис. 7.7. График поиска максимума методом золотого сечения
Рассмотрим опять отрезок [а, b], на котором нужно найти максимум (рис. 7.7). Поиск максимума начинаем с того, что делим отрезок слева и справа в соответствии с пропорцией золотого сечения и получаем точки л и п. Расстояние от а до л составляет 0,382 (b – а), от а до п 0,618(b – а). В этих точках рассчитаем значения F. Как и в методе дихотомии, здесь имеем две точки л и п, но расстояние между ними не мало и вероятность того, что точка экстремума попадет между ними, достаточно велика. Поэтому, например, если F(п) > F(л) (см. рис. 7.7), то нельзя сказать, в какой из трех частей отрезка окажется
максимум – он может быть и в средней части отрезка (левая штриховая линия на рисунке), и в правой (правая штриховая линия). Но в левой части (мы приняли, что функция унимодальна) максимума быть не может. Поэтому можно ее отбросить – перенести левый конец отрезка в точку л, назвав ее а (левая стрелка). Теперь задача как будто вернулась к исходной формулировке: найти максимум на отрезке [а, b]. Но на этом отрезке уже есть точка (точка п, см. рис. 7.7), в которой рассчитано значение функции, причем благодаря свойству (7.24) эта точка, отсекавшая от предыдущего большего отрезка справа ~38,2%, отсекает от нового, уменьшенного отрезка справа ~61,8%, т. е. и на новом отрезке она является точкой золотого сечения. Теперь, на новом этапе расчета мы можем назвать ее л (см. правую стрелку на рис. 7.7) и поставить на уменьшенном отрезке не две точки для расчета F, а только одну – правую (на рис. 7.7 обозначена
треугольником). Таким образом, на каждом этапе расчета, кроме самого первого, мы должны рассчитывать F только в одной точке, что повышает эффективность метода. В качестве правила останова можно воспользоваться формулой (7.22).
Эффективность метода определяется следующим образом. После двух первых расчетов F и после каждого последующего остающийся интервал неопределенности составляет 0,618 предыдущего. Тогда при q расчетах целевой функции
![]()
При q > 4 эффективность метода золотого сечения выше, чем метода дихотомии; при небольших q, порядка 10 – 20, эффективность обоих методов близка, но при q > 20 метод золотого сечения становится заметно эффективнее.
Таким образом, если не нужно очень точно фиксировать абсциссу оптимума, то можно пользоваться любым из этих методов. Если нужна высокая точность (или если каждый расчет громоздок), то предпочтительнее метод золотого сечения. Впрочем, при малых q часто целесообразно ограничиться сканированием.
Многомерная (многофакторная) оптимизация.
Классификация методов включает следующие основные альтернативы: градиентные и прямого поиска, управление шагом и направлением регуляризированное или стохастическое, без моделирования поведения целевой функции и с применением такового, но встречаются и более детализированные варианты.
Метод покоординатного спуска (Гаусса-Зейделя). Ход процесса. Управление шагом поиска. Правило останова.
Метод покоординатного спуска. Выбираем координаты начальной точки поиска х1Н и x2Н, т. е. те значения х1 и х2, от которых мы начнем искать оптимум, единичные приращения обоих факторов (шаги) Н1 и Н2, а также малые приращения факторов ε1 и ε2. Выбор всех этих величин определяется физическим смыслом задачи и той информацией о ней, которой мы располагаем заранее.

Рис. 7.8. График движения в пространстве факторов при покоординатном спуске
Рассчитываем значение F(x1Н , x2Н) в точке 1 (рис. 7.8). Далее, не меняя величины х2, начинаем двигаться вдоль оси х1, давая на каждом шаге этому фактору приращение H1 (или –Н1, в зависимости от того, при движении в какую сторону будет наблюдаться рост F ). На каждом шаге – в точках 2, 3, 4 и т. д. – проводится расчет F. Шаги продолжаются до тех пор, пока продолжается рост F. Неудачными будем считать те шаги, на которых получено значение F меньшее, чем на предыдущих шагах (на рисунке они обозначены крестиками). После первого неудачного шага (точка 6) возвращаемся в предыдущую точку (в данном случае в точку 5), фиксируем величину х1 и начинаем изменять х2, давая ему приращения Н2 или –Н2 (точки 7, 8, 9, 10 ).
Затем снова движемся вдоль оси х1 (точки 11, 12, 13 ), снова меняем направление (точки 14, 15 ) и т. д. На рис. 7.8 изображена ситуация, когда из точки 12 двигаться некуда: во всех окружающих точках (9, 13, 14, 15 ) значение F меньше, чем в данной. Это значит, что мы уже приблизились к максимуму и прежние крупные шаги из точки 12 переносят нас через него. Поэтому уменьшаем шаги (например, вдвое – см. точку 16 ) и продолжаем поиск уменьшенными шагами.
Уменьшение шага может производиться неоднократно. Но в тот момент, когда эти шаги оказываются меньше, чем соответственно ε1 и ε2, логично считать, что максимум зафиксирован достаточно точно и можно закончить расчет, приняв лучшую точку за оптимум.
Если факторов больше двух, то после движения вдоль осей х1 и х2 производится движение вдоль осей х3, х4 и т. д. и лишь затем снова начинается движение вдоль х1. В описанном варианте движение вдоль каждой оси осуществляется так же, как при сканировании.
Если нужна большая точность определения оптимальных значений xi, можно поступать и по-иному: например, организовывать такое движение, как поиск методом золотого сечения.
