Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Математические методы.doc
Скачиваний:
57
Добавлен:
30.07.2019
Размер:
7.16 Mб
Скачать

13.2.4. Сравнение методов безусловной однопараметрической оптимизации

С помощью теоретических выкладок можно показать, что такие методы аппроксимации и использования производных существенно эффективнее методов исключения интервалов. Однако результаты численных экспериментов, представленные в специальной литературе, не подтверждают преимущества ни одной из групп методов (исключения интервалов, квадратичной аппроксимации и с использованием производных) над остальными:

Если требуется высокая точность, то лучше использовать метод полиномиальной аппроксимации.

  • Если нужна высокая надежность алгоритма, то следует использовать метод золотого сечения.

Таким образом, комбинацию методов Пауэлла и золотого сечения следует рассматривать как наиболее универсальный подход.

13.3. Безусловная многопараметрическая оптимизация

13.3.1. Постановка задачи

W(x)min, xRN, при отсутствии ограничений на x,

где

x - вектор управляемых переменных размерности N,

W - скалярная целевая функция.

Пример 13.8. Использование методов оптимизации для анализа и обработки информации

В лесном деле часто возникают задачи обработки информации. Здесь можно выделить проблему определения параметров некоторой полуэмпирической модели на основе множества экспериментальных данных. Такого рода задачи регрессионного анализа путем несложных преобразований приводят к оптимизационным задачам, так как подбор значений параметров модели осуществляется в соответствии с критерием качества описания имеющихся данных с помощью этой модели.

Пусть

y=f(x,1...n), (13.5)

где

y - переменная, зависящая от независимой переменной x;

1...n - искомые параметры модели.

Для определения 1...n необходимо провести серию экспериментов, в каждом из которых задается значение независимой переменной x и регистрируется значение зависимой переменной y. Результатом серии из М экспериментов является множество пар (xi,yi), i=1,...,M. На основе полученной информации делается попытка подобрать значения 1...n таким образом, чтобы обеспечить хорошую точность описания экспериментальных данных с помощью функции f. Наиболее часто используемая на практике мера качества описания экспериментальных данных определяется критерием наименьших квадратов:

L(1...n) = [yi - f(xi, 1...n)]2  min. (13.6)

L(1...n) = 0 в случае совпадения экспериментальных данных с теоретической кривой. Следовательно, задачу описания данных можно рассматривать как задачу оптимизации, в которой требуется найти значения параметров 1...n, минимизирующие функцию L(1...n).

Установим уравнение регрессии для отражения роста в высоту древостоев с относительно быстрым ростом в молодом возрасте для II бонитета бонитетной шкалы К.Е.Никитина с использованием широко известной в лесном деле для описания процессов роста функции Бакмана

y = 1 x2 x3 lgx. (13.7)

В табл. 11.2 приведены результаты измерения средней высоты в зависимости от возраста древостоя.

Таблица 13.2

Результаты измерений

Пока-затель

Возраст, лет

X

10

20

30

40

50

60

70

80

90

100

110

y

5.0

9.0

12.6

15.4

17.8

19.7

21.3

22.7

23.8

24.9

25.9

Значение параметров 1...3 находятся путем минимизации суммы квадратов остатков (13.6).

Постановка задачи в математической форме выглядит следующим образом:

[yi - 1 xi2 xi3 lgxi]2  min, (13.8)

где

yi - результат измерения высоты насаждения в эксперименте с номером i.

Функция (13.8) представляет собой функцию трех переменных, которая подлежит минимизации путем соответствующего выбора независимых переменных 1...3. Если бы функция Бакмана точно описывала имеющиеся данные, то минимальное значение функции (13.8) равнялось бы нулю. Однако упрощения, принимаемые при построении уравнения, и наличие экспериментальных ошибок приводят к тому, что построенная модель лишь приближенно описывает процесс роста древостоя по высоте.

Методы безусловной оптимизации функции многих переменных отличаются относительно высоким уровнем развития по сравнению с другими методами нелинейного программирования. Условно их можно разбить на три широких класса по типу используемой информации:

  • методы прямого поиска, основанные на вычислении только значений целевой функции;

  • градиентные методы, в которых используются точные значения первых производных W(x);

  • методы второго порядка, в которых наряду с первыми производными используются также вторые производные функции W(x).

Ни один метод или класс методов не выделяется своей собственной высокой эффективностью при решении оптимизационных задач различных типов, т.е. универсальностью. Инженер вынужден приспосабливать применяемый метод к конкретным характеристикам решаемой задачи.

Рассматриваемые далее методы применимы также и к задачам максимизации, в которых целевую функцию следует умножить на -1.