
- •Ю.Ю. Герасимов, в.К. Хлюстов
- •Математические методы и модели в расчетах на эвм: применение в лесоуправлении и экологии
- •Часть 1. Вариационная статистика
- •Глава 1.
- •1.1. Общие положения
- •1.2. Основные понятия статистики
- •1.3. Основы теории вероятностей
- •1.3.1. Понятие случайной величины
- •1.3.2. Классическое и статистическое определения вероятности события
- •1.3.3. Основные теоремы теории вероятностей
- •1.4. Контрольные вопросы и задания
- •Глава 2.
- •2.1. Постановка задачи
- •2.2. Классификация и группировка вариант
- •2.3. Графическое представление вариационных рядов
- •2.4.1. Показатели центральной тенденции
- •2.4.2. Показатели вариации
- •2.4.3. Достоверность статистических показателей
- •2.4.4. Показатели скошенности и крутизны
- •2.5. Доверительный интервал
- •2.6. Контрольные вопросы и задания
- •Глава 3.
- •3.1. Постановка задачи
- •3.2. Нормальное распределение
- •3.3. Логнормальное распределение
- •3.4.2. Бета-распределение
- •3.5. Распределение Пуассона
- •3.6. Семейство кривых распределения Джонсона
- •3.7. Семейство кривых Пирсона
- •Контрольные вопросы и задания
- •Глава 4.
- •4.1. Постановка задачи
- •4.3. Сравнение эмпирического распределения с теоретическим (критерий "хи-квадрат")
- •4.5. Сравнение дисперсий двух эмпирических совокупностей
- •4.6. Сравнение частот взвешенных рядов по критерию
- •4.7. Использование пакетов прикладных программ
- •4.8. Контрольные вопросы и задания
- •Глава 5.
- •5.1. Постановка задачи
- •5.2. Однофакторный комплекс
- •5.3. Двухфакторный комплекс
- •5.4. Использование ms Excel для проведения дисперсионного анализа
- •5.4.1. Однофакторный дисперсионный анализ
- •5.4.2. Двухфакторный дисперсионный анализ без повторения
- •5.5. Контрольные вопросы и задания
- •Глава 6.
- •6.1. Постановка задачи
- •6.2. Коэффициент корреляции
- •6.3. Корреляционное отношение
- •6.4. Схема полного корреляционного анализа
- •6.5. Использование пакетов прикладных программ Вычисление коэффициента корреляции с использованием ms Excel
- •Контрольные вопросы и задания
- •Глава 7.
- •7.1. Постановка задачи
- •7.2. Статистический анализ одномерных моделей
- •Уравнение прямой линии
- •Уравнение гиперболы
- •Уравнение показательной кривой
- •Окончательный выбор типа уравнения регрессии
- •7.4. Множественная регрессия
- •7.5. Применение ms Excel для расчета регрессии
- •Часть 2. Исследование операций
- •Глава 8.
- •8.1. Общие положения
- •8.2. Основные понятия системного анализа
- •8.3. Основные понятия исследования операций
- •8.4. Постановка задач принятия оптимальных решений
- •8.5. Контрольные вопросы и задания
- •Глава 9.
- •9.1. Постановка задачи
- •9.2. Графическое решение задачи линейного программирования
- •9.3. Задача линейного программирования в стандартной форме
- •Преобразования неравенств
- •Преобразование неограниченных по знаку переменных
- •2.4. Основы симплекс - метода линейного программирования
- •9.5. Метод искусственных переменных
- •9.6. Анализ чувствительности в линейном программировании
- •9.7. Решение задач линейного программирования на эвм
- •9.8. Контрольные вопросы и задания
- •Глава 10.
- •10.1. Постановка задачи
- •10.2. Метод ветвей и границ
- •10.3. Рекомендации по формулировке и решению задач цп
- •10.4. Задачи оптимизации раскроя
- •XA 0, xB 0, k 0 - целые.
- •XA 0, xB 0, k 0 - целые.
- •10.5. Постановка задачи дискретного программирования
- •Решение задач целочисленного и дискретного программирования на эвм
- •10.7. Контрольные вопросы и задания
- •Глава 11.
- •11.1. Общие понятия
- •11.2. Практические рекомендации при постановке задач динамического программирования
- •11.3. Оптимальное распределение ресурсов
- •11.4. Оптимальное управление запасами
- •11.5. Оптимальная политика замены оборудования
- •11.6. Контрольные вопросы и задания
- •Глава 12.
- •12.1. Постановка задачи
- •12.2. Применение стохастического программирования
- •12.3. Метод статистического моделирования
- •12.4. Контрольные вопросы и задания
- •Глава 13.
- •13.1. Постановка задач нелинейного программирования
- •13.2. Безусловная однопараметрическая оптимизация
- •13.2.1. Методы исключения интервалов
- •13.2.2. Методы полиномиальной аппроксимации
- •13.2.3. Методы с использованием производных
- •13.2.4. Сравнение методов безусловной однопараметрической оптимизации
- •13.3. Безусловная многопараметрическая оптимизация
- •13.3.1. Постановка задачи
- •13.3.2. Методы прямого поиска
- •13.3.3. Градиентные методы
- •13.4. Нелинейная условная оптимизация
- •13.4.1. Постановка задач условной нелинейной оптимизации
- •13.4.2. Методы штрафных функций
- •13.4.3. Методы прямого поиска
- •13.4.4. Методы линеаризации
- •13.5. Решение задач нелинейной оптимизации на эвм
- •13.6. Контрольные вопросы и задания
- •Приложение 1 Значения t - распределения Стьюдента при доверительной вероятности р и числе степеней свободы k
- •Плотность вероятности нормального распределения
- •Приложение 3 Значения χ2 при доверительной вероятности р и числе степеней свободы k
- •Продолжение приложения 3
- •Значения -функции
- •Приложение 5 Значения - в распределении Джонсона
- •Продолжение приложения 5
- •Продолжение приложения 5
- •Продолжение приложения 5
- •Приложение 6
- •Продолжение приложения 6
- •Продолжение приложения 6
- •Продолжение приложения 6
- •Приложение 7
- •Продолжение приложения 7
- •Продолжение приложения 7
- •Продолжение приложения 7
13.3.3. Градиентные методы
Важность прямых методов неоспорима, т.к. в практических задачах информация о значениях целевой функции является единственно надежной информацией, которой располагает инженер. Однако, если существует и непрерывна целевая функция W(x) и ее первые производные а также они могут быть записаны в аналитическом виде (или с достаточно высокой точностью вычислены при помощи численных методов), то целесообразно использовать методы, основанные на использовании градиента целевой функции.
Все методы основаны на итерационной процедуре, реализуемой в соответствии с формулой
xk+1 = xk + k s(xk), (13.9)
где
xk - текущее приближение к решению x*;
k - параметр, характеризующий длину шага,
s(xk) - направление поиска в N - мерном пространстве управляемых переменных xi, i = 1, 2,..., N.
Способ определения k и s(xk) на каждой итерации связан с особенностями применяемого метода. Обычно выбор k осуществляется путем решения задачи минимизации W(x) в направлении s(xk). Поэтому при реализации градиентных необходимо использовать эффективные алгоритмы одномерной минимизации.
Простейший градиентный метод
В основе метода лежит следующая итерационная модификация формулы (13.9):
xk+1 = xk - W(xk), (13.10)
где
- заданный положительный коэффициент;
W(xk) - градиент целевой функции первого порядка.
Недостатки:
необходимость выбора подходящего значения ;
медленная сходимость к точке минимума ввиду малости W(xk) в окрестности этой точки.
Метод наискорейшего спуска
Свободен от первого недостатка простейшего градиентного метода, т.к. k вычисляется путем решения задачи минимизации W(xk) вдоль направления W(xk) с помощью одного из методов одномерной оптимизации
xk+1 = xk - k W(xk). (13.11)
Данный метод иногда называют методом Коши.
Алгоритм характеризуется низкой скоростью сходимости при решении практических задач. Это объясняется тем, что изменения переменных непосредственно зависит от величины градиента, которая стремится к нулю в окрестности точки минимума и отсутствует механизм ускорения на последних итерациях. Поэтому, учитывая устойчивость алгоритма, метод наискорейшего спуска часто используется как начальная процедура поиска решения (из точек, расположенных на значительных расстояниях от точки минимума).
Метод Ньютона
Последовательное применение схемы квадратичной аппроксимации приводит к реализации оптимизационного метода Ньютона по формуле
xk+1 = xk - 2W(xk)-1 W(xk). (13.12)
Недостатком метода Ньютона является его недостаточная надежность при оптимизации неквадратичных целевых функций. Поэтому его часто модифицируют:
xk+1 = xk - k 2W(xk)-1 W(xk), (13.13)
где
k - параметр, выбираемый таким образом, чтобы W(xk+1)min.
13.4. Нелинейная условная оптимизация
13.4.1. Постановка задач условной нелинейной оптимизации
Рассмотрим конкретный пример задачи условного нелинейного программирования.
Пример 13.9. План выпуска мебели.
Предприятие может выпускать два вида корпусной мебели. На её изготовление идет древесина трех видов. Запасы древесины на предприятии, нормы их расхода aij (i=1,2,3; j=1,2), себестоимость сj и оптовые цены указаны в табл. 13.3. Из-за брака в процессе производства расход древесины зависит от объема xj производства изделий и в первом приближении выражается линейной функцией aij + xj , а себестоимость продукции - функцией cj + 0,1xj . Изделия могут выпускаться в любых соотношениях, так как сбыт обеспечен. Предприятие обязано с целью изучения спроса населения выпустить не менее двух комплектов каждого вида мебели. Составить план выпуска изделий, обеспечивающий получение максимальной прибыли.
Таблица 13.3.
Порода |
Запас сырья, |
Нормы расхода на изделие вида |
|
|
м3 |
1 |
2 |
Сосна |
200 |
10 |
20 |
Береза |
120 |
20 |
20 |
Дуб |
150 |
20 |
20 |
Себестоимость, тыс. руб. |
5 |
10 |
|
Цена, тыс. руб. |
7 |
13 |
Из-за брака в процессе производства расход ресурсов зависит от объема xj (j=1,2) производства изделий и в первом приближении выражается линейной функцией aij + xj, а себестоимость продукции - функцией cj + 0,1xj . Изделия могут выпускаться в любых соотношениях, так как сбыт обеспечен. Составить план выпуска изделий, обеспечивающий получение максимальной прибыли.
Постановка задачи.
1. В качестве показателя эффективности целесообразно взять прибыль предприятия за операцию (в тыс. руб.).
2. В качестве управляемых переменных задачи следует взять:
x1 - количество комплектов корпусной мебели 1;
x2 - количество комплектов корпусной мебели 2.
3. Целевая функция:
W = [7 - (5+0,1x1)] x1 + [13 - (10+0,1x2)] x2 max,
или
W = 2x1 - 0,1x12 + 3x2 - 0,1x22.
4. Ограничения:
4.1. По использованию сосны, м3:
(10+x1)x1 + (20+x2)x2 200.
4.2. По использованию березы, м3:
(20+x1)x1 + (10+x2)x2 120.
По использованию дуба, м3:
(20+x1)x1 + (10+x2)x2 150.
4.4. Обязательства по контракту, шт.:
x1 2.
4.5. Областные ограничения:
x2 0.
Задача сводится к нахождению неотрицательных x1* и x2*, удовлетворяющих нелинейным ограничениям и доставляющих максимум нелинейной целевой функции.
Задачи нелинейной оптимизации (условной многопараметрической оптимизации) подразделяют следующим образом:
методы штрафных функций;
методы прямого поиска;
методы линеаризации.