- •1.Основные понятия системного анализа
- •1.1.Определения и свойства системы
- •1.2.Виды описаний систем
- •1.3.Понятие системного подхода
- •1.4.Аспекты системного подхода
- •2.Классификация систем
- •3.Модели систем
- •4.Постановка задач принятия решений.
- •5.Классификация задач принятия решений.
- •6.Этапы решения задач.
- •6.1.Одношаговые схемы принятия решения
- •6.2.Многошаговые решения
- •7.Экспертные процедуры.
- •7.1. Задачи оценивания.
- •7.2. Алгоритмы экспертизы.
- •7.3 Методы получения экспертной информации.
- •7.4. Шкалы измерений, методы экспертных измерений.
- •7.5.Проверка согласованности мнений экспертов и классификация экспертных мнений.
- •7.6.Нахождение итогового мнения комиссии экспертов.
- •7.6.1.Бинарные отношения и расстояние Кемени.
- •7.6.2.Медиана Кемени и законы больших чисел.
- •7.7. Основные стадии экспертного опроса.
- •7.8. Оценка компетентности экспертов.
- •7.9. Методы обработки экспертной информации.
- •7.9.1. Статистические методы
- •7.9.2. Алгебраический метод.
- •7.9.3 Методы шкалирования.
- •2. Метод троек.
- •8. Формирование исходного множества альтернатив и Морфологический анализ.
- •8.1. Общая характеристика алгоритмов
- •8.2. Алгоритмы формирования има
- •8.3. Морфологический анализ.
- •9.Методы многокритериальной оценки альтернатив.
- •9.1. Различные группы задач принятия решений.
- •9.2.Многокритериальная теория полезности (maut)(Аксиоматические методы многкритериальной оценки).
- •9.2.1. Основные этапы подхода maut
- •9.2.2. Аксиоматическое обоснование
- •9.2.3.Основные теоремы.
- •9.2.4.Построение однокритериальных функций полезности
- •9.2.5. Проверка условий независимости
- •9.3.Проверка условий независимости по полезности
- •9.2.6.Определение весовых коэффициентов (коэффициентов важности) критериев
- •9.2.7.Определение полезности альтернатив
- •9.2.8.Веса критериев
- •9.2.9.Как люди назначают веса критериев
- •9.2.10.Практическое применение
- •9.2.11.Метод smart - простой метод многокритериальной оценки.
- •9.2.12.Первый эвристический метод
- •9.2.13.Выводы
- •9.3. Подход аналитической иерархии.
- •9.3.1.Основные этапы подхода аналитической иерархии
- •9.3.2.Структуризация
- •9.3.3.Попарные сравнения.
- •9.3.4.Определение наилучшей альтернативы
- •9.3.5.Проверка согласованности суждений лпр
- •9.3.6.Система поддержки принятия решений Expert Choice
- •9.3.7.Контрпримеры и противоречия.
- •9.4.Мультипликативный метод аналитической иерархии
- •9.5.Пример практического применения подхода анр
- •9.6.Выводы
- •9.7. Методы electre(Прямые методы многокритериальной оценки альтернатив).
- •9.7.1.Конструктивистский подход
- •9.7.2.Два основных этапа
- •9.7.3.Свойства бинарных отношений
- •9.8.Метод electre I
- •9.8.1.Этап разработки индексов
- •9.8.2.Этап исследования множества альтернатив
- •9.9.Метод electre II
- •9.9.1.Этап разработки индексов
- •9.9.2.Этап исследования множества альтернатив
- •9.10.Метод electre III
- •9.10.1. Этап разработки индексов
- •9.10.2.Этап исследования альтернатив
- •Пример.
- •9.10.3.Пример практического применения метода electre III
- •9.10.4.Некоторые сопоставления
- •9.11.Выводы
- •10.Деревья решений.
- •Рнс. 10.1. Дерево решений
- •11. Методы принятия решений в многокритериальных задачах и постулируемые принципы оптимальности.
- •11.1.Метод главного критерия
- •11.2.Метод доминантной структуры (альтернативы)
- •11.3.Метод "эффективность - стоимость"
- •11.4.Построение множества Парсто (компромиссы Парето)
- •11.5.Отказ от рассмотрения проблемы многокритериального выбора
- •11.6.Методы порогов сравнимости
- •11.7.Компромиссное распределение ресурсов между целями.
- •11.8.Метод деревьев решений
- •11.9.Метод решения многокритериальных задач при вычислимых критериях
- •12. Вербальный анализ решений и диалоговые методы принятия решений.
- •12.1. Особый класс задач принятия решений: неструктуризованные проблемы с качественными переменными
- •12.2. Качественная модель лица, принимающего решения
- •12.2.1. Черты человеческой системы переработки информации
- •12.2.2. Особенности поведения человека при принятии решений
- •12.3. Какими должны быть методы анализа неструктуризованных проблем
- •12.4. Измерения
- •12.4.1. Качественные измерения
- •12.4.2. Сравнительные качественные оценки
- •12.5. Построение решающего правила
- •12.6. Проверка информации лпр на непротиворечивость
- •12.7. Обучающие процедуры
- •12.8. Получение объяснений
- •12.9. Основные характеристики методов вербального анализа решений
- •12.10. Метод запрос (зАмкнутые пРоцедуры у Опорных Ситуаций)
- •12.10.1. Постановка задачи
- •12.10.2. Пример: как оценить проекты?
- •12.11. Выявление предпочтений лпр
- •12.11.1.Единая порядковая шкала для двух критериев
- •12.11.2.Проверка условия независимости для двух критериев
- •12.11.3.Независимость по понижению качества для группы критериев
- •12.11.4.Единая порядковая шкала оценок всех критериев
- •12.11.5.Проверка информации лпр на непротиворечивость
- •12.11.6.Частный случай
- •12.11.7. Психологическая корректность процедуры выявления предпочтений лпр
- •12.12.Сравнение альтернатив.
- •12.12.1.Упорядочение группы заданных альтернатив
- •12.13. Преимущества метода запрос
- •12.13.1. Практическое применение метода запрос
- •12.14. Сравнение трех сппр
- •12.15.Выводы
- •13.Функция полезности.
- •14. Принятие решений в условиях неопределенности.
- •15. Статические модели принятия единичных решений в условиях определенности.
- •15.1. Метод сравнительного учета затрат.
- •15.2. Метод сравнительного учета прибыли.
- •15.3. Метод сравнительного учета рентабельности.
- •15.4. Метод статических амортизационных расчетов.
- •16.Сущность глобального и локального критериев оптимальности.
- •17.Критерии принятия решений.
- •17.1. Критерий Байеса-Лапласа.
- •17.2.Составной критерий Байеса-Лапласа минимаксный.
- •17.3.Критерий Гермейера.
- •17.4. Критерий Сэвиджа.
- •17.5.Критерий Гурвица.
- •17.6.Критерий произведений.
- •18.Принятие коллективных решений.
- •18.1.Плюсы и минусы коллективных решений, современные концепции группового выбора.
- •18.2. Теорема Эрроу о невозможности. Анализ предпосылок теоремы Эрроу.
- •18.3.Правило Кондорсе.
- •18.4.Правило Борда.
- •19.Принятие решений в условиях нечеткой информации.
- •19.1.Зачем нужны нечеткие множества.
- •19.2. Операции над нечеткими множествами.
- •19.3. Задача достижения нечетко определенной цели.
- •19.4.Нечеткие отношения и их свойства.
- •19.4.1.Основные определения.
- •19.4.2.Операции над нечеткими отношениями.
- •19.4.3.Свойства нечетких отношений.
- •19.4.4.Декомпозиция нечетких отношений.
- •19.4.5.Транзитивное замыкание нечетких отношений.
- •19.4.6.Проекции нечетких отношений.
- •20.2.Кооперативные игры.
- •20.3. Дифференциальная игра.
- •20.4. Платежная матрица. Цена игры. Принципы максимина и минимакса.
- •20.5. Решение игры в смешанных стратегиях. Основная теорема теории матричных игр.
- •20.6.Сведение матричной игры к задаче линейного программирования.
- •21. Методы безусловной оптимизации
- •21.1 Классификация методов безусловной оптимизации.
- •21.2 Скорости сходимости.
- •21.3 Методы первого порядка.
- •21.4 Метод наискорейшего спуска
- •21.5 Методы сопряженных градиентов.
- •21.6 Градиентные методы.
- •21.7 Методы второго порядка.
- •21.8 Метод Ньютона и его модификации.
- •21.9 Модифицированный метод Ньютона.
- •21.10 Метод секущих.
- •21.11 Квазиньютоновские методы. Методы переменной метрики.
- •21.12 Конечно-разностная аппроксимация производных. Конечно-разностные методы.
- •21.12.1 Постановка задачи.
- •21.12.2 Общая схема.
- •21.12.3 Устойчивость схемы.
- •21.12.4 Повышение порядка аппроксимации.
- •21.12.5 О решении разностных схем.
- •21.12.6 Нелинейные задачи.
- •21.13 Методы нулевого порядка.
- •21.13.1 Основные определения
- •21.13.2 Общая характеристика методов нулевого порядка
- •21.14 Метод покоординатного спуска
- •21.15 Метод Хука—Дживса
- •21.16 Метод сопряженных направлений.
- •21.17 Методы деформируемых конфигураций.
- •21.18 Симплексные методы.
- •21.19 Комплекс-методы.
- •21.20 Решение задач многокритериальной оптимизации методами прямого поиска.
- •21.20.1 Модифицированный поиск Хука-Дживса
- •21.20.2 Методы случайного поиска
- •22. Задачи с ограничением (условная оптимизация)
- •22.1 Основные подходы к решению задач с ограничениями. Классификация задач и методов.
- •22.2 Метод проекции градиента.
- •22.3 Метод условного градиента.
- •22.4 Методы сведения задач с ограничениями к задачам безусловной оптимизации. Методы возможных направлений
- •22.4.1 Метод Зойтендейка
- •22.4.2 Метод возможных направлений для нелинейных ограничений-неравенств и равенств
- •22.4.3 Модификация метода возможных направлений
- •22.5 Методы штрафных функций
- •22.5.1 Методы внутренних штрафных функций
- •22.5.2 Методы внешних штрафных функций
- •22.6 Комбинированные алгоритмы штрафных функций
- •23. Стохастичесоке программирование
- •23.1 Задачи стохастического программирования. Прямые и непрямые методы.
- •23.2 Прямые методы. Стохастические квазиградиентные методы. Метод проектирования стохастических квазиградиентов.
- •23.3 Прямые методы. Метод стохастической аппроксимации
- •23.4 Прямые методы. Методы случайного поиска. Статистические методы поиска нелинейного программирования
- •23.5 Стохастические разностные методы. Методы конечных разностей в стохастическом программировании.
- •Статистические методы поиска нелинейного программирования
- •23.6 Стохастические задачи с ограничениями вероятностей природы.
- •24. Дискретное программирование
- •24.1 Методы и задачи дискретного программирования. Задачи целочисленного линейного программирования.
- •24.1.1 Задачи с неделимостями
- •24.1.2 Задача о рюкзаке.
- •24.1.3 Экстремальные комбинаторные задачи
- •24.1.4 Задача о коммивояжере.
- •24.1.5 Задача о покрытии.
- •24.1.6 Задачи на несвязных областях.
- •24.1.7 Задачи на невыпуклых областях.
- •24.1.8 Задачи с разрывными целевыми функциями
- •24.1.9 Задачи, сводящиеся к целочисленным
- •24.2 Методы отсечения Гомори.
- •24.3 Метод ветвей и границ.
- •24.4 Метод ветвей и границ для задачи целочисленного программирования
- •24.5 Задача о назначениях.
- •24.6 Венгерский алгоритм.
- •24.6.1 Венгерский метод для задачи о назначениях. Постановка задачи.
- •24.6.2 Описание алгоритма венгерского метода
- •24.6.3 Пример решения задачи о назначених венгерским алгоритмом.
- •24.7 Задачи оптимизации на сетях и графах.
- •Метод итераций по критерию
- •Метод итераций по стратегиям (в пространстве стратегий)
- •Минимизация средних затрат.
- •Пример 24.1
- •Пример 24.2.
- •25. Динамическое программирование
- •25.1 Метод динамического программирования для многошаговых задач принятия решений.
- •25.2 Принцип оптимальности Беллмана
- •25.3 Основное функциональное уравнение.
- •25.4 Вычислительная схема метода динамического программирования.
- •26. Общие положения о системном анализе.
- •27. Задача математического программирования.
- •27.1. Формы записи задач нечеткого математического программирования.
- •27.2. Классификация методов нелинейного математического программирования.
- •28. Линейное программирование.
- •28.1. Общие положения.
- •28.2. Геометрическая интерпретация множества решений системы линейных неравенств с 2 неизвестными.
- •28.3. Постановка задачи линейного программирования и двойственная задача линейного программирования.
- •28.3.1. Стандартная задача лп.
- •28.3.2. Каноническая задача лп.
- •28.3.3. Общая задача лп.
- •28.3.4. Двойственная задача линейного программирования.
- •28.3.5. Теорема двойственности.
- •28.3.6. Теорема равновесия.
- •28.4. Решение систем линейных неравенств. Гиперплоскость и полупространство.
- •28.5. Основные теоремы линейного программирования. Допустимые множества и оптимальные решения задач линейного программирования.
- •28.6. Симплексный метод решения задачи линейного программирования.
- •28.7. Условия существования и свойства оптимальных решений задачи линейного программирования.
- •28.7.1. Оптимальные решения.
- •28.7.2. Необходимые и достаточные условия оптимальности решения.
- •28.7.2.1. Нелинейное программирование без ограничений.
- •28.7.2.2. Нелинейное программирование с ограничениями в виде равенств и неравенств.
- •29. Двойственность в линейном программировании.
- •29.1. Общие положения.
- •29.2. Несимметричные двойственные задачи. Теорема двойственности.
- •29.3. Симметричные двойственные задачи.
- •29.4. Виды математических моделей двойственных задач.
- •29.5. Двойственный симплексный метод.
- •30.1.3. Классические способы отыскания решения экстремальных задач.
- •30.1.4. Условие регулярности.
- •30.1.5. Функция Лагранжа. Условия оптимальности.
- •30.1.6. Теорема Куна-Таккера.
- •30.1.7. Дифференциальные условия Куна-Таккера.
- •30.1.8. Общая схема решения задачи выпуклого программирования.
- •30.2. Выпуклые множества и функции.
- •30.3. Поиск экстремума функции.
- •31. Задача нелинейного программирования при ограничениях в неравенствах.
- •31.1. Теорема Куна-Таккера.
- •31.2. Седловая точка и задача нелинейного программирования.
- •31.3. Применение теоремы Куна-Таккера для задачи выпуклого программирования.
- •Список использованных источников
24.1.8 Задачи с разрывными целевыми функциями
Наиболее изучена из этого класса задач Т-задача с фиксированными доплатами:
минимизировать
(24.1.28)
при условиях
(24.1.29)
Введем вспомогательные переменные yij следующим образом:
(24.1.30)
где
=
.
Тогда целевая функция имеет вид
(24.1.31)
Задача (24.1.31)
эквивалентна исходной задаче (24.1.28).
Действительно, при
=
0, переменные xi
= 0, а при
= 1 неравенства (24.1.30) становятся
несущественными, так как они выполняются
в любом опорном плане. Таким образом,
эта задача является частично-целочисленной.
Теперь рассмотрим более общую математическую модель с разрывной целевой функцией на примере задачи о смесях.
Примем следующие
обозначения:
— содержание элемента i
в единице компонента j;
— ограничение снизу на количество
каждого элемента в смеси;
—
стоимость единицы компонента j;
— фиксированная стоимость заказа j-го
компонента;
— количество j-го
компонента смеси.
Требуется составить наиболее дешевую смесь, удовлетворяющую требованиям по содержанию каждого элемента в смеси.
Формально модель задачи следующая:
минимизировать
(24.1.32)
при условиях
(24.1.33)
где
(24.1.34)
Предположим, что в дополнение к условиям (24.1.33) задана для верхняя граница
(24.1.35)
Тогда запишем задачу минимизаци в следующем виде:
минимизировать
(24.1.36)
при условии (4.1.33) и дополнительных условиях
(24.1.37)
Эквивалентность частично-целочисленной задачи (4.1.36) и исходной задачи может быть проверена аналогично Т-задаче с фиксированными доплатами.
24.1.9 Задачи, сводящиеся к целочисленным
Некоторые задачи,
формально не являющиеся целочисленными,
имеют целочисленные решения при любых
целочисленных исходных данных. К таким
задачам относится Т-задача,
которая формально не является
целочисленной, так как отсутствует
соответствующее условие целочисленности:
— целое.
При анализе Т-задачи Г. Данцигом установлена следующая теорема.
Теорема При
любых целых значениях
,
и
,
Т-задача
всегда имеет целочисленный оптимальный
план, независимо от значений
.
Доказательство этой теоремы основано на двух положениях: существует исходный опорный целочисленный план; при переходе от одного опорного плана к другому целочисленность сохраняется.
Действительно, из этих положений сразу следует целочисленность всех опорных планов и, в частности, оптимального.
Целочисленность планов Т-задачи связана со структурой ее матрицы ограничений и имеет место для всех ее частных случаев, важнейшими из которых являются задача о назначениях и задача о потоке на транспортной сети.
24.2 Методы отсечения Гомори.
Метод отсекающих плоскостей впервые разработан Р. Гомори в 1957—1958 гг. для задач линейного цілочисельного программирование (ЛЦП).
Для группы методов отсечения плоскостей характерна так называемая “регуляризация” задачи, состоящая в погружении исходной несвязанной области допустимых решений (дискретных точек) в объемлющую ее непрерывную выпуклую область, т.е. во временном отбрасывании условий дискретности. Затем к получившейся регулярной задаче применяются стандартные методы оптимизации.
Если полученное в результате решение удовлетворяет отброшенному условию дискретности, то задача решена. В противном случае необходимо продолжить процесс решения.
Для задачи ЛЦП соответствующая идея “регуляризации”, положенная в основу метода отсекающих плоскостей, высказана Г. Данцигом.
Допустим необходимо решить задачу ЛЦП:
минимизировать
(24.2.1)
при условиях
,
(24.2.2)
,
(24.2.3)
—
целые числа,
.
(24.2.4)
Отбросив на определенное время условие целочисленности (24.2.4), найдем оптимальное решение. Если окажется, что он удовлетворяет также и условию целочисленности, то это решение является искомым. В противном случае нужно сформировать дополнительное ограничение, которому заведомо удовлетворяет любой целочисленный план, но не удовлетворяет найденный оптимальный нецелочисленный план. Такое ограничение называют “правильным отсечением”. Геометрически правильное отсечение означает гиперплоскость, отсекающую от выпуклого многогранника соответствующей задачи ЛП некоторый многогранник, содержащий все целочисленные решения исходной задачи.
Далее к исходной системе ограничений задачи добавляют правильное отсечение и описанный процесс решения продолжают аналогично. Если правильное отсечение сформировано удовлетворительно, то можно полагать, что через несколько итераций будeт найдено решение задачи ЛЦП либо будет зафиксирована несовместность ее условий.
Рассмотрим задачу ЛП (24.2.1) — (24.2.3) в предположении, что все {aij}, {bi}, {cj} — целые числа и m < n.
Пусть {А1,
А2,
…, Аm}
— линейно независимые векторы ограничений,
образующие базис системы {А1,
А2,
…, Аn}.
Очевидно, матрица Ax=
{ А1,
А2,
…, Аm}
— не вырождена, и поэтому существует
обратная к ней
.
Умножив ограничения
задачи
на
,
получим
(24.2.5)
Это соотношение в развернутой форме записи имеет вид
Откуда
(24.2.6)
где
—
базисная переменная;
—
ее значение.
Соотношение (24.2.6) справедливо для любого решения, в том числе и оптимального.
Подставляя выражение (24.2.6) в (24.2.1), получим
(24.2.7)
Решим задачу ЛП
(24.2.1) — (24.2.3) симплекс-методом или
двойственным симплекс-методом. Допустим,
что оптимальным оказался базис {А1,
А2,
…, Аm}.
Элементы последней симплекс-таблицы
обозначим через xij,
причем
,
а столбец свободных членов — через [
],
.
Выберем один из них, например и, начиная с i-й строки, составим соотношения для дополнительного ограничения (правильного отсечения).
Обозначим через [xij] целую часть, а через gij = xij – [xij] — дробную часть числа xij, причем xij ³ [xij]. Очевидно, 0 ≤ gij < 1.
Пусть x = [xi] — некоторый оптимальный план задачи (4.2.1) — (4.2.3). Его компоненты связаны уравнением (24.2.6). Подставим xij = [xij] + gij в (4.2.6) и после несложных преобразований получим
(24.2.8)
Соотношение (4.2.8)
справедливо для любого плана решаемой
задачи. Допустим, что x — целочисленный
план. Тогда, учитывая целочисленность
левой части (24.2.8), получим
,
где ξ — целое число, а 0 £
< 1,
0 £ gij < 1.
Теперь возможны два случая:
а) x ³ 1; б) x £ 0.
В первом случае,
если допустить, что x ³ 1, то
,
откуда
³
1, а это противоречит условию 0 £
< 1.
Поэтому принимаем x £ 0, т.е. справедливо
неравенство
(24.2.9)
Нецелочисленный план x не удовлетворяет неравенству (24.2.9), поскольку > 0, а левая часть неравенства (24.2.9) равна нулю, так как = 0, для всех небазисных компонент j = m +1, m +2, …, n... В то же время любой целочисленный план удовлетворяет (24.2.9) как строгому равенству, так как = 0 для всех i.
Итак, ограничение (24.2.9) является правильным отсечением. Его записывают в эквивалентной форме
(24.2.10)
или
(24.2.11)
и добавляют к исходной системе линейных ограничений задачи.
Переменные новой задачи таковы: {x1, x2, …, xn+1}... Ее условия уже разрешены относительно базисных переменных плана x = {x1, x2, …, xm} и новой переменной xn+1, и, следовательно, имеем псевдоплан с базисными компонентами:
xi= xi0, ; xn+1 = –gi0.
Симплекс-таблица данного псевдоплана образуется дописыванием к таблице, отвечающей найденному оптимальному плану x, строки с элементами
(24.2.12);
Одновременно к
таблице добавляют единичный вектор
Аn+1
такой, что
.
К этому плану применяют двойственный симплекс-метод. На первой итерации из базиса обязательно выводят вектор, отвечающий переменной xn+1, так как в столбце ai0 таблицы имеется один отрицательный элемент xn+1 = – < 0.
Будем называть большой итерацией метода отсекающих плоскостей совокупность итераций алгоритма двойственного симплекс-метода, приводящих от псевдоплана с дробными компонентами к следующему оптимальному плану (не обязательно целочисленному).
В зависимости от исхода большой итерации различают следующие три случая:
1) в столбце
все
—
целые числа, причем
³ 0.
Это условие определяет оптимальность
найденного плана;
2) получен новый план, где все ³ 0, но не все — целые числа. Тогда необходимо сформировать новое правильное отсечение и перейти к очередной большой итерации;
3) получен некоторый промежуточный псевдоплан, где имеется элемент < 0 такой, что xij ³ 0 для всех j = 1, 2, …, n... Это признак неразрешимости задачи.
Переменные
,
вводимые в задачу в начале каждой новой
итерации, называются дополнительными,
а переменные xj,
—
основными.
Если дополнительная переменная является
небазисной для некоторого промежуточного
псевдоплана, то уравнение
= 0
входит в совокупность соотношений,
определяющих этот псевдоплан. Как только
переменная снова становится базисной
(т.е. вводится в базис), ее значение
оказывается безразличным для основных
переменных. Поэтому строку и столбец,
отвечающие переменной
,
в соответствующей симплекс-таблице (и
во всех следующих) вычеркивают.
С геометрической точки зрения это правило можно обосновать так. Если псевдоплан оказывается внутри полупространства ³ 0, то дополнительное ограничение, определяемое гиперплоскостью = 0, становится несущественным и потому опускается.
Сделаем некоторые замечания относительно метода Гомори.
1. Двойственный симплекс-метод является основой метода отсекающих плоскостей Гомори, так как он позволяет учитывать новые ограничения (правильные отсечения) в процессе решения задачи и переходить от текущего псевдоплана к новому оптимальному плану.
2. При определенных условиях можно гарантировать конечность алгоритма Гомори.
Достаточные условия конечности алгоритма установлены в следующей теореме.
Теорема.
Если целевая
функция задачи
ограничена
сверху и снизу на множестве решений,
причем множество оптимальных решений
представляет собой выпуклый многогранник,
правильное отсечение образуется по
строке таблицы с нецелочисленной
компонентой
,
имеющей минимальный номер, а индекс
вектора, вводимого в базис, определяют
по величине
,
то алгоритм Гомори является конечным,
т.е. за конечное число итераций приведет
к случаю 1)
или 3).
3. Правильное
отсечение можно формировать и по
индексной строке. Пусть на k-й
итерации элементы индексной строки
таковы:
,
причем
—
не целое число.
Обозначим через
g0j
дробную часть элемента
:
=
– [
]. В этом случае правильное отсечение
записывается так:
(24.2.13)
4. В отличие от обычной задачи ЛП задача целочисленного программирования требует большого объема вычислений даже при малых m и n. Количество итераций существенно зависит от того, насколько удачно сформированы правильные отсечения.
5. В результате постоянного улучшения базового алгоритма метода Гомори были разработаны новые алгоритмы отсекающих плоскостей (второй и третий алгоритмы Гомори), которые используют более эффективные правильные отсечения.
