- •Математические методы системного анализа и теория принятия решений Методическое пособие
- •1. Теория принятия решений 4
- •2. Линейное программирование 9
- •3. Нелинейное программирование 42
- •4. Игровые методы обоснования решений 51
- •5. Задачи распознавания образов 62
- •Предисловие
- •1. Теория принятия решений
- •1.1. Задачи, связанные с принятием решений Проблема оптимальности.
- •Основные понятия и принципы исследования операций.
- •Примеры задач исследования операций.
- •1.2. Математические модели операций Искусство моделирования.
- •1.3. Разновидности задач исследования операций и подходов к их решению Прямые и обратные задачи исследования операций.
- •Пример выбора решения при определенности: линейное программирование.
- •Проблема выбора решений в условиях неопределенности.
- •Выбор решения по многим критериям.
- •«Системный подход».
- •2. Линейное программирование
- •2.1. Краткое представление о математическом программировании Предмет математического программирования.
- •Краткая классификация методов математического программирования.
- •2.2. Примеры экономических задач линейного программирования Понятие линейного программирования.
- •Задача о наилучшем использовании ресурсов.
- •Задача о выборе оптимальных технологий.
- •Задача о смесях.
- •Задача о раскрое материалов.
- •Транспортная задача.
- •2.3. Линейные векторные пространства Основные понятия линейного векторного пространства.
- •Решение систем линейных уравнений методом Гаусса.
- •Реализация метода исключения неизвестных в среде Excel.
- •Различные схемы реализации метода Гаусса.
- •Опорные решения системы линейных уравнений.
- •2.4. Формы записи задачи линейного программирования Основные виды записи злп.
- •Каноническая форма представления задачи линейного программирования.
- •Переход к канонической форме.
- •2.5. Геометрическая интерпретация задачи линейного программирования Определение выпуклой области.
- •Геометрическая интерпретация.
- •2.6. Свойства решений задачи линейного программирования Свойства основной задачи линейного программирования.
- •Графический метод решения задачи линейного программирования.
- •2.7. Симплексный метод Идея симплекс-метода.
- •Теоретические обоснования симплекс-метода.
- •Переход к нехудшему опорному плану.
- •Зацикливание.
- •Алгоритм симплекс-метода.
- •2.8. Двойственность в линейном программировании Прямая и двойственная задача.
- •Связь между решениями прямой и двойственной задач.
- •Геометрическая интерпретация двойственных задач.
- •2.9. Метод искусственного базиса Идея и реализация метода искусственного базиса.
- •3. Нелинейное программирование
- •3.1. Общая задача нелинейного программирования Постановка задачи.
- •Примеры задач нелинейного программирования (экономические).
- •Геометрическая интерпретация задачи нелинейного программирования.
- •3.2. Выпуклое программирование Постановка задачи выпуклого программирования.
- •3.3. Классические методы оптимизации Метод прямого перебора.
- •Классический метод дифференциальных исчислений.
- •3.4. Метод множителей лагранжа
- •3.5. Градиентные методы решения задач нелинейного программирования Общая идея методов.
- •Метод Франка-Вулфа.
- •Метод штрафных функций.
- •4. Игровые методы обоснования решений
- •4.1. Предмет и задачи теории игр Основные понятия.
- •Классификация выборов решений.
- •Антагонистические матричные игры.
- •Чистые и смешанные стратегии и их свойства.
- •4.2. Методы решения конечных игр Упрощение матричной игры.
- •Решение матричной игры размерностью 22.
- •Графическое решение матричной игры.
- •Сведение задач теории игр к задачам линейного программирования.
- •4.3. Задачи теории статистических решений Игры с природой.
- •Критерии принятия решений.
- •5. Задачи распознавания образов
- •5.1. Общая постановка задачи распознавания образов и их классификация Проблема распознавания.
- •Обсуждение задачи опознавания.
- •Язык распознавания образов.
- •Априорные предположения — это записанные специальным образом, накопленные знания специалистов.
- •Общая постановка задачи.
- •Геометрическая интерпретация задачи распознавания.
- •Классификация задач распознавания.
- •5.2. Подготовка и анализ исходных данных Общая схема решения задачи.
- •Общая схема постановки и решения задачи Анализ данных с целью выбора постановки и метода решения
- •5.3. Методы опознавания образов Основные этапы процесса опознавания образов.
- •Методы создания системы признаков.
- •Признаковое пространство.
- •Сокращение размерности исходного описания.
- •Методы построения решающего правила.
- •5.4. Меры и метрики Понятие о сходстве.
- •Меры сходства и метрики.
- •Примеры функций мер сходства.
- •5.5. Детерминированно-статистический подход к познаванию образов Основные этапы детерминированно-статистического подхода.
- •Получение исходного описания.
- •Создание системы признаков.
- •Сокращение размерности исходного описания.
- •Нахождение решающего правила (метод эталонов).
- •Коррекция решающего правила.
- •5.6. Детерминированный метод построения решающего правила (метод эталонов) Идея метода эталонов.
- •Минимизация числа эталонов.
- •Габаритные эталоны.
- •Применение метода эталонов к частично пересекающимся образам.
- •Дополнительная минимизация числа признаков.
- •Квадратичный дискриминантный анализ.
- •Распознавание с отказами.
- •5.8. Алгоритм голотип-1 Назначение
- •Постановка задачи
- •Метод решения задачи.
- •Условия применимости.
- •Условия применимости.
- •5.10. Алгоритм направление опробования Назначение
- •Постановка задачи.
- •Метод решения задачи.
- •Условия применимости.
- •Транспортная задача Математическая постановка.
- •Постановка задачи.
- •Теоретическое введение.
- •Методы нахождения опорного плана транспортной задачи.
- •Определение оптимального плана транспортной задачи.
- •Заключение.
- •Целочисленное программирование Постановки задач, приводящие к требованию целочисленности.
- •Постановка задачи.
- •Методы отсечения.
- •Алгоритм Гомори.
- •Первый алгоритм р. Гомори решения полностью целочисленных задач.
- •Приближенные методы.
- •Заключение.
- •Параметрическое программирование Введение.
- •Формулировка задачи.
- •Теоретическая часть.
- •Общая постановка задачи.
- •Решение задачи.
- •Геометрическая интерпретация задачи.
- •Общая постановка задачи.
- •Решение задачи.
- •Геометрическая интерпретация задачи
- •Постановка задачи.
- •Решение.
- •Геометрическое решение.
- •Решение задачи симплекс-методом.
- •Результат.
- •Некооперативные игры n лиц с ненулевой суммой Введение.
- •Теоретическая часть.
- •Постановка и решение задачи.
- •Заключение.
- •Cписок литературы
Применение метода эталонов к частично пересекающимся образам.
Детерминированный метод при построении решающего правила легко может быть распространен на случай, когда образа частично пересекаются, т. е. когда из-за недостаточности исходного описания или по другим причинам расстояния между небольшими частями выборок различных образов оказываются менее некоторой величины .
Отличие в процедуре построения решающего правила методом эталонов, вызванное тем, что образы частично пересекаются, заключается в следующем.
На первом шаге из учебной выборки исключаются те пары реализаций различных образов, расстояние между которыми меньше величины .
На втором шаге для непересекающейся части выборки для каждого образа находится покрытие из минимального числа эталонов. При этом «радиус» эталона равен расстоянию от эталонной реализации до ближайшей реализации чужого образа.
После построения эталонных оболочек образов непересекающиеся части учебной выборки будут опознаваться безошибочно.
Относительно реализаций учебной выборки, попавших в области пересечений эталонных оболочек различных образов, выдаются альтернативные или много альтернативные ответы.
Таким образом, решающее правило, полученное на материале учебной выборки, состоит из минимального числа эталонов на образ. Эталоны для опознания непересекающихся частей выборки и областей пересечения образуются с помощью операций математической логики.
Например, пусть пресекаются три эталона , и , относящиеся соответственно к трем образам , и . И пусть эталонные оболочки этих образов состоят из совокупностей эталонов , и .
Тогда решающее правило для опознания непересекающихся частей выборки образов имеет вид:
Для областей пересечения решающее правило имеет вид:
Дополнительная минимизация числа признаков.
После нахождения минимального количества эталонов для каждого образа, позволяющих безошибочно классифицировать все реализации учебной выборки, оказывается возможным дополнительно минимизировать число признаков. При дополнительной минимизации ищется минимальное число признаков при сохранении условия ненулевой ошибки опознания членов учебной выборки.
Можно рассмотреть два подхода к дополнительной минимизации признаков.
А. В первом подходе, целью которого является упрощение реализации эталонов, дополнительная минимизация числа признаков производится для каждого из эталонов образа в отдельности. При этом требуется найти такую совокупность минимального числа признаков, которая обеспечивает отсутствие в данном эталоне реализаций «чужих» образов. Очевидно, что после минимизации для каждого эталона будет найдено свое подпространство из общего пространства признаков. Решение о принадлежности опознаваемой реализации к данному эталону принимается в зависимости от того, попадает ли опознаваемая реализация в данный эталон в минимальном подпространстве признаков или нет.
«Общая» совокупность координат пространства признаков для всех эталонов всех образов может быть определена как объединение подмножеств из минимального числа координат, найденных для каждого эталона в отдельности.
Б. Во втором подходе, целью которого является упрощение реализации блока признаков, дополнительная минимизация числа признаков производится одновременно для всех эталонов всех образов. При этом требуется найти такую совокупность их минимального числа признаков, которая обеспечивает одновременно во всех эталонах всех образов отсутствие реализаций «чужих» образов.
После общей минимизации числа признаков может быть произведена минимизация числа координат для каждого из эталонов в отдельности. При этом из совокупности признаков, оставшихся после общей минимизации, находится совокупность из минимального числа признаков, которая обеспечивает отсутствие в данном эталоне реализаций «чужих» образов.
Таким образом, при первом подходе находится минимальное число признаков для каждого из эталонов в отдельности, а общее число признаков не равно минимальному.
При втором подходе минимизируется общее число признаков для всех реализаций всех образов, а число признаков для каждого из эталонов в отдельности не равно минимальному.
5.7. АЛГОРИТМ ДИСКРИМИНАНТНАЯ ФУНКЦИЯ
Назначение
— решение задач распознавания в ситуациях, когда в МО представлены объекты образов (), распределенные нормально.
Постановка задачи.
В исходных данных, представленных в виде ТОС, присутствуют представители всех образов. Для каждого объекта указана его принадлежность к образу. В процессе распознавания определяется принадлежность объектов экзамена к одному из образов.
Метод решения задачи.
Этот метод основан на предположении, что объекты, составляющие каждый из образов, многомерно нормально распределены. Мы опираемся на эталонные объекты. Теоретически разделяются:
— линейный дискриминантный анализ, когда матрицы ковариации для разных образов равны;
— квадратичный дискриминантный анализ, когда матрицы ковариации для разных объектов различны.
Линейный дискриминантный анализ.
Рассмотрим случай, когда в МО имеется два образа. Оказывается, что при равных ковариационных матрицах поверхность с одной стороны от которой больше вероятность принадлежности к одному из образов, а с другой к другому (критерий Байеса) является гиперплоскость, т.е. линейная поверхность размерности (— размерность пространства). Уравнение гиперплоскости в общем виде можно записать следующим образом:
.
В данном случае эта поверхность вычисляется следующим образом:
(5.1)
Формула (5.1) называется уравнением линейной дискриминантной функции, где
— -мерный вектор столбец в пространстве свойств ;
— математическое ожидание (среднее) объектов 1-го образа;
— математическое ожидание (среднее) объектов 2-го образа;
— транспонирование;
— матрица коэффициентов ковариации.
Коэффициенты ковариации вычисляются следующим образом:
,
где M — знак математического ожидания.
Коэффициенты ковариации тесно связан с коэффициентом корреляции:
, где
— среднее квадратичное отклонение () -го свойства;
— среднее квадратичное отклонение () -го свойства;
Дисперсия .
Дискриминантная плоскость разбивает все пространство на две части. При этом точки пространства, относимые к 1-му образу, при подставлении своих координат в дискриминантную функцию дадут , а точки 2-го образа — .
Таким образом, подставляя координаты, интересующих нас объектов выборки, мы по дискриминантной функции определим, к какому из двух образов принадлежит объект (понятно, что с определенной долей вероятности). На рисунке (рис. 5.10) для двумерного случая это выглядит следующим образом:
Значение матриц ковариации вычисляются по формулам:
;
.
Есть параметр, говорящий о качестве разбиения с помощью дискриминантной функции — это расстояние Махаланобиса:
.
Разбиение тем лучше, чем больше .