- •1.1. Методы искусственного интеллекта в прикладных системах и системах принятии решений
- •1.2. Интеллектуальные информационные технологии в прикладных системах и системах принятия решений
- •1.3. Типология задач интеллектуализации систем
- •Лекция 2. Представление знаний в интеллектуальных системах
- •2.1. Модели представления знаний
- •2.2. Системы, основанные на правилах
- •2.3. Системы, основанные на автоматическом доказательстве теорем
- •2.4. Системы, основанные на автоматическом порождении (выдвижении) гипотез
- •Лекция 3. Структура и основные компоненты прикладных интеллектуальных систем
- •3.1. Прикладные системы, основанные на знаниях
- •3.2. Структура системы управления, основанной на знаниях
- •3.3. Структура интеллектуальных систем поддержки принятия решения
- •3.4. Обобщенная структура экспертной системы
- •Лекция 4. Классификация прикладных интеллектуальных систем
- •4.1. Классификация экспертных систем
- •4.2. Примеры прикладных интеллектуальных систем
- •Лекция 5. Основные понятия и определения теории принятия решений
- •5.1. Роли людей в процессе принятия решений
- •5.2. Альтернативы
- •5.3. Критерии
- •5.4. Основные этапы процесса принятия решений
- •5.5. Математические методы теории принятия решений
- •Лекция 6. Принятие решений с помощью статистической проверки гипотез
- •6.1. Статистические решения
- •6.2. Основные задачи статистических решений
- •6.3. Статистическая проверка гипотез
- •6.4. Ошибки решения
- •6.5. Решающее правило при проверке гипотез
- •Лекция 7. Байесовская и последовательная процедуры принятия решения.
- •7.1. Байесовские процедуры принятия решения
- •7.1.1. Байесовская процедура при проверке простой гипотезы
- •7.1.2. Байесовские процедуры в задаче классификации
- •7.2. Принятие решения с помощью последовательной процедуры Вальда
- •Лекция 8. Принятие решения методом дискриминантнного анализа
- •8.1. Классификация в случае, когда распределения классов определены полностью
- •8.1.1. Модель двух нормальных распределений с общей ковариационной матрицей (модель Фишера)
- •8.1.2. Модель двух нормальных распределений с разными ковариационными матрицами
- •8.1.3. Модель нескольких нормальных распределений с общей ковариационной матрицей
- •8.2. Классификация при наличии обучающих выборок
- •8.2.1. Подстановочный алгоритм в модели Фишера
- •8.2.3. Правила классификации
- •8.3. Ошибка решающего правила
- •Лекция 9. Древообразные классификаторы
- •9.1. Назначение древообразных классификаторов
- •9.1. Структура дерева классификации
- •9.3. Вычислительные задачи древообразных классификаторов
- •9.3.1. Определение качества предсказания
- •9.3.2. Выбор разбиений
- •9.3.3. Определение правила прекращения разбиения
- •Лекция 10. Деревья решений
- •9.1. Характеристики дерева решений
- •9.2. Построение дерева решений
- •Лекция 11. Методы прогнозирования
- •11.1. Анализ временных рядов
- •11.1.1. Модель временного ряда
- •11.1.2. Тренд, сезонная и циклическая компоненты
- •11.1.3. Декомпозиция временного ряда
- •11.1.4. Экспоненциальное сглаживание
- •11.2. Каузальные методы прогнозирования
- •11.3. Качественные методы прогнозирования
- •Лекция 12. Основная задача линейного программирования
- •12.1. Математическая модель основной задачи линейного программирования
- •12.2. Задача линейного программирования с ограничениями-неравенствами
- •12.3. Примеры задач линейного программирования
- •12.3.1. Транспортная задача
- •12.3.2. Задача о назначениях
- •Лекция 13. Симплекс-метода решения задачи линейного программирования
- •13.1. Характеристика симплекс–метода
- •13.2. Табличный алгоритм замены базисных переменных
- •13.3. Отыскание опорного решения основной задачи линейного программирования
- •13.4. Отыскание оптимального решения основной задачи линейного программирования
- •Лекция 14. Многокритериальные методы принятия решений при объективных моделях
- •14.1. Объединение критериев
- •14.2. Метод главного критерия
- •14.3. Метод последовательных уступок
- •14.4. Метод целевого программирования
- •14.5. Метод, использующий принцип гарантированного результата
- •14.6. Метод равных наименьших относительных отклонений
- •14.7. Процедура STEM поиска удовлетворительных значений критериев
- •Лекция 15. Выбор Парето–оптимальных решений
- •15.1. Основные определения
- •15.2. Графическая интерпретация
- •15.3. Постановка задачи
- •Лекция 16. Оценка многокритериальных альтернатив с помощью теории полезности
- •16.1. Теория полезности
- •16.2. Принятие решения на основе значения ожидаемой полезности
- •16.3. Многокритериальная теория полезности (MAUT)
- •Лекция 17. Сравнение альтернатив методом аналитической иерархии
- •17.1. Основные этапы метода аналитической иерархии
- •17.2. Декомпозиция задачи
- •17.3. Попарное сравнение критериев и альтернатив
- •17.4. Свойства идеальной матрицы сравнений
- •Лекция 18. Приоритеты для критериев и альтернатив и выбор наилучшей альтернативы в методе анализа иерархий
- •18.1. Вычисление собственных характеристик обратно симметричной матрицы
- •18.2. Вычисление величины приоритетов
- •18.3. Определение наилучшей альтернативы
- •18.4. Проверка согласованности
- •18.5. Пример применения метода анализа иерархий
- •Лекция 19. Оценка многокритериальных альтернатив методами ELECTRE
- •19.1. Этапы подхода, направленного на разработку индексов попарного сравнения альтернатив
- •19.2. Свойства бинарных отношений
- •19.3. Метод ELECTRE I
- •19.4. Метод ELECTRE II
- •19.5. Метод ELECTRE III
- •Лекция 20. Основные понятия и математическая модель игровых методов обоснования решений
- •20.1. Основные понятия теории игр
- •20.2. Математическая модель игры
- •20.3. Нижняя и верхняя цена игры. Принцип минимакса
- •Лекция 21. Методы решения игр
- •21.1. Решение игры в чистых стратегиях
- •21.2. Решение игры в смешанных стратегиях
- •21.3. Упрощение игр
- •21.4. Решение игры 2х2
- •21.5. Графический метод решения (2х2)-игр
- •Лекция 22. Игры 2 х п
- •Лекция 23. Решение игр т х 2 и т х п
- •23.1. Решение игр т х 2
- •23.2. Решение игр т х п
- •Лекция 24. Критерии принятия решений в условиях риска и неопределенности
- •24.1. Основные понятия. Математическая модель
- •24.3. Максиминный критерий Вальда
- •24.4. Критерий минимаксного риска Сэвиджа
- •24.5. Критерий пессимизма-оптимизма Гурвица
- •Литература
m |
|
|
|
|
|
|
|
|
|
где Р (х0) = ∑P(Ωi )P(x0 |
|
Ωi ) . |
|
||||||
|
|
||||||||
i=1 |
|
|
|
|
|
|
|
|
|
Условные риски, связанные с решениями ω Ω1и ω Ω2 , равны соответственно |
|||||||||
R ( Ω |х0) = s12Р ( Ω |
2 |
|х0); R ( Ω |
2 |
|х0) = s21Р ( Ω |х0). |
(7.4) |
||||
1 |
|
|
|
|
|
1 |
|
||
Байесовская стратегия решает задачу с минимальным условным риском. Это значит, |
|||||||||
что предпочтение решению ω Ω1 следует отдавать тогда и только тогда, когда |
|
||||||||
R ( Ω | х0) / R ( Ω |
2 |
| х0) < 1. |
|
|
(7.5) |
||||
1 |
|
|
|
|
|
|
|
|
Подставим в это выражение значения условных рисков, определенных в (7.4). Тогда неравенство
s21 Р ( Ω1| х0) > s12 Р ( Ω2 | х0) или Р ( Ω1| х0) / Р ( Ω2 | х0) > s12 / s21
определяет, в каких условиях необходимо принять решение о том, что ω Ω1.
При практическом применении правила (7.5) априорные вероятности P ( Ωi ) задаются на основании статистических сведений, архивных данных, литературных источников, а условные вероятности Р (х| Ωi ) оцениваются по результатам наблюдений:
P (x1,…, x p | Ωi ) = Р (x1| Ωi ) Р (x2| Ωi ,x1)· ··· ·Р ( x p | Ωi , x1,…, x p−1 ).
При оценке Р (х| Ωi ) довольно часто используется предположение о том, что события, состоящие в появлении у объекта тех или иных значений рассматриваемых признаков, статистически независимы. Тогда Р (х| Ωi ) можно выразить через условные вероятности появления отдельных значений признаков в классе Ωi :
Р (х| Ωi ) = ∏P(x j | Ωi ).
j
7.2. Принятие решения с помощью последовательной процедуры Вальда
В большинстве методов классификации предполагается, что решение о принадлежности классифицируемого объекта ω классу Ωi , i = 1, …, m, принимается после измерения всех признаков объекта x j , j = 1, …, р.
Однако возможен другой подход к решению этой задачи: после измерения каждого очередного признака х1; х1, х2; х1, х2, х3 и т.д. решается задача классификации на основании измеренных к текущему моменту признаков неизвестного объекта. При этом в зависимости от результатов сравнения полученного решения с некоторой установленной заранее границей либо измеряется очередной признак объекта, либо прекращается накопление информации об этом объекте. Такая процедура классификации называется
последовательной процедурой Вальда [1].
Пусть fik (x1, …, xk ) – известная функция плотности вероятностей k-мерной случайной переменной X = (x1, …, xk ), значения которой можно наблюдать на объектах,
принадлежащих классу Ωi , i = 1, 2,…, m, k = 1, 2, …, р. Определим λ(ijk) (х) как отношение
плотностей вероятностей:
λ(ijk) (х) = fik (х) / f jk (х), i, j = 1, 2,…, m, j ≠ i, k = 1, 2, …, р, λ(ij0) (х) = 1, i, j = 1, 2,…, m, j ≠ i.
40
Предположим, что требуется установить его принадлежность объекта к одному из двух возможных классов Ω1 и Ω2 . На основании последовательного теста Вальда сформулируем
решающее правило:
объект относится к классу Ω1, если
A < |
λ(k) (х0) < В, для k = 0, 1, 2, …, n–1, |
(7.6) |
|
12 |
|
а для k = п |
|
|
λ(n) |
(х0) ≥ В, п ≤ р; |
(7.7) |
12 |
|
|
объект относится к классу Ω2 , если для k = 0, 1,…, n–1 выполняется соотношение
(7.6), а для k = п
λ(n) |
(х0) ≤ A, п ≤ р. |
(7.8) |
||
12 |
|
|
|
|
Пусть |
P(n) |
– вероятность ошибочной классификации |
(на основании первых п |
|
|
|
ij |
|
|
компонент вектора х) наблюдаемого объекта в класс Ωj , если он в действительности принадлежит классу Ωi ( i, j = 1, 2). Выбираем А и В таким образом, чтобы для данного п
P12(n) = α и P21(n) = β (α и β – соответственно вероятности ошибок 1- и 2-го рода). Тогда
пороговые значения А и В будут равны:
А = α / (1 – β ), В = (1 – α) / β. (7.9)
В практике анализа данных последовательная процедура организуется следующим образом. Необходимо классифицировать объект, характеризуемый р признаками. Рассмотрим случай двух классов (т = 2). По формуле Байеса (7.3) вычисляем апостериорные
вероятности |
Р ( Ωi | x1,…, x p ) принадлежности объекта |
классу |
Ωi , |
i = 1, 2. |
Найдем |
|||||||||||||||||||||||||
отношение |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
P(Ω1 |
| x1,…, xp ) |
|
P(Ω ) |
|
P(x | Ω ) |
|
P(x |
2 |
| Ω , x ) |
|
|
P(xp | Ω1, x1,…, xp −1) |
|||||||||||||||||
|
|
|
|
|
|
= |
|
1 |
|
|
1 |
1 |
|
|
|
|
1 |
|
1 |
... |
|
|
|
|
|
|
|
|
. |
|
|
P(Ω |
2 |
| x ,…, x |
p |
) |
P(Ω |
2 |
) |
P(x | Ω |
2 |
) |
P(x |
2 |
| Ω |
2 |
, x ) |
|
P(x |
p |
| Ω |
2 |
, x ,…, x |
p −1 |
) |
||||||
|
|
1 |
|
|
|
|
|
1 |
|
|
|
|
|
1 |
|
|
|
|
1 |
|
|
Сначала анализируется признак x1 (k = 1). Предположим, что для класса Ω1 признак x1 имеет частоту встречаемости Р (x1| Ω1 ), для класса Ω2 – соответственно Р (x1| Ω2 ). Если установлено, что признак x1 в классе Ω1 встречается значительно чаще, чем в классе Ω2 , то можно сделать вывод в пользу класса Ω1 .
Решающее правило:
объект принадлежит классу Ω1 , если
P(x1 | Ω1) ≥ В, P(x1 | Ω2 )
где В – верхняя граница, необходимая для принятия решения. Значение B определяется по формуле (7.9).
Впротивоположном случае, когда признак x1 значительно чаще встречается в классе
Ω2 , принимается следующее решение:
объект принадлежит классу Ω2 , если
P(x1 | Ω1) ≤ А, P(x1 | Ω2 )
41