
- •Н.Н. Апраушева элементарный курс
- •Решений
- •Научное издание
- •Н.С. Гумилев
- •Глава 1. Элементы теории эвристических решений (эр)
- •§1. Строгие и эвристические методы пр
- •§2. Общая структура процесса принятия решения
- •§3. Центральная проблема теории эр
- •§4. Краткая история развития эр
- •Глава 2. Принятие решений в распознавании образов
- •§ 1. Понятие о распознавании образов, классификации
- •§2. Условия применимости математических
- •§3. Критерий оптимальной классификации
- •§4. Основные условия, гарантирующие оптимальную
- •§ 5. Алгоритмы классификации в режиме с обучением
- •§6. Классификация как задача проверки
- •§7. Алгоритмы автоматической классификации (ак)
- •§8. Предварительное обнаружение классов
- •Глава 3. Общая математическая теория принятия решений
- •§1. Принятие решений в условиях неопределенности
- •§ 2. Принятие решений в условиях риска
- •§3. Принятие решений при проведении эксперимента
- •§4. Принятие решений при проведении
- •Ррпт – резко различающиеся плотности точек
- •Содержание
§4. Принятие решений при проведении
нескольких экспериментов
4.1. Постановка задачи и методы ее решения
Пусть имеется возможность повести второй эксперимент Y, независимый от первогоZ. Тогда можно уточнить апостериорные вероятности состояний природы. За априорные вероятности состояний природы во 2-м эксперименте принимаются их апостериорные вероятности, полученные на основании 1-го эксперимента. Далее, по формуле Байеса с использованием результата 2-го эксперимента находятся новые, уточненные значения апостериорных вероятностей состояний природы[13].
Эксперименты Z, Y считаем независимыми, т.е.
,
(3.20)
где
– вероятность того, что результат
1-го эксперимента естьZ,
а результат 2-го эксперимента естьY
при состоянии природы
.
Аналогичный смысл имеют условные
вероятности
для 1-го и 2-го экспериментов.
Докажем, что
апостериорная вероятность
при одновременном использовании
результатов двух экспериментовZ,
Y
равна апостериорной вероятности
при их последовательном использовании
,
.
Для
по формуле Байеса имеем
.
(3.21)
С другой стороны, при последовательном использовании результатов 1-го и 2-го экспериментов, Z и Y, мы проводим вычисления в такой последовательности.
.
(3.22)
Чтобы использовать
результаты 1-го эксперимента, в правую
часть (3.22) вместо априорных вероятностей
подставляем апостериорные вероятности
,
вычисленные на основе 1-го эксперимента
по формуле Байеса (3.15). Тогда выражение
(3.22) преобразуется к виду
что и требовалось доказать. Последние два выражения в (3.23) получены на основании равенства (3.20), (3.15) и (3.16) соответственно.
Пусть 1-й эксперимент имеет три исхода z, = 1, 2, 3, а 2-й – два исходаy, = 1, 2. Тогда все возможные комбинации исходов экспериментовz,y можно представить в виде матрицы
.
Получается большее разнообразие исходов экспериментов, чем в случае проведения только одного эксперимента.
Далее поступаем аналогично случаю проведения только одного эксперимента. Для каждого результата объединенного эксперимента ZYнаходим для каждой операции ai, i = 1, 2,…, m, среднюю полезность
.
(3.24)
По максимуму
средней полезности выделяем оптимальную
операцию
,
.
Изменяя , , находим байесовскую стратегию. При = 1, 2, 3, = 1, 2 имеем
Далее, средняя максимальная полезность находится по формуле
.
(3.25)
Если провести третий эксперимент, дающий дополнительную информацию о состоянии природы, то по формулам Байеса можно уточнить вероятности состояний природы и повысить среднюю полезность принимаемого решения.
Проведя достаточно большое число разных экспериментов, можно с вероятностью, близкой к 1, узнать истинное состояние природы. При этом первоначальные значения априорных вероятностей состояний природы не имеют большого значения. Следовательно, при проведении серии экспериментов процесс принятия решений можно рассматривать как процесс обучения: каждый дополнительный эксперимент как бы уменьшает степень неопределенности относительно внешней среды и, следовательно, позволяет принимать в среднем более правильные решения.
Если априорные вероятности какого-либо состояния природы равны 1, то никакого обучения не происходит, ибо в этом случае апостериорные вероятности совпадают с априорными.
Пусть, например, p(Q1) = 1, p(Qj) = 0, j = 2, 3, … , n.Тогда по формуле Байеса получаем
т.е. равенство апостериорных и априорных вероятностей.
Отсюда следует практический вывод: если нет полной уверенности относительно истинного состояния природы и для прояснения обстановки возможно провести эксперимент, то не следует одну из априорных вероятностей полагать равной 1.
4.2. Решение конкретной задачи
Рассмотрим
конкретный пример: к условиям задачи,
рассмотренной в §3, добавим информацию,
даваемую 2-м экспериментом y,
= 1, 2. Значения условных вероятностей
,записаны в табл. 3.10.
Для = 1, = 1 имеем
.
Т
На
основании формул (3.21), (3.15), (3.20) получим
y |
Q1 |
Q2 |
y1 |
0.8 |
0.3 |
y2 |
0.2 |
0.7 |
Используя данные таблиц из 3.7, 3.8, 3.10, получим
Используя данные табл. 3.7 и формулу (3.24), имеем
Следовательно, при = 1,= 1 оптимальной операцией является операцияa1,
.
Аналогично для = 1, = 2 имеем
Следовательно, при = 1,= 2 оптимальной операцией является операцияa2,
.
Аналогично проводятся вычисления при = 2,= 1;= 2,= 2; = 3,= 1; = 3,= 2. Результаты вычислений, представленные в табл. 3.11, заимствованы из[13].
Таблица 3.11
zy |
z1y1 |
z1y2 |
z2y1 |
z2y2 |
z3y1 |
z3y2 |
P |
0.324 |
0.156 |
0.156 |
0.164 |
0.12 |
0.08 |
aopt |
a1 |
a2 |
a1 |
a1 |
a1 |
a2 |
U(aopt) |
|
|
|
|
|
|
Оптимальную стратегию можно записать так:
На основе формулы (3.25) и данных табл. 3.11, вычислим среднюю полезность оптимальной стратегии
Как и следовало ожидать, средняя полезность увеличилась (с 6.68 до 7.24) при использовании добавочного эксперимента.
Проведение эксперимента позволяет уточнить вероятности состояний природы и, следовательно, принять решение, соответствующее большей средней полезности. Но проведение эксперимента требует определения затрат. И, если эти затраты превысят прирост средней полезности, вызванный экспериментом, то его проводить не следует. Принятие решений при проведении экспериментов с учетом их стоимости детально изложено в работе [13].
В заключении автор выражает сердечную благодарность студентам МИРЭА Данченкову А.В., Малевой И.В., Медведевой В.В., Мустонен А.А., Никитиной Т.Е., Никифоровой Т.В., Шевченко А.А., взявшим на себя огромный труд по подготовке рукописи к печати.
СПИСОК
используемых сокращений
АК – автоматическая классификация
АР – абдуктивные решения
АСУ – автоматизированная система управления
ВР – вариационный ряд
ВРmin – минимальный вариационный ряд
ДР – дедуктивные решения
ИЭИП – исследование элементарных информационных процессов
ИР – индуктивные решения
КА – коэффициент ассоциативности
КК – коэффициент корреляции
КМ – корреляционный метод
КНП – кратчайший незамкнутый путь
ЛДФ – линейная дискриминантная функция
ЛМ – локальный минимум
ЛПР – лицо, принимающее решение
МД – медицинская диагностика
МНК – метод наименьших квадратов
ОВР – основной вариационный ряд
ПР – принятие решений
РА – регрессионный алгоритм
РО – распознавание образов