- •Н.Н. Апраушева элементарный курс
- •Решений
- •Научное издание
- •Н.С. Гумилев
- •Глава 1. Элементы теории эвристических решений (эр)
- •§1. Строгие и эвристические методы пр
- •§2. Общая структура процесса принятия решения
- •§3. Центральная проблема теории эр
- •§4. Краткая история развития эр
- •Глава 2. Принятие решений в распознавании образов
- •§ 1. Понятие о распознавании образов, классификации
- •§2. Условия применимости математических
- •§3. Критерий оптимальной классификации
- •§4. Основные условия, гарантирующие оптимальную
- •§ 5. Алгоритмы классификации в режиме с обучением
- •§6. Классификация как задача статистической
- •§7. Алгоритмы автоматической классификации (ак)
- •§8. Предварительное обнаружение классов
- •Глава 3. Общая математическая теория принятия решений
- •§1. Принятие решений в условиях неопределенности
- •§ 2. Принятие решений в условиях риска
- •§3. Принятие решений при проведении эксперимента
- •§4. Принятие решений при проведении
- •Ррпт – резко различающиеся плотности точек,
§4. Принятие решений при проведении
нескольких экспериментов
4.1. Постановка задачи и методы ее решения
Пусть имеется возможность провести второй эксперимент Y, не зависимый от первого Z. Тогда можно уточнить апостериорные вероятности состояний природы. За априорные вероятности состояний природы во 2-м эксперименте принимаются их апостериорные вероятности, полученные на основании 1-го эксперимента. Далее по формуле Байеса с использованием результата 2-го эксперимента находятся новые, уточненные значения апостериорных вероятностей состояний природы [13].
Эксперименты Z, Y считаем независимыми, т.е.
, (3.20)
где – вероятность того, что результат 1-го эксперимента есть Z, а результат 2-го эксперимента есть Y при состоянии природы . Аналогичный смысл имеют условные вероятности для 1-го и 2-го экспериментов.
Докажем, что апостериорная вероятность при одновременном использовании результатов двух экспериментов Z, Y равна апостериорной вероятности при их последовательном использовании ,
.
Для по формуле Байеса имеем
. (3.21)
С другой стороны, при последовательном использовании результатов 1-го и 2-го экспериментов, Z и Y, мы проводим вычисления в такой последовательности.
. (3.22)
Чтобы использовать результаты 1-го эксперимента, в правую часть (3.22) вместо априорных вероятностей подставляем апостериорные вероятности , вычисленные на основе 1-го эксперимента по формуле Байеса (3.15). Тогда выражение (3.22) преобразуется к виду
(3.23)
Пусть 1-й эксперимент имеет три исхода z, = 1, 2, 3, а 2-й – два исхода y, = 1, 2. Тогда все возможные комбинации исходов экспериментов z, y можно представить в виде матрицы
.
Получается большее разнообразие исходов экспериментов, чем в случае проведения только одного эксперимента.
Далее поступаем аналогично случаю проведения только одного эксперимента. Для каждого результата объединенного эксперимента ZY находим для каждой операции ai, i = 1, 2,…, m, среднюю полезность
. (3.24)
По максимуму средней полезности выделяем оптимальную операцию ,
.
Изменяя , , находим байесовскую стратегию. При = 1, 2, 3, = 1, 2 имеем
Далее средняя максимальная полезность находится по формуле
. (3.25)
Если провести третий эксперимент, дающий дополнительную информацию о состоянии природы, то по формулам Байеса можно уточнить вероятности состояний природы и повысить среднюю полезность принимаемого решения.
Проведя достаточно большое число разных экспериментов, можно с вероятностью, близкой к единице, узнать истинное состояние природы. При этом первоначальные значения априорных вероятностей состояний природы не имеют большого значения. Следовательно, при проведении серии экспериментов процесс принятия решений можно рассматривать как процесс обучения: каждый дополнительный эксперимент как бы уменьшает степень неопределенности относительно внешней среды и, следовательно, позволяет принимать в среднем более правильные решения.
Если априорные вероятности какого-либо состояния природы равны единице, то никакого обучения не происходит, ибо в этом случае апостериорные вероятности совпадают с априорными.
Пусть, например, p(Q1) = 1, p(Qj) = 0, j = 2, 3, … , n. Тогда по формуле Байеса получаем
т.е. равенство апостериорных и априорных вероятностей.
Отсюда следует практический вывод: если нет полной уверенности относительно истинного состояния природы и для прояснения обстановки возможно провести эксперимент, то не следует одну из априорных вероятностей полагать равной единице.
4.2. Решение конкретной задачи
Рассмотрим конкретный пример: к условиям задачи, рассмотренной в §3, добавим информацию, даваемую 2-м экспериментом y, = 1, 2. Значения условных вероятностей , записаны в табл. 3.10.
Для = 1, = 1 имеем
.
Т
На
основании формул (3.21), (3.16), (3.20) получим
Qj y |
Q1 |
Q2 |
y1 |
0.8 |
0.3 |
y2 |
0.2 |
0.7 |
Используя данные таблиц из 3.7, 3.8, 3.10, получим
Используя данные табл. 3.7 и формулу (3.24), имеем
Следовательно, при = 1, = 1 оптимальной операцией является операция a1,
.
Аналогично для = 1, = 2 имеем
Следовательно, при = 1, = 2 оптимальной операцией является операция a2,
.
Аналогично проводятся вычисления при = 2, = 1; = 2, = 2; = 3, = 1; = 3, = 2. Результаты вычислений, представленные в табл. 3.11, заимствованы из [13].
Таблица 3.11
zy |
z1y1 |
z1y2 |
z2y1 |
z2y2 |
z3y1 |
z3y2 |
P |
0.324 |
0.156 |
0.156 |
0.164 |
0.12 |
0.08 |
aopt |
a1 |
a2 |
a1 |
a1 |
a1 |
a2 |
U(aopt) |
|
|
|
|
|
|
Оптимальную стратегию можно записать так:
На основе формулы (3.25) и данных табл. 3.11, вычислим среднюю полезность оптимальной стратегии
Как и следовало ожидать, средняя полезность увеличилась (с 6.68 до 7.24) при использовании добавочного эксперимента.
Проведение эксперимента позволяет уточнить вероятности состояний природы и, следовательно, принять решение, соответствующее большей средней полезности. Но проведение эксперимента требует определения затрат. И если эти затраты превысят прирост средней полезности, вызванный экспериментом, то его проводить не следует. Принятие решений при проведении экспериментов с учетом их стоимости детально изложено в работе [13].
В заключение автор выражает сердечную благодарность
студентам МИРЭА А.В. Данченкову, И.В. Малевой, В.В. Медведевой., А.А. Мустонен, Т.Е. Никитиной, Т.В. Никифоровой, А.А. Шевченко, взявшим на себя огромный труд по подготовке рукописи к печати.
СПИСОК
используемых сокращений
АК – автоматическая классификация,
АР – абдуктивные решения,
АСУ – автоматизированная система управления,
ВР – вариационный ряд,
ВРmin – минимальный вариационный ряд,
ДР – дедуктивные решения,
ИЭИП – исследование элементарных информационных процессов,
ИР – индуктивные решения,
КА – коэффициент ассоциативности,
КК – коэффициент корреляции,
КМ – корреляционный метод,
КНП – кратчайший незамкнутый путь,
ЛДФ – линейная дискриминантная функция,
ЛМ – локальный минимум,
ЛПР – лицо, принимающее решение,
МД – медицинская диагностика,
МНК – метод наименьших квадратов,
ОВР – основной вариационный ряд,
ПР – принятие решений,
РА – регрессионный алгоритм,
РО – распознавание образов,