Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Kurs_TPR.doc
Скачиваний:
13
Добавлен:
27.09.2019
Размер:
2.06 Mб
Скачать

§4. Принятие решений при проведении

нескольких экспериментов

4.1. Постановка задачи и методы ее решения

Пусть имеется возможность провести второй эксперимент Y, не зависимый от первого Z. Тогда можно уточнить апостериорные вероятности состояний природы. За априорные вероятности состояний природы во 2-м эксперименте принимаются их апостериорные вероятности, полученные на основании 1-го эксперимента. Далее по формуле Байеса с использованием результата 2-го эксперимента находятся новые, уточненные значения апостериорных вероятностей состояний природы [13].

Эксперименты Z, Y считаем независимыми, т.е.

, (3.20)

где – вероятность того, что результат 1-го эксперимента есть Z, а результат 2-го эксперимента есть Y при состоянии природы . Аналогичный смысл имеют условные вероятности для 1-го и 2-го экспериментов.

Докажем, что апостериорная вероятность при одновременном использовании результатов двух экспериментов Z, Y равна апостериорной вероятности при их последовательном использовании ,

.

Для по формуле Байеса имеем

. (3.21)

С другой стороны, при последовательном использовании результатов 1-го и 2-го экспериментов, Z и Y, мы проводим вычисления в такой последовательности.

. (3.22)

Чтобы использовать результаты 1-го эксперимента, в правую часть (3.22) вместо априорных вероятностей подставляем апостериорные вероятности , вычисленные на основе 1-го эксперимента по формуле Байеса (3.15). Тогда выражение (3.22) преобразуется к виду

(3.23)

что и требовалось доказать. Последние два выражения в (3.23) получены на основании равенства (3.20), (3.15) и (3.16) соответственно.

Пусть 1-й эксперимент имеет три исхода z,  = 1, 2, 3, а 2-й – два исхода y,  = 1, 2. Тогда все возможные комбинации исходов экспериментов z, y можно представить в виде матрицы

.

Получается большее разнообразие исходов экспериментов, чем в случае проведения только одного эксперимента.

Далее поступаем аналогично случаю проведения только одного эксперимента. Для каждого результата объединенного эксперимента ZY находим для каждой операции ai, i = 1, 2,…, m, среднюю полезность

. (3.24)

По максимуму средней полезности выделяем оптимальную операцию ,

.

Изменяя , , находим байесовскую стратегию. При  = 1, 2, 3,  = 1, 2 имеем

Далее средняя максимальная полезность находится по формуле

. (3.25)

Если провести третий эксперимент, дающий дополнительную информацию о состоянии природы, то по формулам Байеса можно уточнить вероятности состояний природы и повысить среднюю полезность принимаемого решения.

Проведя достаточно большое число разных экспериментов, можно с вероятностью, близкой к единице, узнать истинное состояние природы. При этом первоначальные значения априорных вероятностей состояний природы не имеют большого значения. Следовательно, при проведении серии экспериментов процесс принятия решений можно рассматривать как процесс обучения: каждый дополнительный эксперимент как бы уменьшает степень неопределенности относительно внешней среды и, следовательно, позволяет принимать в среднем более правильные решения.

Если априорные вероятности какого-либо состояния природы равны единице, то никакого обучения не происходит, ибо в этом случае апостериорные вероятности совпадают с априорными.

Пусть, например, p(Q1) = 1, p(Qj) = 0, j = 2, 3, … , n. Тогда по формуле Байеса получаем

т.е. равенство апостериорных и априорных вероятностей.

Отсюда следует практический вывод: если нет полной уверенности относительно истинного состояния природы и для прояснения обстановки возможно провести эксперимент, то не следует одну из априорных вероятностей полагать равной единице.

4.2. Решение конкретной задачи

Рассмотрим конкретный пример: к условиям задачи, рассмотренной в §3, добавим информацию, даваемую 2-м экспериментом y,  = 1, 2. Значения условных вероятностей , записаны в табл. 3.10.

  1. Для  = 1,  = 1 имеем

.

Т

На основании формул (3.21), (3.16), (3.20) получим

аблица 3.10

Qj

y

Q1

Q2

y1

0.8

0.3

y2

0.2

0.7

Используя данные таблиц из 3.7, 3.8, 3.10, получим

Используя данные табл. 3.7 и формулу (3.24), имеем

Следовательно, при  = 1,  = 1 оптимальной операцией является операция a1,

.

  1. Аналогично для  = 1,  = 2 имеем

Следовательно, при  = 1,  = 2 оптимальной операцией является операция a2,

.

Аналогично проводятся вычисления при  = 2,  = 1;  = 2,  = 2;  = 3,  = 1;  = 3,  = 2. Результаты вычислений, представленные в табл. 3.11, заимствованы из [13].

Таблица 3.11

zy

z1y1

z1y2

z2y1

z2y2

z3y1

z3y2

P

0.324

0.156

0.156

0.164

0.12

0.08

aopt

a1

a2

a1

a1

a1

a2

U(aopt)

Оптимальную стратегию можно записать так:

На основе формулы (3.25) и данных табл. 3.11, вычислим среднюю полезность оптимальной стратегии

Как и следовало ожидать, средняя полезность увеличилась (с 6.68 до 7.24) при использовании добавочного эксперимента.

Проведение эксперимента позволяет уточнить вероятности состояний природы и, следовательно, принять решение, соответствующее большей средней полезности. Но проведение эксперимента требует определения затрат. И если эти затраты превысят прирост средней полезности, вызванный экспериментом, то его проводить не следует. Принятие решений при проведении экспериментов с учетом их стоимости детально изложено в работе [13].

В заключение автор выражает сердечную благодарность

студентам МИРЭА А.В. Данченкову, И.В. Малевой, В.В. Медведевой., А.А. Мустонен, Т.Е. Никитиной, Т.В. Никифоровой, А.А. Шевченко, взявшим на себя огромный труд по подготовке рукописи к печати.

СПИСОК

используемых сокращений

АК – автоматическая классификация,

АР – абдуктивные решения,

АСУ – автоматизированная система управления,

ВР – вариационный ряд,

ВРmin – минимальный вариационный ряд,

ДР – дедуктивные решения,

ИЭИП – исследование элементарных информационных процессов,

ИР – индуктивные решения,

КА – коэффициент ассоциативности,

КК – коэффициент корреляции,

КМ – корреляционный метод,

КНП – кратчайший незамкнутый путь,

ЛДФ – линейная дискриминантная функция,

ЛМ – локальный минимум,

ЛПР – лицо, принимающее решение,

МД – медицинская диагностика,

МНК – метод наименьших квадратов,

ОВР – основной вариационный ряд,

ПР – принятие решений,

РА – регрессионный алгоритм,

РО – распознавание образов,

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]