- •Часть I. Общие положения
- •Глава 3. Априорная неопределенность и возможные способы
- •3.2. Неполное статистическое описание данных наблюдения. Параметрическое описание априорной неопределенности
- •Эмпирический подход в задачах с априорной неопределенностью. Обучение
- •3.3.1 Простое обучение
- •3.3.2. «Рабочеподобное» обучение
- •Часть II. Методы синтеза информационных систем в условиях
- •4.2. Существенная и несущественная априорная неопределенность
- •4.3. Понятие оптимальности в условиях априорной неопределенности
- •4.3.1. Равномерно наилучшее решение
- •4.3.2. Принцип асимптотической оптимальности
- •4.3.3. Минимаксиминный принцип (минимакс минимального среднего риска)
- •4.3.4. Принцип минимума усредненного риска
- •4.3.5. Минимаксный принцип
- •4.4. Соотношения между правилами решения, полученными на основе различных принципов предпочтения
- •4.5. Использование достаточных статистик
- •Глава 5. Минимаксный подход
- •5.1. Минимаксное правило решения при наличии априорной неопределенности относительно параметров X
- •5.2. Полное незнание априорного распределения
- •5.3. Ограниченные сведения о множестве допустимых значений
- •5.4. Ограниченные сведения о статистических характеристиках
- •Г л а в а 6. Адаптивный байесов подход
- •6.1. Общие положения
- •6.2. Адаптивный байесов подход при параметрической априорной неопределенности
- •6.3. Случаи, когда множества решений u и параметров l непрерывны
- •6.4. Соответствие адаптивного байесова правила решения принципам оптимальности в условиях априорной неопределенности
- •6.4.1. Принцип предпочтения, связанный с равномерно наилучшим правилом решения
- •6.4.2. Принцип асимптотической оптимальности
- •6.4.3. Минимаксиминный принцип
- •6.4.4. Принцип минимакса
- •6.5. Принцип минимума усредненного риска
- •6.5.1. Случай одинаковой совокупности параметров при разных значениях
- •6.5.2. Случай разных совокупностей параметров при разных значениях
- •6.6. Выводы
4.3. Понятие оптимальности в условиях априорной неопределенности
Как
уже отмечалось выше, в условиях априорной
неопределенности величина среднего
риска
из-за
неоднозначности задания
P
не
определена, и сам принцип выбора
оптимального решения по минимуму
среднего риска становится нечетким,
так как непонятно минимум чего же
нужно искать. Для того чтобы обсудить
возможные в этих условиях принципы
предпочтения при выборе решения, иными
словами понятие оптимальности, рассмотрим
поведение функционала
при
различных
из
допустимого множества решающих
функций
и
P
.
4.3.1. Равномерно наилучшее решение
Допустим,
что для каждого фиксированного
найден
.
Значение
,
при котором достигается этот минимум,
то есть
байесово
правило решения, вообще говоря, зависит
от
,
так что при изменении
минимизирующее значение
является
функционалом
(рис. 4.1) и
.
(4.3.1)
Если
окажется, что минимум для всех
P
достигается
при одном и том же
(рис. 4.2), то существует равномерно
наилучшее решение, которое и является
абсолютно оптимальным, а априорная
неопределенность не является
существенной. Само равномерно наилучшее
решение может быть найдено с помощью
обычной байесовой процедуры.

Рис.
4.1. Область оптимальных байесовых правил
решений при различных
P

Рис. 4.2. Равномерно наилучшее правило решения
Следует
отметить, что если ввести произвольную
меру
на
множестве P
(не
обязательно имеющую вероятностный
смысл) и проинтегрировать средний
риск по этой мере, определив таким
образом новый функционал решающего
правила
,
(4.3.2)
а
затем найти значение
,
минимизирующее этот функционал, то при
существовании равномерно наилучшего
решения это значение совпадает с
,
то есть
.
Это
означает, что в случае существования
равномерно наилучшего правила решения
можно произвольно усреднять средний
риск (в частности, при параметрической
априорной неопределенности вводить
для неизвестных параметров
и
распределений вероятности х
и
,
в свою
очередь,
более или менее произвольные распределения
вероятности) и искать минимум этого
усредненного значения. Подобного рода
усреднение во многих случаях может
существенно упростить задачу в отношении
техники отыскания оптимального правила
решения благодаря большей простоте
усредненного выражения.
4.3.2. Принцип асимптотической оптимальности
В
практических задачах синтеза в условиях
априорной неопределенности часто
характерно наличие большого объема
данных наблюдения х,
которые могут включать в себя (см. гл.
3) информацию о прошлом
опыте, данные обучения, эмпирическую
статистику и т. д. При этом в случае
полного статистического описания
значительная часть этих данных
оказалась бы избыточной, зато в условиях
априорной неопределенности такая
избыточность является в какой-то степени
компенсацией за отсутствие четкого и
полного статистического описания
задачи. Поясним это на примере простой
задачи двухальтернативного решения (
или
,
или
,
,
)
на основании данных наблюдения
,
образующих
совокупность независимо распределенных
величин. Пусть
(4.3.3)
где
- некоторый параметр плотности вероятности
.Статистическое
описание
(4.3.3) соответствует, например, случаю,
когда фактически решение должно быть
принято на (n+1)-м
шаге по результатам наблюдения
,
а
предыдущая серия {
}
наблюдалась
в условиях точно известной ситуации
(
)
и может рассматриваться в качестве
обучающей последовательности.
Возможная априорная неопределенность
в данной задаче связана с незнанием
параметра
,
из-за чего статистическое описание
(4.3.3) становится неполным.
Если
априорная неопределенность отсутствует
- параметр
известен - оптимальное правило решения
имеет вид (гл. 2): принимается
,
если
.
(4.3.4)
Это
правило, естественно, зависит только
от
,
а
все остальные данные наблюдения
являются избыточными. Если параметр
неизвестен, то знание {
}
очень
существенно, поскольку оно может быть
использовано для уменьшения априорной
неопределенности из-за неизвестности
.
При
этом по крайней мере интуитивно ясно,
что чем больше объем подобных «избыточных»
данных (в рассматриваемом примере этот
объем характеризуется числом
наблюдений
),
тем меньше влияние априорной
неопределенности. Поэтому можно
надеяться, что при увеличении объема и
улучшения качества наблюдаемых данныххможно получить решение такого же
качества, как если бы априорная
неопределенность отсутствовала и
распределение
нам было бы известно точно. Отсюда
логически
вытекает принцип асимптотической
оптимальности, который может быть
сформулирован следующим образом:
-
более предпочтительным является такое
правило решения
,
для которого средний риск
с
увеличением объема
данных
наблюдения стремится к минимальному
байесову риску
для
всех
P
равномерно.
Само
правило решения
,
удовлетворяющее этому требованию,
является асимптотически равномерно
наилучшим решением, а при ограниченном,
но большом объеме данных наблюдения х
- приближенно равномерно наилучшим.
Принцип асимптотической оптимальности
имеет очевидный недостаток - он не
определяет
вполне однозначно и оставляет открытым
вопрос, какое из асимптотически
оптимальных правил решения лучше
при ограниченном объеме данных наблюдения.
Однако столь же очевидна и его полезность
- он позволяет отклонить как
неудовлетворительные те правила, которые
даже асимптотически существенно
отличаются от оптимального байесова.
