- •Часть I. Общие положения
- •Глава 3. Априорная неопределенность и возможные способы
- •3.2. Неполное статистическое описание данных наблюдения. Параметрическое описание априорной неопределенности
- •Эмпирический подход в задачах с априорной неопределенностью. Обучение
- •3.3.1 Простое обучение
- •3.3.2. «Рабочеподобное» обучение
- •Часть II. Методы синтеза информационных систем в условиях
- •4.2. Существенная и несущественная априорная неопределенность
- •4.3. Понятие оптимальности в условиях априорной неопределенности
- •4.3.1. Равномерно наилучшее решение
- •4.3.2. Принцип асимптотической оптимальности
- •4.3.3. Минимаксиминный принцип (минимакс минимального среднего риска)
- •4.3.4. Принцип минимума усредненного риска
- •4.3.5. Минимаксный принцип
- •4.4. Соотношения между правилами решения, полученными на основе различных принципов предпочтения
- •4.5. Использование достаточных статистик
- •Глава 5. Минимаксный подход
- •5.1. Минимаксное правило решения при наличии априорной неопределенности относительно параметров X
- •5.2. Полное незнание априорного распределения
- •5.3. Ограниченные сведения о множестве допустимых значений
- •5.4. Ограниченные сведения о статистических характеристиках
- •Г л а в а 6. Адаптивный байесов подход
- •6.1. Общие положения
- •6.2. Адаптивный байесов подход при параметрической априорной неопределенности
- •6.3. Случаи, когда множества решений u и параметров l непрерывны
- •6.4. Соответствие адаптивного байесова правила решения принципам оптимальности в условиях априорной неопределенности
- •6.4.1. Принцип предпочтения, связанный с равномерно наилучшим правилом решения
- •6.4.2. Принцип асимптотической оптимальности
- •6.4.3. Минимаксиминный принцип
- •6.4.4. Принцип минимакса
- •6.5. Принцип минимума усредненного риска
- •6.5.1. Случай одинаковой совокупности параметров при разных значениях
- •6.5.2. Случай разных совокупностей параметров при разных значениях
- •6.6. Выводы
6.4.4. Принцип минимакса
В общем случае адаптивное байесово и минимаксное решающие правила находятся в обычном соотношении, обсуждавшемся в гл. 4. Максимальное (по g) значение среднего риска для адаптивного байесова правила не меньше, чем величина минимаксного риска, однако при других значениях g средний риск адаптивного байесова правила может быть меньше и даже существенно меньше минимаксного риска. В этой связи особый интерес представляет выявление случаев, когда максимальный средний риск адаптивного байесова правила решения не превышает величины минимаксного риска. В таких случаях адаптивное правило равномерно (то есть при всех значениях g) не хуже минимаксного правила, а при некоторых (или даже почти всех) значениях g может оказаться лучше минимаксного.
Один
из подобных примеров уже был рассмотрен
в § 5.6, где мы нашли совокупность решающих
правил (5.6.11); максимальная величина
риска достигается при единственном
значении неизвестного параметра
функции правдоподобия
и
точно равна минимаксному значению,
а при всех
риск
меньше минимаксного. Покажем, что
правило решения (5.6.11) является
адаптивным байесовым правилом и может
быть найдено с помощью адаптивного
байесова подхода. Действительно, в
общем случае байесово правило решения
для двухальтернативной задачи имеет
вид

где для случая § 5.6 отношение правдоподобия

z
= z(x)
- достаточная статистика, линейно
зависящая от х
и определяемая выражением (5.6.7). Это
отношение правдоподобия зависит от
неизвестного параметра
,
который при адаптивном байесовом
подходе следует заменить оценкой
максимального правдоподобия
*
=
*(х).
Последняя
согласно (6.2.15) определяется из уравнения
правдоподобия
,
решение которого с учетом выражений
имеет вид
*
= z.
После подстановки этой оценки в отношение правдоподобия мы. приходим к правилу принятия решения

или эквивалентному ему правилу решения (5.6.11).
Можно
привести и другие примеры, когда
максимальный средний риск адаптивного
байесова правила решения не превышает
минимаксного риска. Это имеет место,
в частности, для всего класса задач, в
которых средний риск оптимального
байесова правила решения при известном
значении g
не
зависит от этого значения g,
хотя
само оптимальное правило явно зависит
от g
и
равномерно наилучшего правила
решения не существует. Примеры таких
задач довольно многочисленны.
Доказательство высказанного утверждения
заключается в следующем. Адаптивное
правило решения при выборе оценки
(х)
в
соответствии с требованием (6.2.12)
удовлетворяет принципу минимакса для
отклонения
среднего
риска от среднего риска оптимального
байесова правила решения. Поскольку
последний не зависит от g,
то
адаптивное байесово правило решения
одновременно удовлетворяет принципу
минимакса и для самой величины среднего
риска
,
то есть для этого правила
не
превосходит величины минимаксного
риска. Так же как утверждение п. 6.4.4, это
утверждение, строго говоря, справедливо
при подстановке в правило решения
(6.2.6) оценки
(x),
удовлетворяющей требованию (6.2.12), и
может оказаться неточным при использовании
оценки максимального правдоподобия
g*(x),
если последняя заметно отличается от
(x).
Интересно было бы найти достаточно общие условия, при которых максимум риска адаптивного байесова правила решения не больше минимаксного риска. Однако, по-видимому, такая задача не проще, а может быть и сложнее, чем задача отыскания минимаксных правил решения в общем случае, и еще ждет своего решения.
