
- •Часть I. Общие положения
- •Глава 3. Априорная неопределенность и возможные способы
- •3.2. Неполное статистическое описание данных наблюдения. Параметрическое описание априорной неопределенности
- •Эмпирический подход в задачах с априорной неопределенностью. Обучение
- •3.3.1 Простое обучение
- •3.3.2. «Рабочеподобное» обучение
- •Часть II. Методы синтеза информационных систем в условиях
- •4.2. Существенная и несущественная априорная неопределенность
- •4.3. Понятие оптимальности в условиях априорной неопределенности
- •4.3.1. Равномерно наилучшее решение
- •4.3.2. Принцип асимптотической оптимальности
- •4.3.3. Минимаксиминный принцип (минимакс минимального среднего риска)
- •4.3.4. Принцип минимума усредненного риска
- •4.3.5. Минимаксный принцип
- •4.4. Соотношения между правилами решения, полученными на основе различных принципов предпочтения
- •4.5. Использование достаточных статистик
- •Глава 5. Минимаксный подход
- •5.1. Минимаксное правило решения при наличии априорной неопределенности относительно параметров X
- •5.2. Полное незнание априорного распределения
- •5.3. Ограниченные сведения о множестве допустимых значений
- •5.4. Ограниченные сведения о статистических характеристиках
- •Г л а в а 6. Адаптивный байесов подход
- •6.1. Общие положения
- •6.2. Адаптивный байесов подход при параметрической априорной неопределенности
- •6.3. Случаи, когда множества решений u и параметров l непрерывны
- •6.4. Соответствие адаптивного байесова правила решения принципам оптимальности в условиях априорной неопределенности
- •6.4.1. Принцип предпочтения, связанный с равномерно наилучшим правилом решения
- •6.4.2. Принцип асимптотической оптимальности
- •6.4.3. Минимаксиминный принцип
- •6.4.4. Принцип минимакса
- •6.5. Принцип минимума усредненного риска
- •6.5.1. Случай одинаковой совокупности параметров при разных значениях
- •6.5.2. Случай разных совокупностей параметров при разных значениях
- •6.6. Выводы
Глава 5. Минимаксный подход
5.1. Минимаксное правило решения при наличии априорной неопределенности относительно параметров X
Минимаксный подход является удобным, а иногда и единственным средством получения правила решения u(х) в тех случаях, когда априорная неопределенность распространяется только на распределение вероятности параметров , не наблюдаемых непосредственно, но влияющих на последствия от принятия решения. Особенно велико его значение для ситуаций, когда данные наблюдения х не содержат сведений об априорном распределении . Это имеет место, если эти данные получены для единственного значения , или еще дополнительно для нескольких известных значений , но так, что относительная частота различных значений не связана с распределением p(). Конечно, минимаксный подход имеет более широкое значение и может применяться и тогда, когда априорная неопределенность распространяется на статистическое описание и данных наблюдения х и параметров , однако оговоренный выше случай имеет некоторую специфику, которая заслуживает отдельного рассмотрения.
Если априорная неопределенность относится только к (априорное распределение с плотностью р() полностью или частично неизвестно), то для всякого правила решения u(х) средний риск будет принимать различные значения, соответствующие разным р() из множества о, содержащего все возможные при данном уровне априорной неопределенности распределения . Если к тому же данные наблюдения х не содержат сведений о распределении , то класс минимаксных правил решений может быть сужен до множества U0(x) всех байесовых решений, соответствующих всем возможным априорным плотностям вероятности р()о. Это утверждение следует из теорем о полноте байесова класса решений и условий их справедливости, которые в данном случае выполняются.
При этом также имеет место равенство минимакса и максимина для риска R(u(х),р), то есть
(5.1.1)
откуда следует, что отыскание минимаксного правила решения можно свести к процедуре отыскания наименее предпочтительного распределения вероятности с плотностью р()о и последующему нахождению байесова правила решения относительно этого априорного распределения. (Существенно отметить, что в отличие от общего случая (гл. 4) максиминная задача может решаться не относительно общих мер (р), заданных на множестве возможных распределений вероятности {P(х|), р()}, а непосредственно относительно р (), заданных на множестве возможных значений .).
5.2. Полное незнание априорного распределения
Рассмотрим минимаксное правило решения для случая, когда какие-либо сведения о статистических свойствах отсутствуют вообще. При этом о - множество любых неотрицательных функций, подчиненных условию нормировки на множестве возможных значений .
Для нахождения минимаксного правила в этом случае полной априорной неопределенности относительно , можно воспользоваться теоремой А. Вальда, согласно которой минимаксное правило решения uм(х) является байесовым относительно некоторого наименее предпочтительного распределения вероятности с плотностью р*() и обладает тем свойством, что величина условного риска r(uм(х), ) (2.11) для этого решения одинакова при всех значениях для которых р*() отлична от нуля.
Рассмотрим в качестве примера достаточно общий случай, когда множество возможных значений непрерывно и представляет собой все пространство некоторой произвольной размерности (если ={1, ... ... n} - n-мерный вектор, то это множество - n-мерное евклидово пространство). Множество решений U также непрерывно и имеет ту же структуру, то есть решение u = u(x) является оценкой .
Пусть функция потерь g(u, ) имеет вид
(5.2.1)
то есть является симметричной функцией разности u - 1, и пусть существует такая достаточная статистика z = z(x), для которой плотность распределения вероятности выражается как
(5.2.2)
где Р - симметричная функция своего аргумента. Апостериорный риск для какого-либо произвольного распределения вероятности с плотностью p() вычисляется по формуле
(5.2.3)
Предположим теперь, что априорное распределение вероятности равномерно на всем множестве значений . Тогда с учетом свойств функций g и Р апостериорный риск
.
(5.2.4)
Минимум апостериорного риска достигается при u - z = 0, в чем легко убедиться, например, дифференцированием (5.2.4) по компонентам вектора u. Таким образом, при данном априорном распределении оптимальное правило решения u(х) имеет вид
(5.2.5)
Найдем условный риск для этого правила. Поскольку u(х) зависит от х только через z = z(x), то
.
(5.2.6)
или с учетом u(x) = z = z(x)
(5.2.7)
откуда следует, что условный риск не зависит от , равномерное распределение наименее предпочтительно, а правило решения (5.2.5) является минимаксным.
С другой стороны, из (5.2.2) следует, что
(5.2.8)
достигается при 1 = z, то есть достаточная статистика z = z(x) является оценкой максимального правдоподобия параметра 1, которая может быть найдена путем максимизации исходной функции правдоподобия P(х|1.), то есть из уравнения
,
(5.2.9)
которое с точностью до обозначений совпадает с уравнением (2.2.2), приведенным в гл. 2 в качестве уравнения, определяющего приближенное байесово решение задачи оценки при произвольном невырожденном распределении параметра и высокой информативности данных наблюдения х относительно в указанном в гл. 2 смысле. Теперь же мы убедились, что оценка максимального правдоподобия является также минимаксной оценкой для произвольной симметричной функции потерь. Конечно, строго говоря, это имеет место, когда плотность распределения вероятности оценки максимального правдоподобия * = *(x) = z(x) имеет вид (5.2.2) (заметим, что это условие слабее, чем предположение о существовании эффективной оценки параметра , и выполняется в большинстве случаев), однако в действительности оценки максимального правдоподобия обладают минимаксными свойствами в более широких условиях.